Cerca
Close this search box.

Danni da prodotti difettosi, la Ue punta sulla disclosure dei dati

All’esame del Parlamento 2 direttive che estendono la protezione dei consumatori in caso di prodotti difettosi, con meccanismi di disclosure.

Rafforzare la tutela dei consumatori in caso di prodotti difettosi attraverso meccanismi di disclosure che, soprattutto per i danni causati da sistemi di intelligenza artificiale, consentano di ridurre l’asimmetria informativa tra consumatore e produttore e di rendere effettiva la tutela dei danneggiati nell’era dei prodotti digitali.

È una delle novità più importanti previste dalle proposte di direttiva n. 495 e 496 del 2022 presentate dalla Commissione Ue e attualmente al vaglio del Parlamento europeo. La prima modifica le norme sulle responsabilità per danno da prodotti difettosi e abroga la direttiva 85/374/Cee, mentre la seconda fissa i principi cardine a cui si dovranno attenere i legislatori nazionali nel disciplinare la responsabilità extracontrattuale per danni derivante dall’utilizzo di sistemi di intelligenza artificiale. Le due proposte fanno parte di un ampio pacchetto di misure con le quali la Commissione intende garantire che le norme sulla responsabilità civile rispondano alla natura e ai rischi dei prodotti nell’era digitale e dell’economia circolare.

Con la nuova disciplina della responsabilità da prodotto difettoso il danneggiato potrà pertanto chiedere anche a soggetti diversi dal fabbricante che abbiano apportato modifiche sostanziali al prodotto (e, quindi, anche in relazione a pregiudizi causati da beni usati e ricondizionati) di essere tenuto indenne (senza più alcun limite minimo di valore) dei pregiudizi sofferti avvalendosi, nei casi in cui la particolare complessità tecnica e scientifica del caso rendano eccessivamente gravosa la prova del carattere difettoso del prodotto commercializzato e della sua efficacia causale rispetto al danno lamentato, della facoltà di domandare al giudice di ordinare al convenuto di divulgare – nel rispetto dei segreti commerciali e industriali esistenti – le informazioni inerenti le modalità di fabbricazione e funzionamento del bene acquistato.

Il ricorso alla disclosure sarà ancor più determinante nei casi di responsabilità per danni causati da un sistema di intelligenza artificiale ad alto rischio giacché dovrà fornire ai danneggiati che abbiano presentato elementi di prova sufficienti a dimostrare la plausibilità dell’iniziativa giudiziale (promossa o che intendono promuovere) gli strumenti utili a superare l’effetto “scatola nera” tipico dei sistemi di intelligenza artificiale.

Il danneggiato potrà quindi acquisire dal fornitore del sistema di IA (o da un utente) le informazioni utili a fondare la pretesa risarcitoria e a identificare la persona che con la propria condotta abbia determinato l’output (o la mancata produzione dell’output) del sistema di IA responsabile del pregiudizio risarcibile.

L’esigenza di porre rimedio all’asimmetria informativa che contraddistingue i rapporti tra produttore e consumatore e garantire al danneggiato il diritto ad una tutela effettiva troverà poi attuazione con l’introduzione di un meccanismo fondato sulle presunzioni che, nelle ipotesi di responsabilità per danni da prodotto difettoso, consentirà di ritenere provata in via presuntiva la difettosità di un prodotto e/o il collegamento causale di esso con il danno sofferto ogni qualvolta sia accertata la violazione da parte del fabbricante dei requisiti obbligatori di sicurezza previsti da norme nazionali o comunitarie, ovvero nei casi di malfunzionamento evidente dei prodotti commercializzati o di generica compatibilità tra la difettosità del prodotto dimostrata dall’attore e il danno di cui viene richiesto il risarcimento.

I legislatori nazionali che non prevedano forme di responsabilità oggettiva nei rispettivi ordinamenti dovranno poi consentire ai giudici di ritenere provata, avvalendosi di una presunzione mirata di causalità, l’esistenza di una relazione causale tra la condotta colpevole tenuta da un utente o dal fornitore di un sistema di IA ad alto rischio e il danno risarcibile ogni qualvolta la prova del nesso causale si riveli eccessivamente difficile per l’attore ovvero sia probabile che la violazione da parte del fornitore del sistema di IA degli obblighi di diligenza ad esso imposti da norme nazionali o comunitarie o l’utilizzo inappropriato per fini non professionali del sistema di IA da parte dell’utente abbiano causato l’output o la mancata produzione dell’output del sistema di IA da cui è scaturito il danno.

Si tratta, a ben vedere, di strumenti già in larga parte presenti nel nostro ordinamento, giacché previsti dall’attuale disciplina delle azioni di classe (ed, in particolare, dall’articolo 840 quinquies del Codice di procedura civile) e dalla recentissima normativa in tema di azioni rappresentative che, per espressa indicazione del legislatore comunitario, costituiranno pertanto gli strumenti prevalentemente preposti a garantire la tutela dei soggetti danneggiati.

Fonte: Il Sole 24ORE

Condividi questo articolo

Notizie correlate

Desideri maggiori informazioni su bandi, finanziamenti e incentivi per la tua attività?

Parla con un esperto LHEVO

business accelerator