Qualche giorno fa, alcuni ricercatori dell’Istituto di tecnologia della Georgia hanno dimostrato, attraverso una simulazione al computer, come un attacco informatico in piccola scala nella città di New York, che colpisse anche solo il 10% delle auto a guida autonoma su strada, sarebbe in grado di mandare il traffico letteralmente in tilt. Anche se si tratta di una mera simulazione, l’episodio solleva non pochi interrogativi sul tema – di grande attualità – della sicurezza delle nuove automobili a guida autonoma, con le quali pedoni e veicoli tradizionali dovranno presto “convivere”.

Per esempio, cosa succederebbe se invece di paralizzare il traffico l’attacco hacker alle driverless cars provocasse incidenti in serie? Ma anche prescindendo da scenari apocalittici, chi sarebbe il soggetto legalmente responsabile in caso di investimento di un pedone da parte di un’automobile a guida autonoma? Rispondere a questi interrogativi è doveroso non solo in giurisdizioni dove l’utilizzo sul mercato delle automobili a guida autonoma sta per diventare una realtà, ma anche in Italia che da più di un anno ha autorizzato la sperimentazione delle driverless cars attraverso il cosiddetto decreto Smart Road, volto a creare un sistema stradale totalmente “digitalizzato”, in grado di rendere interoperabili veicoli e infrastrutture di ultima generazione con la tecnologia V2X (Veichle-To-Everything).

Cosa dicono le leggi attuali
Se però le strade sono pronte all’innovazione, lo stesso non può dirsi del nostro quadro normativo. Ad oggi manca una specifica disciplina in materia di intelligenza artificiale e smart automotive. Si può dunque provare a rispondere ai predetti interrogativi guardando alle regole attualmente esistenti.

In primo luogo, si potrebbe pensare di applicare alle driverless cars la disciplina prevista dal Codice del consumo per i prodotti difettosi. In questo caso, sarà il produttore a rispondere del danno cagionato dai difetti del suo prodotto. Tuttavia, se per esempio per un elettrodomestico è possibile prevederne a priori il funzionamento (e malfunzionamento), lo stesso non può dirsi per le driverless cars (e in generale per l’intelligenza artificiale) dato che possono “auto-apprendere”.

È quindi non privo di forzature pensare a una responsabilità del produttore quando il danno cagionato dalla driverless car è conseguenza di un atto compiuto dall’automobile in via autonoma e imprevedibile al momento della produzione. Quindi se il danno è derivato non da un difetto ma da un “comportamento” dell’automobile, si potrebbe far riferimento all’articolo 2051 del codice civile, secondo cui il soggetto che detiene la cosa in custodia, risponde del danno cagionato dalla stessa a meno che non riesca a dimostrare che il danno è stato determinato da un caso fortuito. Si imputerebbe così la responsabilità al custode della driverless car per il solo fatto di averla in custodia e dunque di poterla controllare.

Ipotizziamo però che la driverless car sia soggetta a controllo remoto: chi è realmente il “custode”? Il passeggero che materialmente può svolgere un controllo immediato sull’automobile o il soggetto che la governa mediante la rete? Nel primo caso, per evitare di risarcire il danno, il passeggero non potrà mai disinteressarsi totalmente della guida e ciò sarebbe in contrasto con la funzione stessa delle driverless cars. Nel secondo caso, sarebbe necessario indagare su una eventuale e concorrente responsabilità del produttore del software o, addirittura, dell’ideatore dell’anima robotica ovvero dell’algoritmo che la governa.

Ancora, non senza uno sforzo interpretativo, si potrebbe applicare l’articolo 2052 del codice civile che regola la responsabilità civile del proprietario dell’animale che sia sotto la sua custodia e che, una volta smarrito o sfuggito al controllo del proprietario, provochi un danno (anche in questo caso, salvo la prova del caso fortuito).

In alternativa, considerando la facoltà di self-learning dell’automobile a guida autonoma, si potrebbe anche considerarla giuridicamente alla stregua di un “minore” che, possedendo una ridotta facoltà di discernimento, necessita della guida di un “genitore/mentore”. Attraverso questa – pur forzata – associazione, si potrebbe applicare l’articolo 2048 del codice civile che prevede la responsabilità dei genitori, precettori e insegnanti per il danno causato da fatto illecito (come un incidente) del minore.

Queste forme di responsabilità potrebbero sembrare in un certo senso eccessivamente penalizzanti per il custode, proprietario o creatore dell’automobile dato che prescindono da una loro vera e propria colpa ai fini dell’imputazione del danno. Per questa nuova realtà tecnologica è però necessario sganciarsi dal concetto tradizionale di colpa. Si tratta di un meccanismo di allocazione del rischio e una sorta di “prezzo” da pagare per poter usufruire di un bene – potenzialmente imprevedibile – dotato di intelligenza artificiale. Tirando le somme, l’attuale quadro normativo non è totalmente inadatto a regolare le nuove frontiere della robotica e dello smart automotive ma, in assenza di una disciplina ad hoc, è auspicabile che il legislatore riveda le tradizionali categorie giuridiche per riadattarle ai nuovi rischi veicolati dall’intelligenza artificiale.

The post Se un’auto a guida autonoma fa un incidente, di chi è la responsabilità? appeared first on Wired.



Leggi l’articolo su wired.it