intelligenza artificiale
Intelligenza artificiale e guida autonoma: chi è il responsabile?
Negli anni ‘40 lo scrittore di fantascienza Isaac Asimov inventò le famose Tre Leggi della Robotica che regolano l’interazione tra intelligenze artificiali ed esseri umani: un robot non deve arrecare danno agli umani ed eseguirne gli ordini, a meno che questi non arrechino danno ad altri umani. Capire l’impatto delle nuove tecnologie automatizzate e stabilirne una regolamentazione è oggi di primaria importanza. Gli algoritmi intelligenti non solo vengono utilizzati per tradurre, valutare lavoratori e clienti, catalogare immagini, ma possono essere impiegati in operazioni molto più rischiose come la guida autonoma di veicoli nel traffico.
È dal 1980 che la ricerca si impegna per costruire automobili capaci di raggiungere una destinazione assistendo il guidatore (guida assistita) oppure sostituendolo completamente, ma è solo recentemente, grazie alle grosse capacità di calcolo e alla mole di dati a disposizione delle nuove tecnologie che si sono raggiunti risultati significativi. Secondo i risultati dei crash test delle assicurazioni svizzere AXA, le autovetture dotate di sistemi di assistenza alla frenata di emergenza causano tra il 30 e il 69 per cento di tamponamenti in meno rispetto alla guida umana. Anche il rischio di sbandare diminuirebbe di oltre il 40 per cento. È quindi facile concludere che un sistema automatizzato di guida diminuirebbe l’altissima percentuale di incidenti che oggi avvengono nelle strade
Tuttavia, l’entrata in commercio di automobili a guida autonoma sembra uno scenario sempre più lontano, soprattutto per le implicazioni legali riguardanti la responsabilità personale ancora irrisolte. Infatti, se per un programma di supporto alla traduzione dall’inglese all’italiano, 1/1000mo di possibilità di errore è un tasso affidabile, lo stesso non si può dire per un software di guida che trasporta potenzialmente milioni di esseri umani ogni giorno.
È passato un anno dal primo incidente mortale a guida autonoma, in futuro potremo evitarli?
La sera del 18 Marzo 2018, nell’hinterland dell’area metropolitana di Phoenix (Arizona), un SUV a guida autonoma, in fase di test per l’azienda di trasporto Uber, viaggiava alla velocità regolare di 65 km/h. A bordo della vettura si trovava Rafaela Vasquez, che aveva il compito di monitorare il veicolo durante il viaggio. Mentre l’auto percorreva una strada poco illuminata, la macchina non ha rilveato in tempo la quarantanovenne Elaine Herzberg che stava attraversando, investendola e uccidendola.
L’auto era letteralmente ricoperta di sensori e telecamere per diminuire le probabilità di incidente. I video catturati al momento dell’impatto, sia dentro l’abitacolo che di fronte alla macchina, sono reperibili ancora online. Dalle immagini è possibile vedere come Elaine sia apparsa molto rapidamente davanti alla macchina, rendendo difficile anche per un essere umano frenare in tempo. Inoltre, il filmato all’interno dell’abitacolo mostra che al momento dell’impatto Rafaela era parzialmente distratta, forse dall’uso di uno smartphone.
La rilevanza mediatica dell’episodio è stata subito globale. A seguito dell’incidente Uber ha sospeso il programma dei test a guida autonoma, attivo dal febbraio 2017 in varie città americane. Fin da subito è apparso chiaro che non sarebbe stato facile determinare la responsabilità dell’accaduto. Rafaela Vasquez ha dichiarato agli inquirenti che non stava usando il cellulare al momento cruciale, ma le prove dimostrerebbero che stava guardando una puntata del talent show canoro «The Voice». Ma resta da capire quanto l’incidente sia imputabile all’IA di guida, vista la rapidità con la quale Elaine sbuca dal lato della strada. Sicuramente l'episodio è stato un colpo duro per l'industria tech e per le sue ricerche nel campo della guida autonoma, che ha subito in tutto il Mondo un immediato arresto. Ma è notizia di pochi giorni fa la lettera di un procuratore della contea di Yavapai che dichiara Uber non perseguibile penalmente, in quanto non sussistono basi per attribuirle la responsabilità dell’incidente. Ora la parola passa alle autorità locali, chiamate a raccogliere ulteriori dettagli sull'episodio, ma al centro dell'attenzione c'è sicuramente la responsabilità del tester.
Il dilemma del carrello dimostra quali contraddizioni possa incontrare la responsabilità personale applicata all’Intelligenza Artificiale
È una vicenda complicata, che mostra quanto la tecnologia stia evolvendo con una velocità tale da creare veri e propri vuoti legislativi, ai quali la politica deve al più presto rimediare.
Nello sviluppo di automobili autonome sorgono dilemmi etici e morali per nulla banali, come il cosiddetto “dilemma del carrello”. In questo esperimento mentale si immagina un carrello ferroviario che sta per travolgere cinque persone ferme sui binari: il conducente ha la possibilità di deviare la corsa su un altro binario, sul quale però c'è una persona ferma. Cosa dovrebbe fare il conducente? Lasciare morire le cinque persone o uccidere l'altra? E nel caso di una guida autonoma, che scelta dovrebbe fare un algoritmo nella stessa situazione?
Questioni irrisolte, che come è facile intuire, non renderanno la vita facile ai produttori di queste tecnologie, alle prese oggi coi dilemmi della fantascienza di ieri.