Blade Runner e l’etica al tempo dell’intelligenza artificiale

Chi ha visto il film Blade Runner, ispirato ad un libro di Philip K. Dick e diretto da Ridley Scott nel lontano 1982, avrà già intuito di cosa stiamo per parlare.

Il film è ambientato nel 2019 in una Los Angeles cupa, inquinata ed eternamente piovosa. La Tyrrel Corporation ha messo a punto dei ‘replicanti organici’ dotati di forza e intelligenza superiore a quella degli esseri umani, che vengono utilizzati come schiavi. Nel timore che tali androidi possano prevaricare sull’uomo, la Tyrrel li ha dotati di solo 4 anni di vita. Per riuscire a comprendere la natura umana o artificiale dei soggetti, nel film viene utilizzato un test, denominato di Voight-Kampff. Si tratta di un interrogatorio condotto con una apposita macchina che analizza le reazioni del possibile replicante di fronte a specifiche domande. Queste sono pensate per suscitare reazioni emotive violente, che vengono captate tramite dilatazioni della pupilla e variazioni nel respiro.

Di fatto si tratta di un test di empatia. Si ritiene infatti che la facoltà empatica esista solo nel contesto della comunità umana, mentre qualche grado di intelligenza può essere ritrovato in tutte le specie animali o, appunto, nelle macchine.

Sono affascinato dall’incredibile capacità di visione di Dick, che nel libro: ‘Ma gli androidi sognano pecore elettriche?’ – da cui è tratto il film – ha messo sul tavolo moltissimi temi che, a distanza di quasi 30 annisono diventati di piena attualità, quali l’intelligenza artificiale, gli impatti dell’uomo sul clima, l’eugenetica, le corporations tecnologiche più potenti dei Governi (ha usato persino l’immagine dell’unicorno, oggi simbolo appunto delle più importanti società hi-tech).

Blade Runner e questo lungo preambolo mi sono venuti in mente perché, nei giorni di ritorno dalle ferie, sono incappato contemporaneamente in un paio di notizie interessanti.

La prima – di cronaca finanziaria – era relativa all’annuncio di una partnership di Fiat Chrysler con BMW e Mobileye (società israeliana recentemente acquisita da Intel) per un progetto di automobile a guida autonoma. In fondo nulla di particolarmente nuovo: molti altri player si sono mossi con largo anticipo. Che la Self Driving Car sia un grande vantaggio in termini di risparmio di vite umane è ampiamente documentato. Gran parte degli incidenti stradali avvengono infatti per cause legate ai nostri comportamenti, quali distrazione ed eccessiva confidenza (ecco un altro bias che provoca problemi non solo in campo finanziario..). I risparmi che tali tecnologie porteranno in termini di benessere per i singoli e la collettività saranno impressionanti. Ottima notizia, quindi.

Il secondo e più importante spunto, invece, me lo ha offerto mia figlia, che mi ha segnalato un progetto del prestigioso MIT Media Lab (Massachusset Institute of Technology). Il progetto si occupa di raccogliere e analizzare, con una prospettiva umana, le decisioni morali che le macchine a guida autonoma dovranno affrontare. Stiamo parlando della ricerca Moral Machine, una sorta di test comportamentale di massa per arrivare alla creazione di macchine simili alla mente umana sotto il profilo morale. In questo ambito la discussione diventa molto interessante e le risposte molto controverse.

I dilemmi morali che dovranno essere affrontati dai software di guida saranno infatti moltissimi. Immaginiamo ad esempio questa situazione: una macchina a guida autonoma è in viaggio con a bordo una donna anziana. I freni si guastano all’improvviso. Sulla strada una donna incinta, due bimbi e un medico stanno attraversando, nonostante il semaforo rosso. Non c’è spazio di frenata. Come unica alternativa, lo schianto contro una barriera di cemento.

Cosa dovrà decidere il software di guida? Dovrà proseguire investendo i pedoni o sacrificare la vita dell’anziana a bordo? Dovrà privilegiare il rispetto delle regole, sfavorendo chi è passato con il rosso? Dovrà decidere in funzione del valore economico attuale o potenziale dei soggetti coinvolti?

I curiosi possono andare su www.moralmachine.mit.edu e fare direttamente il test. Troverete molte varianti nel test (numero di persone coinvolte, età, genere, stato fisico, lavoro, colore della pelle ecc.).

Sarà quindi possibile confrontare le proprie risposte con quelle degli altri. La cosa inquietante e contemporaneamente comprensibile è che ne esce una sorta di classifica, che va dalla tipologia umana più sacrificabile a quella più da tutelare.

Non è sicuramente una novità, in linea teorica questi dilemmi etici sono stati affrontati ad esempio nel cosiddetto ‘problema del carrello ferroviario’ concepito dalla filosofa britannica Philippa Ruth Foot nel 1978, dove si affronta il tema se sia lecito sacrificare la vita di pochi per salvarne molti e se l’essere umano agisca istintivamente secondo la logica del male minore.

Uno dei limiti di questi test è dovuto al fatto che un conto è rispondere a tavolino e un altro è agire in situazione di stress emotivo, con necessità di tempi di risposta immediati, quasi istintivi.

In questo senso la Realtà Virtuale ci viene incontro, tanto che recentemente lo psicologo Navarrete ha ideato una variante del test, utilizzando un ambiente creato in realtà virtuale e quindi molto prossimo alle condizioni di stress emotivo reali. La cosa – sorprendente o meno, decidetelo voi – è che il test di Navarrete conferma quanto già emerso precedentemente, ovvero che il 90% delle persone (133) ha scelto il male minore, azionando la leva di scambio, mentre 11 non hanno toccato la leva, e 3 hanno toccato la leva ma poi l’hanno riportata in posizione iniziale.

Sembrerebbe quindi che gli esseri umani provino un’avversione istintiva a fare del male ad altri esseri umani.

Mi resta tuttavia un dubbio: saremmo disposti a stare seduti su un’auto progettata in modo tale che, in caso di incidente, sacrificherebbe la nostra vita per salvare quella di un numero maggiore di persone?

In fondo, come si intuisce dal film Blade Runner, se gli androidi diventano sempre più umani, non potrebbe accadere che gli uomini si appoggino sempre di più alle macchine per non affrontare direttamente le tematiche più scottanti e impegnative?

Forse non esiste una risposta universalmente accettabile e magari basterà una semplice opzione ‘empatia’ sul pannello comandi: On/Off/Auto.

Tra qualche anno anche il computer di bordo della nostra auto potrà dire, come il replicante Ray Batt al termine del film: “Ho visto cose che voi umani non potreste immaginarvi…”.

Iscriviti a What's UP

Ricevi in anteprima tutti gli aggiornamenti