Moral machine, dare una coscienza alla driverless car è un gioco

Al MIT stanno usando le modalità del gaming per raccogliere dati su come gli uomini prendono certe decisioni. Obiettivo: dare all’intelligenza artificiale delle auto senza conducente la capacità di compiere scelte difficili con risvolti etici

Pubblicato il 11 Ott 2016

Dare all’intelligenza artificiale che guiderà le auto autonome una sorta di coscienza, ovvero un kit di prospettive e valori etici di tipo umano, che guidi le scelte “difficili” che le auto si troveranno inevitabilmente a fronteggiare, è il motivo che spinge un progetto di ricerca del MIT chiamato Moral Machine.

Se il caso richiede che si debba scegliere se sacrificare la vita delle persone a bordo dell’auto o dei pedoni sulla strada, come dovrebbe reagire l’auto autonoma?

Questa domanda può essere declinata in centinaia di maniere, mettendo a confronto il sacrificio di poche persone o tante persone, o addirittura la qualità delle stesse (giovani vs. vecchi; donne vs uomini; adulti vs bambini; familiari vs estranei; ecc). La varietà è davvero molto ampia e già da qualche tempo diversi ricercatori se ne stanno occupando, nell’ottica di raffinare le tecnologie software preposte a gestire tali situazioni. Uno studio apparso su Science qualche tempo fa, per esempio, ha interpellato circa 2000 persone chiedendo come avrebbe dovuto comportarsi l’auto in una serie di circostanze, fondamentalmente chi salvare in caso di incidente.

Uno dei più grandi vantaggi che, si dice, porterà la driverless car è che ci saranno meno incidenti perchè l’autista robotico non beve, non è mai stanco, è sempre vigile, è prudente, è connesso con la sua intelligenza al sistema stradale. Ma, visto che le persone continueranno a circolare sulle strade (e probabilmente ci sarà anche un periodo di interregno fra auto driverless e auto “normali”), è inevitabile che ci saranno occasioni in cui l’intelligenza dell’auto dovrà prendere decisioni difficili.

Un nuovo esperimento questa volta di un gruppo di ricerca del MIT utilizza la modalità di gioco online per raccogliere informazioni sulle reazioni umane nelle circostanze di incidente, informazioni che saranno ovviamente molto utili per raffinare gli algoritmi dell’intelligenza artificiale che guiderà le nostre auto nei prossimi anni.

Dicono i ricercatori della Moral Machine:

“Questo sito ha lo scopo di portare un passo avanti la discussione sull’etica dell’intelligenza artificiale, fornendo una piattaforma per 1) la costruzione in crowdsourcing (cioè, attraverso il coinvolgimento di tutte le persone, ndr.) di un quadro dell’opinione umana su come le macchine devono prendere decisioni di fronte a dilemmi morali, e 2) creare una discussione pubblica anche su possibili scenari delle conseguenze derivanti dalle scelte morali”

Il gochino può essere fatto da chiunque, senza particolari modalità e senza iscrizione su questa pagina. E’ molto semplice: vengono presentati 13 possibili scenari in cui l’auto autonoma in marcia rompe improvvisamente i freni, in prossimità di un attraverso pedonale e si trova nella condizione di decidere se andare dritto o sterzare, andare addosso a un muro o a dei pedoni, andare addosso a un gruppo di bambini o di adulti, ecc.

Osservare gli scenari presentati è in effetti curioso, perchè mette di fronte a scelte etiche che sembrano antipatiche anche solo a pensarle, ma in effetti rispecchiano la realtà: preferiremmo investire un cane o una persona? una persona atletica o una persona grassa? una persona qualunque o un medico che aiuta gli altri?

Al termine del giochino avrete anche una pagina che graficamente vi indica quali sono le vostre preferenze e, volendo, è possibile condividere sui social i risultati.

Moral Machine - Human Perspectives on Machine Ethics

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati