The Trolley problem



Che etica dovremmo insegnare noi all'intelligenza artificiale?
Un vagone sta per investire cinque persone, ma se qualcuno azionasse la leva che controlla il bivio, esso potrebbe cambiare strada investendo così una sola persona. L'unico vicino alla leva sei tu.
Veloce, devi decidere: tiri la leva e sacrifichi una persona per salvarne cinque oppure preferisci non agire. Cosa sceglieresti in una situazione del genere? 

Questo è proprio un problema di etica, il così detto trolley problem che fu formulato nel 1967 dalla filosofa inglese Philippa R. Foot che criticava il teologo italiano del XIII secolo Tommaso d'Aquino.
Per il teologo italiano, semplificando, la soluzione risiedeva nelle conseguenze, cioè nel doppio effetto: se un comportamento amorale, come uccidere, porta con sé un bene superiore al male inflitto, allora un'azione, normalmente considerata immorale, può anche diventare lecita.
Ma cos'Γ¨ l'etica?
L'etica Γ¨ una branca della filosofia, che si occupa del comportamento umano, la distinzione tra ciΓ² che Γ¨ giusto e ciΓ² che Γ¨ sbagliato. E il trolley problem, per quanto possa sembrare astratto, ci costringe a confrontarci con le nostre scelte morali.
Invece, cambierebbe qualcosa se anzichΓ© decidere della leva dovessimo uccidere fisicamente qualcuno; se, al posto del bivio, ci fosse un ponte e l'unica maniera per fermare il vagone fosse spingere un uomo dal ponte, uccidendolo, ma salvando le cinque persone.
L'uccisione diretta rimescola le carte in tavola, sarebbe poi ancora piΓΉ complicata l'ipotesi in cui dovessimo spingere dal ponte una persona a noi cara.
O peggio ancora, se non ci fosse stato un uomo da spingere, ma avessimo dovuto buttarci noi stessi per salvare le cinque persone: saremmo stati in grado di farlo per ottenere "il male minore"?
Cerchiamo di capire in questo articolo come la soluzione di questo "semplice" problema di etica nasconda un dilemma della tecnologia moderna. Oggi siamo arrivati a chiederci: nell'era dell'intelligenza artificiale, quale etica dovremmo insegnare alle automobili a guida autonoma?
Adesso proviamo a pensare a questo trolley problem: una bambina attraversa la strada improvvisamente, noi alla guida dobbiamo pensare tempestivamente se sterzare, investendo una signora anziana, o investire la bambina.
Che cosa sceglieremmo? Parlando di responsabilitΓ , Γ¨ stata la bambina a non rispettare il codice della strada, eppure verrebbe da pensare che sterzare sia doveroso, considerando che si tratta di un minore, mentre sul marciapiede si trova una persona anziana. E se le persone anziane fossero state due, tre o cinque? Quante devono essere le persone perchΓ© la vita della bambina diventi meno importante della loro?
Da problemi etici come questo, deriva la riflessione di come sia difficile realizzare la circolazione di automobili a completa guida autonoma, dove la probabilitΓ  che problemi etici ci taglino la strada o si incontrino a un incrocio diventa altissima. 
Cosa dovremmo insegnare all' intelligenza artificiale in materia di etica? Oppure Γ¨ meglio riservare all'uomo la capacitΓ  di decidere su questa materia?
 

Chiara Scarsi

Commenti