The Trolley problem
Un vagone sta per investire cinque persone, ma se qualcuno azionasse la leva che controlla il bivio, esso potrebbe cambiare strada investendo così una sola persona. L'unico vicino alla leva sei tu.
Veloce, devi decidere: tiri la leva e sacrifichi una persona per salvarne cinque oppure preferisci non agire. Cosa sceglieresti in una situazione del genere?
Per il teologo italiano, semplificando, la soluzione risiedeva nelle conseguenze, cioè nel doppio effetto: se un comportamento amorale, come uccidere, porta con sé un bene superiore al male inflitto, allora un'azione, normalmente considerata immorale, può anche diventare lecita.
Ma cos'Γ¨ l'etica?
L'etica Γ¨ una branca della filosofia, che si occupa del comportamento umano, la distinzione tra ciΓ² che Γ¨ giusto e ciΓ² che Γ¨ sbagliato. E il trolley problem, per quanto possa sembrare astratto, ci costringe a confrontarci con le nostre scelte morali.
Invece, cambierebbe qualcosa se anzichΓ© decidere della leva dovessimo uccidere fisicamente qualcuno; se, al posto del bivio, ci fosse un ponte e l'unica maniera per fermare il vagone fosse spingere un uomo dal ponte, uccidendolo, ma salvando le cinque persone.
L'uccisione diretta rimescola le carte in tavola, sarebbe poi ancora piΓΉ complicata l'ipotesi in cui dovessimo spingere dal ponte una persona a noi cara.
O peggio ancora, se non ci fosse stato un uomo da spingere, ma avessimo dovuto buttarci noi stessi per salvare le cinque persone: saremmo stati in grado di farlo per ottenere "il male minore"?
Cerchiamo di capire in questo articolo come la soluzione di questo "semplice" problema di etica nasconda un dilemma della tecnologia moderna. Oggi siamo arrivati a chiederci: nell'era dell'intelligenza artificiale, quale etica dovremmo insegnare alle automobili a guida autonoma?
Adesso proviamo a pensare a questo trolley problem: una bambina attraversa la strada improvvisamente, noi alla guida dobbiamo pensare tempestivamente se sterzare, investendo una signora anziana, o investire la bambina.
Che cosa sceglieremmo? Parlando di responsabilitΓ , Γ¨ stata la bambina a non rispettare il codice della strada, eppure verrebbe da pensare che sterzare sia doveroso, considerando che si tratta di un minore, mentre sul marciapiede si trova una persona anziana. E se le persone anziane fossero state due, tre o cinque? Quante devono essere le persone perchΓ© la vita della bambina diventi meno importante della loro?
Da problemi etici come questo, deriva la riflessione di come sia difficile realizzare la circolazione di automobili a completa guida autonoma, dove la probabilitΓ che problemi etici ci taglino la strada o si incontrino a un incrocio diventa altissima.
Cosa dovremmo insegnare all' intelligenza artificiale in materia di etica? Oppure Γ¨ meglio riservare all'uomo la capacitΓ di decidere su questa materia?
Chiara Scarsi
Commenti
Posta un commento