Consenso Cookie

Questo sito utilizza servizi di terze parti che richiedono il tuo consenso. Scopri di più

Vai al contenuto
no_image

Sophia: le sfide etiche di un robot che è più di una macchina

È stata a Lugano nelle scorse settimane, esposta al LAC, destando l’attenzione della comunità scientifica e dei mezzi di comunicazione. Ha dialogato con i giornalisti, rispondendo alle loro domande. Il suo volto in silicone ha le sembianze dell’attrice americana Audrey Hepburn. Lei, Sophia, è un robot umanoide creato dalla Hanson robotics di Hong Kong. Nei suoi occhi che ti osservano, sono inserite due telecamere. Sophia riesce a riprodurre oltre 60 espressioni facciali umane, ha un ampio bagaglio di informazioni e degli algoritmi che le consentono di sostenere un buon numero di conversazioni. Spiega cos’è per lei la felicità e offre giudizi sull’intelligenza della razza umana, sua creatrice. L’Arabia Saudita le ha conferito la cittadinanza, facendo di lei il primo robot al mondo ad avere un passaporto. Ne parliamo con il prof. Markus Krienke, docente di etica sociale alla Facoltà di Teologia di Lugano.

Prof. Krienke, Sophia non è una persona, eppure a vederla e a sentirla il

dubbio sorge: è più di una macchina: Cos’è? Come definirla? Cosa sarà, un

domani?

Anche se sappiamo che Sophia non dispone di tutti i momenti costitutivi di

un essere umano quali coscienza, intenzionalità, un corpo biologico ecc., non

possiamo accontentarci della risposta che si tratta “solo di una macchina”. Nel

2013 l’Intelligenza Artificiale (IA) ha raggiunto il quoziente intellettivo

(QI) di un bambino di 4 anni mentre tra un decennio sarà paragonabile a quella

di un adulto. L’IA “Deep Blue” ha vinto nel 1996 contro il campione del mondo

di scacchi, Kasparov, e nel 2016 il programma “AlphaGo” ha battuto Lee Sedol addirittura

nel gioco “Go” – un antico gioco da tavolo cinese ritenuto “impossibile” per

l’IA perché richiede specifiche capacità intuitive e strategiche per cui un

computer non può cavarsela con il semplice calcolo delle mosse possibili. Si

prevede che alla metà di questo secolo, le “macchine” svolgeranno quasi la metà

dei lavori di oggi, non risparmiando i “colletti bianchi”. La velocità di

questo sviluppo e le previsioni per il futuro ci costringono quindi a una

riflessione profonda. Se i robot ormai sanno “imparare” e possono imitare il

pensiero strategico e persino le emozioni umane nonché agire in modo autonomo,

hanno raggiunto senz’altro ciò che definirei la “soggettività”. Ma non potranno

mai diventare “persone”, per cui resteranno sempre a livello di “cose”.

 “Gli umani hanno intelligenza, la

capacità di adattarsi, l’immaginazione e l’emotività, uno standard molto alto

da raggiungere e imitare”, dichiara Sophia. L’umanoide quindi afferma di ambire

a possedere queste capacità. Avrà mai una coscienza?

Siccome la percezione della realtà come l’ha Sophia consiste esclusivamente

nei dati digitali, lei non ha mai il contatto con il mondo come lo hanno le

persone umane. Quando il robot pronuncia parole, non le mette quindi in

relazione con il mondo esterno a lei. A maggior ragione non può riferirsi a sé

stessa, interrogarsi sulla propria “vita”, su ciò che è “vero” e “buono”, come

fanno gli esseri umani. Infatti, quando Sophia decide e agisce, lo fa sulla

base di mappe che contengono i “dati” del mondo: conosce quindi solo una

codificazione della realtà, che non può mai essere del tutto completa, perché

la realtà è sempre più complessa della capienza di qualsiasi macchina

intelligente. La coscienza umana, al contrario, non pretende di essere

“perfetta” nel conoscere e nell’agire, ma sa di stare veramente in relazione alla realtà e a sé stessa.

Questa relazionalità diretta viene anche chiamata “intenzionalità”. Il robot

non possiede la possibilità di riflettere sul mondo e su sé stesso: quindi non avrà

mai coscienza.

Proprio questo aspetto che la

mente umana possiede intenzionalità e il computer no, viene approfondito dal

filosofo americano John Searle. La capacità del computer di eseguire una

procedura non implica -come spiega Searle- la semantica, il fatto che la

macchina sappia che cosa sta facendo. Sophia è così? Sa fare ma non ha piena

consapevolezza delle sue azioni?

Infatti l’intenzionalità significa

anche questa seconda cosa. Ciò che intende Searle viene verificato anche da un

semplice test, chiamato Winograd Schema Challenge: il computer davanti alla semplice frase «Non posso abbattere la

pianta con l’ascia; è troppo piccola» non riesce a rispondere alla domanda «Che

cos’è troppo piccola, la pianta o l’ascia?». Mancando di capacità semantica,

l’IA che senz’altro supera la mente umana in tutti i compiti “quantitativi”, proprio

in questi semplici casi è costretta a indovinare. In altre parole, il computer

combina segni linguistici secondo determinate regole, ottenendo risultati

sempre migliori, specialmente quando pensiamo ai programmi di traduzione, ma

non comprende che cosa dice e a che

cosa riferisce con le parole. Mentre l’IA affronta la

realtà in modo solo quantitativo, il cervello umano eccelle nell’avere l’intenzionalità.

Searle, sfuggendo da una prospettiva dualista

cartesiana, asserisce che la coscienza è una caratteristica fisica degli

organismi dotati di sistema nervoso: la coscienza è causata dal cervello, ma

non si identifica con l’attività del cervello. Sophia pensa ma non ha un corpo

umano. Quel è il valore del corpo umano in rapporto all'essere una persona? E

cosa sei, se non hai un corpo umano?

Questa intenzionalità di cui abbiamo parlato, la

mente umana ce l’ha soltanto in quanto possiede un corpo biologico, perché solo

esso costituisce il necessario contatto diretto con la realtà e quindi la

capacità di potersi riferire direttamente a qualcosa. Come abbiamo visto, solo

tale riferimento dà significato alle parole e all’agire. Ammettiamo che Mary conosca

tutte le informazioni su cosa significa “vedere colori”, ma viva in una casa in

cui non esistono colori. Fino a quando non esce dalla casa, non saprà mai come è vedere i colori. Ecco

l’importanza del nostro corpo per ogni tipo di esperienza umana che non è mai

riducibile all’insieme di dati di cui può disporre un’IA, ricavandone

imitazioni sorprendenti e addirittura perfezionamenti del pensiero e

dell’azione umana.

 “Farò del mio meglio per creare

un mondo migliore”, assicura Sophia in una delle sue interviste. Robot come

Sophia potrebbero essere usati -ad esempio- per far compagnia agli anziani o

per sostituire il personale impiegato in lavori ripetitivi, in un futuro anche

in campo sanitario. Quali sono i rischi e le performance? 

Lo stesso ragionamento sulla differenza dell’“esperienza umana” da quella

del robot umanoide vale  nel campo morale

delle relazioni tra le persone, a maggior ragione quando si tratta di rapporti

di fiducia e di cura: ammettiamo che un assistente di cure (robot) uccida

per sbaglio un paziente, perché gli mancava l’informazione che invece della

medicina gli dava veleno, ed esprima dispiacere per la morte del paziente.

Siccome si tratta di un robot, non esiste nessuna possibilità di giudicare

moralmente questa situazione o di attribuirgliene responsabilità: semplicemente

gli “mancava” un’informazione, e il dispiacere è solo la reazione che esso ha

imparato a mostrare in tali casi. Certamente

anche per il robot sarebbe meglio se il paziente non fosse morto perché

riceverebbe un feedback positivo, ma

non gli è possibile giungere a un giudizio morale (“di coscienza”) sul proprio

agire. Sebbene, riguardo al settore della cura delle persone manchi ai

robot il senso della responsabilità e dell’empatia, si colloca proprio qui uno

degli sbocchi possibili dell’IA per una società sempre più anziana. Perciò, mentre

nei lavori ripetitivi non si pongono questi problemi morali, sarà necessario

trovare delle regole e legislazioni precise per l’utilizzo dell’IA in lavori in

cui i robot entrano in contatto diretto con delle persone. Nei lavori ripetitivi, l’IA può essere considerata “mezzo tecnologico”,

mentre nei lavori di assistenza di persone essa assume una vera e propria agency verso le persone. Un ulteriore motivo per l’introduzione di tali regole

e limiti sta nel fatto che della persona assistita sono coinvolte dimensioni sensibili

ed emozionali. Ma come si vede non solo nel caso di Sophia ma anche nel film Ex Machina del 2015, quando i robot riescono

a imitare le emozioni umane e a leggere le espressività degli esseri umani con cui

interagiscono, ciò è sempre il risultato di Big Data, per cui tali emozioni e interazioni non saranno mai espressioni spontanee in riferimento a qualcosa: non hanno significato.

Stiamo andando nella direzione di quello che l’autore americano Raymond

Kurzweil preconizza nel suo libro futuristico del 1999 “The age of Spiritual

Machine” e nel successivo lavoro dal titolo “La singolarità è vicina”?

Da Prometeo, passando per la figura medievale di Golem fino a Frankenstein,

il sogno di creare esseri intelligenti e dotati di tutte le capacità umane,

inclusa la coscienza, accompagna l’umanità. E come si vede nel film Matrix,

oggi questo desiderio porta all’idea di oltrepassare con una sorta di

“evoluzionismo tecnologico” l’umano in una sfera transumana dell’IA. In questa

prospettiva, l’era delle macchine spirituali sarebbe il punto di arrivo, del

resto previsto dall’autore Raymond Kurzweil nel suo libro futuristico per il

vicino 2045: mentre lo “svantaggio” dell’intelligenza umana starebbe nell’essere

ancora legata al corpo imperfetto, soggetto alle sue debolezze e infine alla

morte, l’IA la supera -in questa visione- nella costituzione di macchine

spirituali, infallibili e immortali. Tale stadio della realizzazione di un’IA

“forte” (cioè pienamente sostituente l’intelligenza umana) egli lo chiama la

“Singolarità”. Ciò su cui Kurzweil non riflette, è proprio che in questo modo

tali “macchine spirituali” non superano ma perdono tutto ciò che davvero rende

l’uomo – nella sua “singolarità” incorporata – la “corona” della creazione:

libertà, autodeterminazione, la capacità di fare scelte morali e di assumersi

la responsabilità, la capacità di perdono ecc. Tutte queste perfezioni le

possiede lo spirito umano proprio perché non è “artificiale” ma risiede in un

corpo biologico.

L’IA forse aspira alle “decisioni perfette”, ma il carattere morale delle scelte e decisioni umane non sta nella “perfezione” ma nella capacità di ponderare ragioni e motivi dell’agire, cercando di realizzare il bene e di evitare il male. In altre parole, mentre l’imperativo dell’IA è l’ottimizzazione, quello degli esseri umani è la “responsabilità”. Nella menzionata prospettiva di Kurzweil, tutto dipende da come si definisce lo “spirito”: se, sulla base di ciò che abbiamo appena detto, chiamiamo “spirito” intelligence with reason, allora l’IA come intelligence without reason non potrà mai inaugurare un’«età delle macchine spirituali».

https://youtu.be/NMuukB-6QWw

News correlate

News più lette