Intelligenza artificiale, problema reale
Smart Box o Real Boy?
Di Neil Osterweil Dagli archivi del medico
24 settembre 2001 - Se si crea una macchina capace di ragionare autonomamente, si è creata la vita? Avete una responsabilità nei confronti di quella vita o avete semplicemente assemblato un altro pezzo di hardware intelligente che sarà reso obsoleto dalla prossima novità?
Nel film di Steven Spielberg e Stanley Kubrick AI (come intelligenza artificiale), un produttore di robot crea David, un ragazzo sintetico programmato per amare. Il suo proprietario umano avvia un programma che fissa irreversibilmente l'affetto del cyberkid sul suo proprietario.
Ma progettando e costruendo David, il costruttore di robot ha creato un altro mostro di Frankenstein. Il "mecha" (abbreviazione di "meccanico"), apparentemente autocosciente, desidera l'amore della sua "madre" umana e anela, come Pinocchio, a diventare un ragazzo "vero".
Il film solleva domande filosofiche intriganti e preoccupanti su cosa significhi essere umano, avere un senso di sé ed essere un essere unico e indipendente degno di rispetto e di diritti secondo la legge.
Quando David, per salvarsi dalle prese in giro e dalle minacce di ragazzi in carne e ossa, ferisce accidentalmente il figlio dei suoi padroni, viene abbandonato nel bosco e lasciato a se stesso. Si ritrova in compagnia di stravaganti robot rotti e mezzi formati che si mantengono "vivi" recuperando pezzi di ricambio da una discarica.
Ma solo perché David piange e implora di restare con la donna che chiama mamma e fugge quando viene rintracciato dai cacciatori di taglie, i suoi istinti di terrore e autoconservazione sono autentici o sono solo una brillante simulazione meccanica ed elettronica di come reagirebbe un bambino vero? Ha importanza?
Penso quindi sono?
Nick Bostrom, PhD, docente di filosofia presso l'Università di Yale a New Haven, in Connecticut, sostiene che la questione è importante.
"Penso che non appena un'entità diventa senziente - in grado di provare dolore o piacere - ottiene una sorta di status morale, solo in virtù della capacità di soffrire", dice Bostrom al dottore. "Anche se gli animali non hanno diritti umani - e la maggior parte di noi pensa che sia accettabile usarli per la ricerca medica - ci sono comunque dei limiti. Non permettiamo alle persone di torturare gli animali senza alcuna ragione".
Frank Sudia, JD, ha criteri leggermente diversi. Secondo lui, la capacità di fare e agire in base a una o più scelte tra più opzioni, e la capacità di decidere quale tra migliaia di possibilità sia la migliore da utilizzare in una situazione imprevista, possono essere una definizione di base e operativa di ciò che significa "essere".
"Se la macchina ha il potere di autoprodursi - se può cercare i propri obiettivi o addirittura sceglierli da un elenco di obiettivi che legge sul giornale [e decide]: 'Oh, voglio assomigliare a Madonna' - penso che questa capacità di scegliere, comunque guidata, sia indistinguibile da ciò che consideriamo il nostro senso di sé", dice al dottore.
Sudia è un consulente per la sicurezza del commercio elettronico con sede a San Francisco e si autodefinisce etico, scienziato e pensatore di sistemi intelligenti. Paragona il ruolo del progettista di sistemi di intelligenza artificiale o del creatore di robot a quello del genitore di un adolescente.
"L'adolescente inizia ad avere una buona varietà di risposte [ma] non un sistema di contenimento ottimale", afferma. "Si cerca di formare il loro carattere in modo che facciano scelte ragionevoli e socialmente vantaggiose per loro. Quindi si gioca a fare Dio in misura enorme con i propri figli. Dimenticatevi di trasformarli in Mozart: cercate di trasformarli in qualcosa che possa sopravvivere, facendo in modo che abbiano un sé".
Faccio delle scelte, quindi sono?
La capacità di fare scelte da sola non suggerisce autonomia, sottolinea Bostrom. Il computer Deep Blue ha sconfitto il grande maestro di scacchi Gary Kasparov. Può scegliere tra milioni di possibili mosse di scacchi in una determinata situazione, ma provate a mandarlo dall'altra parte della strada a comprare un litro di latte.
"Per concedere l'autonomia a un essere umano, ne abbiamo bisogno di un bel po'", dice Bostrom. "I bambini non hanno l'intera gamma di autonomia, anche se possono fare di più che scegliere le mosse degli scacchi o fare semplici scelte del genere. Richiedono una concezione del loro benessere, un piano di vita e cose del genere. Non credo che nessuna macchina oggi esistente sulla terra possa essere senziente o autonoma".
Per poter dire che una macchina è autocosciente e quindi è un essere cosciente, dobbiamo prima sapere cosa significa essere coscienti. Almeno una mente umana sostiene che, per quanto riguarda la natura della consapevolezza, non ne abbiamo la minima idea.
Margaret Boden, PhD, docente di filosofia e psicologia presso l'Università del Sussex, in Inghilterra, afferma che potrebbe essere possibile creare un robot che sembri essere un essere autonomo e consapevole.
"In linea di principio potrebbe esistere una simulazione al computer di una tale creatura, perché tutto ciò che fa la mente umana dipende dal cervello umano", dice. "Ma se mi chiedete se quel robot sarebbe cosciente, direi che non sappiamo nemmeno cosa significhi dire che siamo coscienti".
Anche se supponiamo, come fanno Spielberg e Kubrick, che sia possibile creare un robot capace di agire nel proprio interesse e di provare dolore, perdita e solitudine, lo tratteremo come uno di noi o come un altro tostapane intelligente?
Compro la spesa, quindi sono?
Se possiamo essere manipolati emotivamente da un film - un'altra forma di vita simulata - o se ci piace la versione di Las Vegas di Parigi, allora potremmo certamente essere influenzati dal pianto di un bambino robot o dalle suppliche di un ragazzo artificiale come David in AI. Ed è proprio l'interfaccia, la scatola che contiene l'hardware (un cervello robotico) e il modo in cui il software interagisce con l'utente, a fare la differenza.
"Se un'intelligenza artificiale assomigliasse a un cane, forse avrebbe i diritti di un cane... Se assomigliasse a Einstein, forse avrebbe i diritti di un Einstein", dice Sudia.
È certamente possibile progettare un sistema intelligente che possa, ad esempio, fare la spesa e pagare alla cassa per noi. Per farlo, non deve assomigliare a un essere umano, afferma Ian Horswill, PhD, professore assistente di informatica presso la Northwestern University di Evanston, Ill.
"Si possono avere sistemi che a tutti gli effetti sono intelligenti - almeno molto più intelligenti di matite o word processor - ma non hanno le... caratteristiche dell'esistenza umana", dice Horswill al dottore.
Non c'è motivo, per esempio, che un robot per la spesa debba assomigliare a vostro zio Chuck. Potrebbe essere un registratore di cassa mobile, una semplice scatola con uno schermo, bracci per prendere le scatole di corn flakes dallo scaffale e un cassetto per tenere il resto. Ma sarebbe comunque un "esso" e non un "lui" o una "lei", sostiene Horswill.
Si potrebbe costruire una macchina con un corpo simile a quello di Commander Data e darle delle emozioni, poi toglierle il cervello e metterla in un robot cestino con un cassetto per le banconote, permettendole di comunicare solo in codice Morse", dice Horswill, "credo che la maggior parte delle persone sarebbe molto più disposta a spegnere il robot cestino che Commander Data".