«L’Intelligenza Artificiale fallirà se vorrà trasmettere l’umanità ai computer»

La coscienza umana e l’intelligenza artificiale. La luminare di Scienze cognitive, Margaret Boden, spiega l’unicità umana e il fallimento dell’Intelligenza artificiale «fin quando sarà convinta della possibilità di trasmettere l’”umanità” ai computer».

 

Le discussioni sull’intelligenza artificiale (IA) spesso suggeriscono che se si continua ad aumentare l’IA debole -la capacità delle macchine di elaborare informazioni e risolvere problemi- ad un certo punto avremo un’intelligenza artificiale forte, ovvero la capacità di pensiero indipendente. Cioè, se potenziamo i nostri computer alla fine emergerà la coscienza.

Ma davvero arriverà un giorno in cui i computer saranno indistinguibili da un agente umano intelligente? Le cose non sono così semplici. Innanzitutto, come ha spiegato il filosofo John Searle, dell’Università della California, attraverso il suo famoso esempio della “camera cinese” (Chinese Room Argument), i computer altro non fanno che trovare soluzioni a seconda delle informazioni che l’uomo offre loro (come tradurre simboli cinesi grazie a delle istruzioni date in inglese). Essi forniscono indicazioni perfette senza però capire nulla di ciò a cui stanno rispondendo (ovvero, secondo l’esempio, inviano indicazioni per comprendere la lingua, nonostante non capiscano una parola di cinese).

Il filosofo analitico Jay Wesley Richards ha affrontato in modo simile la questione, ovvero ridimensionando i poteri dell’intelligenza artificiale: «Solitamente parliamo di computer che apprendono, commettono errori, diventano più intelligenti e così via. Dobbiamo ricordare che stiamo parlando in senso metaforico. Certo, se noi umani fossimo solo computer fatti di carne che ad un certo punto siamo divenuti esseri consapevoli, cosa impedisce ai computer di seguire la stessa strada? La domanda ha senso solo se si accetta la premessa e questo fanno molti ricercatori dell’IA. In realtà», ha proseguito Richards, «non c’è una buona ragione per supporre che la coscienza emerga per caso ad una certa soglia di velocità e potenza computazionale nei computer. Sappiamo per introspezione che siamo esseri coscienti e liberi, anche se non sappiamo davvero come funzioniamo. Tuttavia attribuiamo naturalmente la coscienza ad altri umani. Sappiamo anche in generale cosa succede all’interno di un computer, poiché li costruiamo e non ha nulla a che fare con la coscienza».

L’errore fatale, dunque, è formulare ipotesi semplicistiche sulla natura umana. E’ quello che sostiene anche una luminare dell’intelligenza artificiale, Margaret Boden, docente di Scienze cognitive presso l’Università del Sussex, una delle poche scienziate ad accettare che lo studio della coscienza umana non solo non ha un futuro roseo, ma nemmeno è campo esclusivo della scienza (d’altra parte è laureata in filosofia, psicologia e scienze mediche). II suo pensiero è chiaro: se l’Intelligenza Artificiale cerca di fare in modo che i computer facciano cose che le menti umane possono fare, il problema è sapere come la mente umana fa il genere di cose che fa, per essere in grado di replicare quelle stesse cose in un computer.

«I neuroscienziati che vogliono conoscere la coscienza rimarranno delusi», ha risposto Boden in un’intervista. «Stanno ponendo domande di base, materialistiche – come quali cellule si connettono a cosa o quali sostanze chimiche si diffondono- ma queste domande non sono le uniche importanti. I problemi fondamentali non sono solo scientifici – sapere cosa succede nel cervello quando siamo consapevoli e così via – ma domande filosofiche, in particolare sul fenomeno della coscienza. Ciò riguarda il difficile problema di come l’esperienza cosciente emerga dalla materia, e perché sperimentiamo, ad esempio, il “rossore del rosso”. Non è solo che non siamo sicuri di quali domande scientifiche porre; è che non sappiamo quali domande porre perché non sappiamo di cosa stiamo parlando». Nel suo libro AI: Its Nature and Future (Oxford University Press 2016), la Boden è stata più diretta: «Ciò che l’AI non potrà mai fare è corrispondere all’intelligenza generale umana».

La Boden critica anche il termine intelligenza artificiale, poiché «crea profondi problemi filosofici e neurologici. L’intelligenza implica la coscienza e cos’è la coscienza? Non c’è accordo nemmeno su cosa sia la coscienza e su come l’uomo l’abbia acquisita (qualunque cosa essa sia), quindi determinare se una macchina informatica raggiunge o meno uno stato cosciente è problematico. Se non lo comprendiamo in noi stessi, come lo riconosceremo?». Questo non significa che l’Intelligenza Artificiale abbia fallito, tutt’altro, ma che non farà progressi fin quando sarà convinta della possibilità di trasmettere l'”umanità” ai computer.

La coscienza resta così un mistero filosofico e scientifico. E proprio «l’intelligenza artificiale ci dà davvero buoni concetti per pensare alla mente e al cervello», ha detto la Boden. «La lezione più importante che l’IA ci ha insegnato è di apprezzare e riconoscere per la prima volta l’enorme potere e la sottigliezza della mente umana».

La redazione

Condividi su:
  • Aggiungi su Facebook
  • Aggiungi su OKNOtizie
  • Aggiungi su Twitter
  • Aggiungi su Windows Live
  • Aggiungi su MySpace

31 commenti a «L’Intelligenza Artificiale fallirà se vorrà trasmettere l’umanità ai computer»