Category

intelligenza artificiale

Category

Apprendimento non associativo

Questo tipo di apprendimento si divide in abitudine e sensibilizzazione. Nel presentare queste due diverse modalità di apprendimento farò uso di esempi pratici. Immaginiamoci una tartaruga che si muove tranquillamente nel suo giardino. Ad un tratto, colpiamo il terreno vicino ad essa con un oggetto e come immediata risposta notiamo come la tartaruga rientri all’interno del guscio. Se continuassimo a colpire vicino a lei, noteremo che a mano a mano che perpetuiamo il movimento, la sua risposta sarà di volta in volta più lenta. Questo comportamento rientra in quella che viene definita abituazione alla situazione. La sua funzione è quella di eliminare delle risposte non necessari a stimoli provenienti dall’esterno. L’effetto opposto all’abituazione è quello della sensibilizzazione: se invece di infastidire la tartaruga come avevamo descritto precedentemente, la sottoponessimo ad uno shock (come una scossa elettrica) ella si ritirerebbe nel guscio molto più velocemente a qualunque stimolo si presentasse nuovamente.

Apprendimento associativo

Apprendimento associativo classico

L’apprendimento associativo si divide in classico, operante e complesso. L’apprendimento associativo classico, chiamato anche condizionamento classico consiste in un processo in cui uno stimolo precedentemente neutrale si associa con un altro stimolo. Dopo svariate associazioni abbinate avverrà una produzione della stessa risposta del primo stimolo ricevuto. Ivan Petrovic Pavlov, premio Nobel per la medicina nel 1904, stava studiando la produzione di saliva nei cani in risposta a determinati stimoli. I cani, ovviamente, in presenza di cibo aumentavano la produzione di saliva. Pavlov decise così di associare alla presentazione del cibo, il suono di una campanella che configurerebbe come lo stimolo neutro. Dopo varie e successive associazioni di questo tipo, il cane iniziò il processo di salivazione al solo suono della campanella.

Apprendimento associativo operante

Passando all’apprendimento operante, questo si differenzia dal classico per via del fatto che si apprendono nuove risposte perché influenzano l’ambiente circostante. Questo modello di apprendimento si basa sul concetto di stimolo-risposta-conseguenza.  L’esempio più famoso è quello della puzzle box di Thorndike. Immaginiamoci una specie di gabbia in cui inseriamo un gatto (o un altro animale) all’interno: egli è libero di esplorarla, e può anche premere tasti o spostare delle leve. In generale l’apprendimento operante consiste nell’ agire tramite un comportamento bene preciso, che se ha un effetto positivo sulle nostre intenzioni verrà presentato con una frequenza maggiore.

Apprendimento associativo complesso

Quest’ultimo si basa su rappresentazioni mentali ben più complesse rispetto alle semplici associazioni che avvenivano precedentemente: stiamo parlando delle capacità di problem solving di un individuo, processi di decision making e concetti astratti come quello di causa. Wolfgang Köhler introdusse il concetto di “insight” osservando il comportamento degli scimpanzé di fronte a situazioni difficoltose, come ad esempio il dover arrampicarsi su una scatola per riuscire ad afferrare una banana. Di fronte a tali situazioni si rese conto che gli scimpanzé riuscivano a trovare una soluzione al problema in modo improvviso e non a fronte di errori ripetuti nel tempo. Köhler suggerisce che l’apprendimento per insight è composto da due fasi differenti: la prima è la capacità di risoluzione di un problema, la seconda è la memorizzazione della soluzione e l’applicazione della stessa in un’altra situazione. Konrad Lorenz ha definito un altro metodo di apprendimento chiamato “imprinting” che gli è valso il premio Nobel per la medicina e la fisiologia del 1973. Secondo la sua teoria, gli esseri viventi possiedono una capacità innata di apprendimento dall’essere biologico (una figura materna) su cui viene costruito un modello comportamentale istintivo. Questo è stato osservato da Lorenz stesso sui piccoli di oca: la figura con cui essi interagivano nelle prime 48 ore di vita, sarebbe diventata di riferimento, generando un imprinting e facendogli credere che sia la loro vera madre, a prescindere dalla specie di appartenenza (uomo o altro animale). L’imprinting è stato osservato anche nel genere umano da Renè Spitz e avviene nei primi nove mesi di vita di un bambino: nel caso venisse a mancare la formazione di questo tipo di legame, come è stato osservato da Spitz stesso, sorgerebbero problemi legati allo sviluppo e alla regolazione psicologica dell’individuo.

Gli esempi di apprendimento che ho riportato, facendo riferimento sia all’attività della mente, sia a quella “materiale” del cervello evidenziamo come l’intenzionalità e i processi cognitivi (tra cui l’apprendimento) negli uomini siano meccanismi che sorgono dalla continua interazione di componenti biologiche e condizioni culturali. Non esiste un solo modo di conoscere e imparare, così come non esiste un solo modo di comportarsi di fronte ad un’unica situazione. Di fronte ad un discorso del genere sembrerebbe che le macchine o intelligenze artificiali non siano coinvolte nei processi di apprendimento, relegando le stesse in una condizione di strumento che qualora voglia “arricchire” le proprie competenze deve fare affidamento sulle capacità di programmazione dell’uomo. Ma, seppur non siano in grado di compiere dei processi cognitivi e non siano dotate di intenzionalità, le intelligenze artificiali sono in grado di imparare.

Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna.

Intenzionalità e processi cognitivi tra mente umana e intelligenza artificiale forte

Il termine mente è nel vocabolario comune associato all’insieme di attività che riguardano la parte superiore del cervello, tra le quali la coscienza, il pensiero, le sensazioni, la volontà, la memoria e la ragione. Oggigiorno la neurofisiologia si occupa dello studio e del funzionamento delle unità che compongono il nostro cervello: i neuroni e le reti neurali. Assieme alle cellule della neuroglia e al tessuto vascolare, compongono il nostro sistema nervoso. Grazie alle sue caratteristiche chimiche, fisiche e biologiche, i neuroni sono in grado di elaborare e trasmettere impulsi nervosi. Un errore da non commettere è quello di confondere la mente con il pensiero: quest’ultimo riguarda l’elaborazione di informazioni ottenute tramite l’esperienza (ovvero tramite gli organi sensoriali) vissuta dal soggetto da parte della mente stessa. Il pensiero è quindi solamente una delle tante attività che riguardano la mente, e che ha luogo nel cervello.

L’intenzionalità e i processi cognitivi nella mente umana

L’intenzionalità umana è definita come la caratteristica del pensiero umano che tende a qualcosa come ad un oggetto specifico. Come abbiamo precisato precedentemente, non ha a che vedere con il concetto di volontà e nemmeno con l’agire intenzionalmente. L’origine del termine deriva dalla filosofia scolastica ed è stato ripreso successivamente da Franz Brentano: per intenzionalità della coscienza intendeva infatti l’idea che essa sia sempre diretta verso un contenuto. Brentano ha considerato l’intenzionalità all’origine dei fenomeni psichici, distinguendoli così dai fenomeni fisici. In questo modo ogni tipo di attività mentale, che vada dal pensare, al desiderare, al credere, ha un oggetto di riferimento. Il concetto presentato da Brentano è irriducibile, è l’elemento fondamentale per la comprensione dei fenomeni mentali, ed è ciò che costituisce la stessa coscienza umana. Successivamente è stato l’allievo Edmund Husserl ad approfondire il concetto dell’intenzionalità, fino a definirlo come ciò che caratterizza la coscienza, oltre a definire gli stati mentali come Erlebnisse intenzionali o più semplicemente atti. Gli studi di filosofia della mente, nel corso del tempo, hanno contribuito a portare  la coscienza e l’intenzionalità ad avere un ruolo di primaria importanza per la comprensione delle attività celebrali. Proprio a partire dalla mente e tramite i processi cognitivi l’uomo ha la possibilità di formare ed aumentare le proprie conoscenze, le quali sono fortemente influenzate anche dal contesto culturale e dalle esperienze a cui il soggetto è sottoposto. Le esperienze ci permettono di avvicinarci a nuove situazioni diverse da quelle proposte dall’ambiente circostante quotidiano, e permettono un confronto con queste ultime.

In tal senso l’apprendimento parte proprio da questo confronto e può essere considerato come un processo di rinnovamento delle proprie conoscenze a partire dalle nuove esperienze. I metodi di apprendimento sono molteplici e non riguardano solamente l’ambito umano, ma anche piante, animali e alcune “macchine”. Vorrei qui approfondire la questione e differenziare le meccaniche di apprendimento in ambito umano e animale da quelle nell’ambito delle intelligenze artificiale. Per come si presenta la situazione al giorno d’oggi le macchine non possono pensare, ma è lecito chiedersi se esse possano imparare da noi, o da altre intelligenze artificiali. Anticipo che sì, sono in grado di farlo, ma prima di esaminare questo aspetto, concentriamoci sull’ambito del “naturale”.


Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna.

Il Test di Turing totale

Oltre alla versione della stanza cinese, nel corso degli anni sono state presentate altre diverse versioni del test. Una di questa è il test di Turing totale [1], proposto da Stevan Harnad: a differenza del test classico descritto precedentemente, questa variante include due supporti ulteriori: un segnale video per testare le capacità percettive ed un braccio robotico che permetta di manipolare degli oggetti.

Affinché la macchina super il test dovrà essere in grado, come nella precedente versione, di confondersi con un essere umano. Essendoci anche un contatto visivo e sensoriale, la difficoltà di passare l’esame aumenta notevolmente.

Il test di Turing è un ottimo punto di partenza per determinare il funzionamento più o meno corretto di un programma appositamente creato, ma non si può considerare come unico ostacolo da superare per determinare successivamente la presenza di un’intelligenza artificiale al pari dell’uomo.

Il premio Loebner

Negli anni sono stati istituiti premi e concorsi come ad esempio il Premio Loebner, una competizione che si basa sul test di Turing e che va a premiare l’intelligenza artificiale che più si avvicina a quella di un essere umano.

Si può menzionare ad esempio menzionare “Mitsuku”, una chatbot (ovvero un software progettato per simulare una conversazione con un essere umano) ideato da Steve Worswick che ha vinto ben cinque differenti edizioni della competizione.

Può giocare su richiesta dell’utente ed è in grado di ragionare su oggetti specifici: se gli chiedessimo “Puoi mangiare una casa?” questo programma ragionerebbe sulle proprietà degli oggetti: una casa è fatta di mattoni, essi non sono commestibili, di conseguenza non posso mangiare una casa.

Mitsuku è basato sulla tecnologia AIML (Artificial Intelligence Markup Language) un linguaggio di markup utile per creare applicazioni in grado di interagire con l’uomo in autonomia e facilmente implementabili e programmabili. Mitsuku non si basa sul “machine learning” (apprendimento automatico), è stato appositamente programmato e continua, dal 2005, ad essere sviluppato e ad interagire con milioni di persone ogni anno. Nonostante questo chatbot detenga il primato di vittorie, non possiamo affermare che abbia superato il test di Turing.

La mente umana non può quindi essere riprodotta solamente basandosi su elementi sintattici ma ancora non è possibile simularla completamente, includendo stati intenzionali e coscienziosi.


[1] Harnad, S. (1991), ‘Other Bodies, Other Minds: A Machine Incarnation of an Old Philosophical Problem’, Minds and Machines 1 pp. 43–54.


La risposta dei sistemi

«Pur essendo vero che l’individuo chiuso nella stanza non capisce la storia, sta di fatto che egli è solo parte di un sistema globale e questo sistema capisce la storia. […] la comprensione non viene ascritta all’individuo isolato, bensì al sistema complessivo di cui egli è parte».

[Searle, 1980].

Searle in risposta a questa obiezione propone di far memorizzare al nostro uomo nella stanza tutte le regole in modo da poter affrontare le dovute operazioni di risposta anche al di fuori della stanza. Ma per quanto riguarda la conoscenza del cinese la situazione rimane del tutto invariata: egli non conosce il cinese e nemmeno il sistema di cui adesso fa parte.

La risposta dei Robot

Searle ci suggerisce di immaginare la possibilità di inserire un calcolatore all’interno di un robot molto simile all’uomo: dotato di una telecamera per vedere (simulando gli occhi) e di arti per poter interagire con l’ambiente circostante[1]. Il calcolatore funge come da cervello del robot, per cui lo guida nelle azioni di vita quotidiane (per quanto un robot dotato di cervello possa averle). Ora, è vero che il robot possiede capacità motorie e visive, ma per Searle questo non cambia assolutamente la sua condizione dal punto di vista della comprensione. Il robot continuerebbe ad applicare le regole che gli abbiamo fornito noi per manipolare determinati simboli. Soprattutto, per essere paragonato ad un uomo, dovrebbe essere capace di riprodurre stati causali ed intenzionali: quest’ultima non ha nulla a che vedere con il concetto di volontà e di libertà di azione, ma intende l’attitudine del pensiero al riferirsi ad un oggetto specifico.

La risposta del simulatore del cervello

In questo caso la macchina simulerebbe formalmente il cervello di un cinese, con sinapsi e attività neuronali in risposta alle domande di determinate storie. Se fossimo in grado di replicare un cervello umano, allora esso sarebbe davvero in grado di comprendere le storie. Se così non sarà, allora ammetteremo che tutte le persone di madrelingua cinese non comprendano le storie che gli raccontiamo. Per replicare a questa risposta, Searle propone un controesempio: supponiamo che invece di manipolare simboli cinesi, l’uomo nella stanza debba gestire, tramite un sistema di valvole e rubinetti, il flusso e il deflusso d’acqua in un sistema di tubature. Ogni connessione idraulica corrisponde ad una sinapsi del cervello di una persona madrelingua cinese, e una volta che tutte le valvole sono state aperte in maniera corretta, allora il sistema fornirà la risposta in cinese.  Anche questa volta né l’uomo, né il sistema non possiede assolutamente nessuna comprensione della domanda e della risposta. Se pensassimo il contrario ci ritroveremo esattamente nella condizione già descritta precedentemente nella “risposta del sistema”. Searle conclude affermando che il sistema simula solamente la parte formale delle operazioni che avvengono all’interno del cervello (sinapsi e attività neuronale) e non la parte intenzionale.

La risposta della combinazione

Le precedenti risposte, come è stato analizzato da Searle, non sono riuscite a soddisfare le proprie pretese. Giunti a questo punto, immaginiamo di unirle in un’unica risposta: un robot provvisto di un calcolatore identico ad un cervello umano, in grado di ricreare al suo interno tutte le sinapsi. Questo robot e le sue “componenti” dobbiamo immaginarcele come un unico sistema, e non come una macchina che risponde solo ad input e output. Necessariamente dovremmo attribuire il concetto di intenzionalità al sistema, dovuto al fatto che a primo impatto esso risulta molto simile al comportamento di un uomo. Ma Searle ci propone di immaginare che all’interno del robot ci sia un uomo, che attraverso gli strumenti sensoriali del robot, manipoli determinati simboli formali non interpretati, li elabori seguendo determinate regole e invii le risposte (altri simboli formali non interpretati) agli strumenti motori. A questo punto, se l’uomo all’interno del robot manipola solo i simboli, senza sapere che significato tali operazioni abbiano per la macchina, allora non potremmo conferire uno stato di intenzionalità al sistema. Il robot esegue regole e altro non è che un automa a cui è impossibile attribuire una mente e, quindi, un’intenzionalità. [2]

Risposta delle altre menti

«Come posso determinare il fatto che una persona capisca il cinese o qualsiasi altra cosa?». In linea di massima potremmo capirlo nel caso il calcolatore superi delle prove comportamentali come fosse un uomo: se siamo disposti ad attribuire capacità cognitive a questi ultimi, dovremmo farlo anche per il calcolatore. Nonostante per Searle questa obiezione non colga il punto centrale trattato all’interno della stanza cinese, è giusto, a suo avviso, considerarla data la sua frequenza. Per Searle «non è come io so che le altre persone hanno stati cognitivi, ma piuttosto che cosa è che io attribuisco loro quando li accredito di stati cognitivi».[3] Per lui, anche in assenza di stati cognitivi è possibile ottenere input e output corretti. Il problema delle altre menti è un tema filosofico tradizionale, di tipo epistemologico, nel quale ci chiediamo come poter determinare il fatto che altri esseri umani abbiano pensieri, sentimenti e attributi mentali.[4]

La risposta delle molte dimore

Secondo tale replica in futuro sarà possibile costruire robot, calcolatori o macchine in generale in grado di possedere quei processi causali che Searle considera fondamentali per poter attribuire l’intenzionalità.[5] Per Searle invece questa replica pecca sul fatto di ridefinire il concetto che inizialmente avevamo definito di Intelligenza Artificiale: tale progetto era nato per “creare” dei processi mentali a partire da processi di calcolo. Impossibile dare una risposta a tale obiezione dal momento che si discosta totalmente con le premesse originarie.

Queste obiezioni e le relative risposte all’argomento proposto da Searle, evidenziano come una delle caratteristiche fondamentali per determinare il fatto che una macchina possa o meno pensare è determinato dal concetto di intenzionalità, e dal significato delle azioni che la macchina compie. Come potremmo pensare che un determinato calcolatore operi senza conoscere il significato delle sue azioni, senza che abbia una coscienza di esse?


[1] John R. Searle.  Menti, cervelli e programmi, traduzione di Graziella Tonfoni, 1984, pp. 57-58.

[2] Larry Hauser, Chinese room argument, 2001, p. 4.

[3] John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984, p. 63.

[4] https://plato.stanford.edu/entries/other-minds/#BestExpl, consultato in data 20 giugno 2020.

[5] Larry Huser, Chinese room argument, 2001, p. 5.


Il pensiero e le intelligenze artificiali

Alan Turing, matematico, logico e filosofo britannico, ha pubblicato nel 1950 un articolo intitolato Computing and intelligence [1], all’interno della rivista Mind. «Could a machine think[2] è una delle prime domande che ci vengono proposte all’interno di tale articolo: come chiarisce immediatamente l’autore, dovremmo prima definire cosa intendiamo per “macchina” e “pensare”.

Questo test si propone come una variante del gioco dell’imitazione, sostenuto da tre partecipanti: un uomo A, una donna B e un terzo soggetto C, che può essere di uno dei sessi. C si posizionerà in una stanza diversa rispetto agli altri partecipanti: A dovrà cercare di ingannare C, mentre B dovrà cercare di aiutare C, che cercherà di determinare il sesso dei suoi interlocutori. Il test di Turing è stato ideato in modo che una macchina o un’IA si sostituisse ad A. Per evitare che C possa cercare di indovinare chi siano A e B, le risposte alle domande che gli vengono poste saranno dattilografate e potranno essere fornite solo “X è A e Y è B” o il contrario.

Ora, se la sostituzione porta a risultati simili da parte di C su chi sia l’uomo e chi la donna, allora potremmo affermare che la macchina in questione è “intelligente”. In questa situazione, infatti, la macchina non si distingue dal genere umano. Per Turing però questa macchina è da considerarsi capace di pensare e formulare espressioni con un significato. Avvenuta la sostituzione, potremmo chiedere alla macchina: «L’interrogante darà una risposta errata altrettanto spesso di quando il gioco viene giocato tra un uomo e una donna?». Questa domanda diventa così la sostituta della domanda originaria: «Può una macchina pensare?».

Turing, all’interno del suo articolo ci permette di definire un’intelligenza artificiale senza fare riferimento a termini come “macchina” e “pensare”. Come dice Longo, quello che è interessante in questo esperimento non sono le risposte che la macchina può fornirci, bensì il fatto che possiamo ragionare su concetti astratti (soprattutto riferiti ad una macchina) come quelli della mente, dell’intelligenza e del pensiero. [3]

John Searle ha proposto nel 1984 un esperimento mentale chiamato “la stanza cinese” che si pone come scopo quello di confutare la teoria dell’intelligenza artificiale forte. Immaginiamo di porre un uomo, madrelingua inglese, in una stanza con un foglio di carta ricoperto di ideogrammi cinesi. L’uomo in questione non comprende il cinese (né scritto né parlato) e non ha la minima idea di cosa possano significare tali ideogrammi. Come ulteriore prova, aggiunge Searle, supponiamo che quest’uomo non sia nemmeno in grado di distinguere gli ideogrammi cinesi da quelli giapponesi.

Sono semplicemente “meaningless squiggles[4] che tradotto letteralmente significa “scarabocchi insignificanti”. Oltre al primo foglio, ne viene fornito un altro, sempre in cinese, che contiene le regole per mettere in relazione i due fogli: le regole esposte permettono di correlare un insieme di simboli ad un altro insieme di simboli, solamente in base alla loro forma grafica. Infine, viene fornito un altro foglio, contenenti ideogrammi cinesi e le regole (questa volta scritte in inglese) per mettere in relazione i primi due fogli.

Tali regole permetteranno al nostro individuo nella stanza di scrivere determinati ideogrammi in risposta ad altri, contenuti nei primi due fogli. All’uomo verranno fornite anche storie e domande in inglese, a cui (ovviamente) riesce a dare risposta. Supponiamo ora che l’uomo nella stanza diventi abile nella manipolazione dei simboli cinesi e nell’applicazione delle regole a loro collegati, a tal punto che le risposte che otteniamo sarebbero del tutto indistinguibili da quelle che darebbero delle persone di madrelingua inglese.

Nessuno penserebbe che queste risposte in cinese siano state date senza aver la minima conoscenza di tale lingua. Tuttavia, riscontriamo una differenza tra quella che è la risposta tra una persona madrelingua cinese e uno no: l’interpretazione avviene solamente con la lingua inglese, mentre invece con il cinese no! Il comportamento dell’uomo in questo caso è del tutto simile a quello di un calcolatore. Come abbiamo detto precedentemente, la teoria dell’intelligenza artificiale forte sostiene che il calcolatore programmato capisca le storie e che l’insieme di regole che gli sono state fornite garantisca una certa capacità di comprendere cosa ha prodotto in output.

Ma sia nel caso ci sia un uomo o un calcolatore all’interno della stanza, per Searle non c’è differenza: nessuno dei due è in grado di comprendere una sola parola o ideogramma della lingua cinese. Questo significa che per quanto un calcolatore sia accuratamente programmato, questo non gli garantisce di essere considerato al pari di una mente umana.

Per Searle, infatti, la sintassi (grammatica) non è equivalente alla semantica (significato). Il lavoro presentato da Searle all’interno di questo articolo si presenta con l’esposizione della tesi di partenza e nell’esposizione delle obiezioni alla tesi, esattamente come era impostato l’articolo di Alan Turing del 1950.


[1] Avramides, Anita, “Other Minds”, The Stanford Encyclopedia of Philosophy (Summer 2019 Edition), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/sum2019/entries/other-minds/ consultato in data 19 maggio 2020.

[2] Tradotto significa “Può una macchina pensare?”

[3] G.O. Longo. Il test di turing: storia e significato. Mondo Digitale, 2009.

[4] J.R. Searle. Minds, brains and programs. Behavioral and Brain Sciences, 1980.

Alla scoperta delle intelligenze artificiali

Per dare risposta a questa domanda dovremmo in primo luogo definire cosa intendiamo per macchina. Erroneamente la maggior parte delle persone pensa ad un robot dalle sembianze umane, come abbiamo visto in innumerevoli pellicole cinematografiche.

Innanzitutto, per macchina potremmo definire i risultati ottenuti dagli studi dell’intelligenza artificiale, disciplina che progetta un insieme di hardware e software (o, in un linguaggio meno “tecnico”, componenti tecniche e programmi) che sono tanto efficaci da avvicinarsi o essere potenzialmente del tutto identiche all’intelligenza umana.  

Rinchiudere tutti i mezzi tecnologici in grado di avvicinarsi all’intelligenza umana sotto un’unica famiglia sembra un passo al quanto azzardoso, perciò, in base alle caratteristiche di queste “macchine” distinguiamo tra intelligenza artificiale forte e intelligenza artificiale debole.

Un’IA (intelligenza artificiale) debole è uno strumento molto potente, che, come dice Searle all’interno di Minds, Brains and Programs, ci permette di calcolare in maniera precisa e veloce ogni sorta di ipotesi e di formulazione:

«Secondo l’IA debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette, ad esempio, di formulare e verificare le ipotesi in un modo più preciso e rigoroso».[1]

Un IA forte, non è più uno strumento, ma è considerata da Searle come una vera e propria mente:

«Secondo l’IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente, ma piuttosto, quando sia programmato opportunamente, è una vera mente; è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, letteralmente capiscono e posseggono altri stati cognitivi». [2]

E, in quanto tale, possiede una propria cognizione delle cose. All’interno dell’IA forte, i programmi di cui fa uso quest’ultima per spiegare i fenomeni psicologici, sono essi stessi queste spiegazioni. Quindi, riformulando quest’ultima parte, sembrerebbe che un IA forte, appositamente programmata, possegga degli stati cognitivi (come il cervello umano) e che quindi i programmi di cui fa uso, spieghino i processi cognitivi dell’uomo.

Ci soffermeremo in particolar modo sul ruolo dell’intelligenza artificiale forte, per scoprire se davvero essa può pensare e cosa questo determina per l’essere umano. John Searle scrive Minds, Brains and Programs nel 1984, ponendo come primo obiettivo quello di dimostrare come il cervello umano e la mente non abbiano nulla in comune con un programma o una macchina. Queste ultime non riusciranno mai a pensare e avere un concetto di intenzionalità simile a quello degli esseri umani.


[1]John R. Searle.  Menti, cervelli e programmi, traduzione di Graziella Tonfoni, 1984, pp. 54.
[2] Ibid.