Tag

test di turing

Browsing

Il Test di Turing totale

Oltre alla versione della stanza cinese, nel corso degli anni sono state presentate altre diverse versioni del test. Una di questa è il test di Turing totale [1], proposto da Stevan Harnad: a differenza del test classico descritto precedentemente, questa variante include due supporti ulteriori: un segnale video per testare le capacità percettive ed un braccio robotico che permetta di manipolare degli oggetti.

Affinché la macchina super il test dovrà essere in grado, come nella precedente versione, di confondersi con un essere umano. Essendoci anche un contatto visivo e sensoriale, la difficoltà di passare l’esame aumenta notevolmente.

Il test di Turing è un ottimo punto di partenza per determinare il funzionamento più o meno corretto di un programma appositamente creato, ma non si può considerare come unico ostacolo da superare per determinare successivamente la presenza di un’intelligenza artificiale al pari dell’uomo.

Il premio Loebner

Negli anni sono stati istituiti premi e concorsi come ad esempio il Premio Loebner, una competizione che si basa sul test di Turing e che va a premiare l’intelligenza artificiale che più si avvicina a quella di un essere umano.

Si può menzionare ad esempio menzionare “Mitsuku”, una chatbot (ovvero un software progettato per simulare una conversazione con un essere umano) ideato da Steve Worswick che ha vinto ben cinque differenti edizioni della competizione.

Può giocare su richiesta dell’utente ed è in grado di ragionare su oggetti specifici: se gli chiedessimo “Puoi mangiare una casa?” questo programma ragionerebbe sulle proprietà degli oggetti: una casa è fatta di mattoni, essi non sono commestibili, di conseguenza non posso mangiare una casa.

Mitsuku è basato sulla tecnologia AIML (Artificial Intelligence Markup Language) un linguaggio di markup utile per creare applicazioni in grado di interagire con l’uomo in autonomia e facilmente implementabili e programmabili. Mitsuku non si basa sul “machine learning” (apprendimento automatico), è stato appositamente programmato e continua, dal 2005, ad essere sviluppato e ad interagire con milioni di persone ogni anno. Nonostante questo chatbot detenga il primato di vittorie, non possiamo affermare che abbia superato il test di Turing.

La mente umana non può quindi essere riprodotta solamente basandosi su elementi sintattici ma ancora non è possibile simularla completamente, includendo stati intenzionali e coscienziosi.


[1] Harnad, S. (1991), ‘Other Bodies, Other Minds: A Machine Incarnation of an Old Philosophical Problem’, Minds and Machines 1 pp. 43–54.


Il pensiero e le intelligenze artificiali

Alan Turing, matematico, logico e filosofo britannico, ha pubblicato nel 1950 un articolo intitolato Computing and intelligence [1], all’interno della rivista Mind. «Could a machine think[2] è una delle prime domande che ci vengono proposte all’interno di tale articolo: come chiarisce immediatamente l’autore, dovremmo prima definire cosa intendiamo per “macchina” e “pensare”.

Questo test si propone come una variante del gioco dell’imitazione, sostenuto da tre partecipanti: un uomo A, una donna B e un terzo soggetto C, che può essere di uno dei sessi. C si posizionerà in una stanza diversa rispetto agli altri partecipanti: A dovrà cercare di ingannare C, mentre B dovrà cercare di aiutare C, che cercherà di determinare il sesso dei suoi interlocutori. Il test di Turing è stato ideato in modo che una macchina o un’IA si sostituisse ad A. Per evitare che C possa cercare di indovinare chi siano A e B, le risposte alle domande che gli vengono poste saranno dattilografate e potranno essere fornite solo “X è A e Y è B” o il contrario.

Ora, se la sostituzione porta a risultati simili da parte di C su chi sia l’uomo e chi la donna, allora potremmo affermare che la macchina in questione è “intelligente”. In questa situazione, infatti, la macchina non si distingue dal genere umano. Per Turing però questa macchina è da considerarsi capace di pensare e formulare espressioni con un significato. Avvenuta la sostituzione, potremmo chiedere alla macchina: «L’interrogante darà una risposta errata altrettanto spesso di quando il gioco viene giocato tra un uomo e una donna?». Questa domanda diventa così la sostituta della domanda originaria: «Può una macchina pensare?».

Turing, all’interno del suo articolo ci permette di definire un’intelligenza artificiale senza fare riferimento a termini come “macchina” e “pensare”. Come dice Longo, quello che è interessante in questo esperimento non sono le risposte che la macchina può fornirci, bensì il fatto che possiamo ragionare su concetti astratti (soprattutto riferiti ad una macchina) come quelli della mente, dell’intelligenza e del pensiero. [3]

John Searle ha proposto nel 1984 un esperimento mentale chiamato “la stanza cinese” che si pone come scopo quello di confutare la teoria dell’intelligenza artificiale forte. Immaginiamo di porre un uomo, madrelingua inglese, in una stanza con un foglio di carta ricoperto di ideogrammi cinesi. L’uomo in questione non comprende il cinese (né scritto né parlato) e non ha la minima idea di cosa possano significare tali ideogrammi. Come ulteriore prova, aggiunge Searle, supponiamo che quest’uomo non sia nemmeno in grado di distinguere gli ideogrammi cinesi da quelli giapponesi.

Sono semplicemente “meaningless squiggles[4] che tradotto letteralmente significa “scarabocchi insignificanti”. Oltre al primo foglio, ne viene fornito un altro, sempre in cinese, che contiene le regole per mettere in relazione i due fogli: le regole esposte permettono di correlare un insieme di simboli ad un altro insieme di simboli, solamente in base alla loro forma grafica. Infine, viene fornito un altro foglio, contenenti ideogrammi cinesi e le regole (questa volta scritte in inglese) per mettere in relazione i primi due fogli.

Tali regole permetteranno al nostro individuo nella stanza di scrivere determinati ideogrammi in risposta ad altri, contenuti nei primi due fogli. All’uomo verranno fornite anche storie e domande in inglese, a cui (ovviamente) riesce a dare risposta. Supponiamo ora che l’uomo nella stanza diventi abile nella manipolazione dei simboli cinesi e nell’applicazione delle regole a loro collegati, a tal punto che le risposte che otteniamo sarebbero del tutto indistinguibili da quelle che darebbero delle persone di madrelingua inglese.

Nessuno penserebbe che queste risposte in cinese siano state date senza aver la minima conoscenza di tale lingua. Tuttavia, riscontriamo una differenza tra quella che è la risposta tra una persona madrelingua cinese e uno no: l’interpretazione avviene solamente con la lingua inglese, mentre invece con il cinese no! Il comportamento dell’uomo in questo caso è del tutto simile a quello di un calcolatore. Come abbiamo detto precedentemente, la teoria dell’intelligenza artificiale forte sostiene che il calcolatore programmato capisca le storie e che l’insieme di regole che gli sono state fornite garantisca una certa capacità di comprendere cosa ha prodotto in output.

Ma sia nel caso ci sia un uomo o un calcolatore all’interno della stanza, per Searle non c’è differenza: nessuno dei due è in grado di comprendere una sola parola o ideogramma della lingua cinese. Questo significa che per quanto un calcolatore sia accuratamente programmato, questo non gli garantisce di essere considerato al pari di una mente umana.

Per Searle, infatti, la sintassi (grammatica) non è equivalente alla semantica (significato). Il lavoro presentato da Searle all’interno di questo articolo si presenta con l’esposizione della tesi di partenza e nell’esposizione delle obiezioni alla tesi, esattamente come era impostato l’articolo di Alan Turing del 1950.


[1] Avramides, Anita, “Other Minds”, The Stanford Encyclopedia of Philosophy (Summer 2019 Edition), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/sum2019/entries/other-minds/ consultato in data 19 maggio 2020.

[2] Tradotto significa “Può una macchina pensare?”

[3] G.O. Longo. Il test di turing: storia e significato. Mondo Digitale, 2009.

[4] J.R. Searle. Minds, brains and programs. Behavioral and Brain Sciences, 1980.

Alla scoperta delle intelligenze artificiali

Per dare risposta a questa domanda dovremmo in primo luogo definire cosa intendiamo per macchina. Erroneamente la maggior parte delle persone pensa ad un robot dalle sembianze umane, come abbiamo visto in innumerevoli pellicole cinematografiche.

Innanzitutto, per macchina potremmo definire i risultati ottenuti dagli studi dell’intelligenza artificiale, disciplina che progetta un insieme di hardware e software (o, in un linguaggio meno “tecnico”, componenti tecniche e programmi) che sono tanto efficaci da avvicinarsi o essere potenzialmente del tutto identiche all’intelligenza umana.  

Rinchiudere tutti i mezzi tecnologici in grado di avvicinarsi all’intelligenza umana sotto un’unica famiglia sembra un passo al quanto azzardoso, perciò, in base alle caratteristiche di queste “macchine” distinguiamo tra intelligenza artificiale forte e intelligenza artificiale debole.

Un’IA (intelligenza artificiale) debole è uno strumento molto potente, che, come dice Searle all’interno di Minds, Brains and Programs, ci permette di calcolare in maniera precisa e veloce ogni sorta di ipotesi e di formulazione:

«Secondo l’IA debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette, ad esempio, di formulare e verificare le ipotesi in un modo più preciso e rigoroso».[1]

Un IA forte, non è più uno strumento, ma è considerata da Searle come una vera e propria mente:

«Secondo l’IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente, ma piuttosto, quando sia programmato opportunamente, è una vera mente; è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, letteralmente capiscono e posseggono altri stati cognitivi». [2]

E, in quanto tale, possiede una propria cognizione delle cose. All’interno dell’IA forte, i programmi di cui fa uso quest’ultima per spiegare i fenomeni psicologici, sono essi stessi queste spiegazioni. Quindi, riformulando quest’ultima parte, sembrerebbe che un IA forte, appositamente programmata, possegga degli stati cognitivi (come il cervello umano) e che quindi i programmi di cui fa uso, spieghino i processi cognitivi dell’uomo.

Ci soffermeremo in particolar modo sul ruolo dell’intelligenza artificiale forte, per scoprire se davvero essa può pensare e cosa questo determina per l’essere umano. John Searle scrive Minds, Brains and Programs nel 1984, ponendo come primo obiettivo quello di dimostrare come il cervello umano e la mente non abbiano nulla in comune con un programma o una macchina. Queste ultime non riusciranno mai a pensare e avere un concetto di intenzionalità simile a quello degli esseri umani.


[1]John R. Searle.  Menti, cervelli e programmi, traduzione di Graziella Tonfoni, 1984, pp. 54.
[2] Ibid.