Tag

intenzionalità

Browsing

Tra artificiale e biologico

Questa metodologia di apprendimento cerca di creare un modello automatico su più livelli, in cui i livelli più “profondi” prendano in input i dati provenienti dai livelli precedenti a loro, rielaborandoli.

Ogni livello della scala di cui si compone corrisponderebbe ad una delle diverse aree che compongono il cervello umano, ognuna con le proprie caratteristiche: in base agli stimoli provenienti dall’esterno, così come nel cervello vengono “attivati” nuovi neuroni, così nella struttura proposta dal deep, verranno proposte differenti risposte del sistema a seconda degli stimoli ricevuti.

Nell’ambito delle reti neurali artificiali il deep learning viene largamente usato: si cerca di riprodurre il calcolatore più complesso in assoluto, il cervello umano. Le differenze tra i due sistemi sono ancora molto evidenti, basti pensare che a noi “umani” per riconoscere il viso familiare in una folla di persone possono volerci alcuni secondi, per una macchina distinguere immagini ben più semplici addirittura giorni!

Ed è così anche nel mondo animale, se consideriamo che i sistemi di orientamento di un pipistrello sono ben più avanzati e sviluppati dei sistemi radar umani. Questi paragoni servono principalmente per comprendere la difficoltà della risposta che vogliamo ottenere, e anche le complicazioni che sussistono all’interno di questo ambito di riserva. Ma che cos’è una rete neurale?

Per rete neurale intendiamo un processore ispirato al funzionamento del sistema nervoso di organismo biologici complessi, costituito di unità computazionali elementari che giocano lo stesso ruolo dei neuroni nel cervello. Essi hanno due caratteristiche: la prima è la conoscenza, come abbiamo visto precedentemente, acquisita tramite processi di apprendimento.

La seconda consiste nella capacità di immagazzinare tali conoscenze all’interno del sistema neuroni-rete neurale. I neuroni artificiali funzionano come nodi all’interno della rete, ricevono segnali provenienti dall’esterno o da altri nodi (neuroni) e ne effettuano una trasformazione chiamata funzione di attivazione. Questa operazione altro non fa che trasformare matematicamente il valore delle informazioni prima di passarle ad uno strato successivo, facendo in modo di trasmettere i valori di input attraverso tutta la rete fino ad arrivare all’output.

Il percettone è stato il primo schema di rete neurale proposta da Frank Roosenbalt nel 1958. Esso si presentava come un semplice classificatore binario in grado di riconoscere due differenti classi di input e separarle. Strutturalmente le similitudini con un neurone biologico sono indiscutibili: i dendriti e le sinapsi costituiscono l’input del neurone, mentre il nucleo e gli assoni costituiscono l’output del neurone che andrà poi ad interagire con gli altri neuroni. Il problema riguardante questo primo esperimento è la grande limitazione computazionale del singolo percettone, collegata al fatto che le prestazioni ottenibili dipendono con la scelta degli input.

Dal 1958 ad oggi, con un’impennata raggiunta negli anni ‘80, lo sviluppo delle reti neurali è continuato ed è possibile impiegare tali tecnologie soprattutto quando la difficoltà computazionale aumenta e le quantità di dati da elaborare diventano proibitive per l’uomo: ad esempio vengono utilizzate nel controllo del traffico aereo e veicoli, nelle simulazioni videoludiche come il gioco degli scacchi, nel riconoscimento nei sistemi radar e di identificazione facciale e vocale.

La nota negativa riguardante l’utilizzo di tali sistemi riguarda il fatto che, a differenza di sistemi algoritmici nei quali è possibile analizzare l’intero processo di elaborazione, con le reti neurali ci viene fornito solamente un dato (o un insieme di dati) in output che dobbiamo prendere come tale. Per questo a maggior ragione la scelta dei dati in ingresso è fondamentale per una corretta e attendibile valutazione da parte della rete.

Come abbiamo visto sussistono ancora innumerevoli differenze tra la tecnologia utilizzabile in ambito di reti neurali e le reti neurali biologiche presenti all’interno del cervello: tuttavia, le similitudini tra questi sistemi non sono così astratte. Le diverse tipologie di apprendimento automatico che abbiamo tenuto in considerazione mostrano come l’uomo stia cercando di ricreare artificialmente quello che possiede biologicamente: ovviamente non è un’operazione semplice, ma le possibilità di sviluppo sono a favore dei ricercatori.

Da un punto di vista computazionale e di velocità di elaborazione dei dati, una macchina sarà sempre favorita sull’uomo, rimane da implementare la parte relativa all’intenzionalità e alla cognizione. E nonostante ammettessimo che un’intelligenza artificiale (di tipo simbolico) possa essere associata al concetto di intenzionalità,  nulla ci garantisce che essa possa possedere autocoscienza di sé.

Se così fosse avremo di fronte a noi qualcosa di rivoluzionario: sarebbe una tecnologia tale da potersi migliorare da sola, rendersi conto di sé e di cosa la circonda, delle minacce e dei pericoli. In questo caso ci troveremo di fronte a quella che Nick Bostrom ha catalogato come Superintelligenza e che esporrò nel terzo capitolo.

Intenzionalità e processi cognitivi tra mente umana e intelligenza artificiale forte

Il termine mente è nel vocabolario comune associato all’insieme di attività che riguardano la parte superiore del cervello, tra le quali la coscienza, il pensiero, le sensazioni, la volontà, la memoria e la ragione. Oggigiorno la neurofisiologia si occupa dello studio e del funzionamento delle unità che compongono il nostro cervello: i neuroni e le reti neurali. Assieme alle cellule della neuroglia e al tessuto vascolare, compongono il nostro sistema nervoso. Grazie alle sue caratteristiche chimiche, fisiche e biologiche, i neuroni sono in grado di elaborare e trasmettere impulsi nervosi. Un errore da non commettere è quello di confondere la mente con il pensiero: quest’ultimo riguarda l’elaborazione di informazioni ottenute tramite l’esperienza (ovvero tramite gli organi sensoriali) vissuta dal soggetto da parte della mente stessa. Il pensiero è quindi solamente una delle tante attività che riguardano la mente, e che ha luogo nel cervello.

L’intenzionalità e i processi cognitivi nella mente umana

L’intenzionalità umana è definita come la caratteristica del pensiero umano che tende a qualcosa come ad un oggetto specifico. Come abbiamo precisato precedentemente, non ha a che vedere con il concetto di volontà e nemmeno con l’agire intenzionalmente. L’origine del termine deriva dalla filosofia scolastica ed è stato ripreso successivamente da Franz Brentano: per intenzionalità della coscienza intendeva infatti l’idea che essa sia sempre diretta verso un contenuto. Brentano ha considerato l’intenzionalità all’origine dei fenomeni psichici, distinguendoli così dai fenomeni fisici. In questo modo ogni tipo di attività mentale, che vada dal pensare, al desiderare, al credere, ha un oggetto di riferimento. Il concetto presentato da Brentano è irriducibile, è l’elemento fondamentale per la comprensione dei fenomeni mentali, ed è ciò che costituisce la stessa coscienza umana. Successivamente è stato l’allievo Edmund Husserl ad approfondire il concetto dell’intenzionalità, fino a definirlo come ciò che caratterizza la coscienza, oltre a definire gli stati mentali come Erlebnisse intenzionali o più semplicemente atti. Gli studi di filosofia della mente, nel corso del tempo, hanno contribuito a portare  la coscienza e l’intenzionalità ad avere un ruolo di primaria importanza per la comprensione delle attività celebrali. Proprio a partire dalla mente e tramite i processi cognitivi l’uomo ha la possibilità di formare ed aumentare le proprie conoscenze, le quali sono fortemente influenzate anche dal contesto culturale e dalle esperienze a cui il soggetto è sottoposto. Le esperienze ci permettono di avvicinarci a nuove situazioni diverse da quelle proposte dall’ambiente circostante quotidiano, e permettono un confronto con queste ultime.

In tal senso l’apprendimento parte proprio da questo confronto e può essere considerato come un processo di rinnovamento delle proprie conoscenze a partire dalle nuove esperienze. I metodi di apprendimento sono molteplici e non riguardano solamente l’ambito umano, ma anche piante, animali e alcune “macchine”. Vorrei qui approfondire la questione e differenziare le meccaniche di apprendimento in ambito umano e animale da quelle nell’ambito delle intelligenze artificiale. Per come si presenta la situazione al giorno d’oggi le macchine non possono pensare, ma è lecito chiedersi se esse possano imparare da noi, o da altre intelligenze artificiali. Anticipo che sì, sono in grado di farlo, ma prima di esaminare questo aspetto, concentriamoci sull’ambito del “naturale”.


Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna.

La risposta dei sistemi

«Pur essendo vero che l’individuo chiuso nella stanza non capisce la storia, sta di fatto che egli è solo parte di un sistema globale e questo sistema capisce la storia. […] la comprensione non viene ascritta all’individuo isolato, bensì al sistema complessivo di cui egli è parte».

[Searle, 1980].

Searle in risposta a questa obiezione propone di far memorizzare al nostro uomo nella stanza tutte le regole in modo da poter affrontare le dovute operazioni di risposta anche al di fuori della stanza. Ma per quanto riguarda la conoscenza del cinese la situazione rimane del tutto invariata: egli non conosce il cinese e nemmeno il sistema di cui adesso fa parte.

La risposta dei Robot

Searle ci suggerisce di immaginare la possibilità di inserire un calcolatore all’interno di un robot molto simile all’uomo: dotato di una telecamera per vedere (simulando gli occhi) e di arti per poter interagire con l’ambiente circostante[1]. Il calcolatore funge come da cervello del robot, per cui lo guida nelle azioni di vita quotidiane (per quanto un robot dotato di cervello possa averle). Ora, è vero che il robot possiede capacità motorie e visive, ma per Searle questo non cambia assolutamente la sua condizione dal punto di vista della comprensione. Il robot continuerebbe ad applicare le regole che gli abbiamo fornito noi per manipolare determinati simboli. Soprattutto, per essere paragonato ad un uomo, dovrebbe essere capace di riprodurre stati causali ed intenzionali: quest’ultima non ha nulla a che vedere con il concetto di volontà e di libertà di azione, ma intende l’attitudine del pensiero al riferirsi ad un oggetto specifico.

La risposta del simulatore del cervello

In questo caso la macchina simulerebbe formalmente il cervello di un cinese, con sinapsi e attività neuronali in risposta alle domande di determinate storie. Se fossimo in grado di replicare un cervello umano, allora esso sarebbe davvero in grado di comprendere le storie. Se così non sarà, allora ammetteremo che tutte le persone di madrelingua cinese non comprendano le storie che gli raccontiamo. Per replicare a questa risposta, Searle propone un controesempio: supponiamo che invece di manipolare simboli cinesi, l’uomo nella stanza debba gestire, tramite un sistema di valvole e rubinetti, il flusso e il deflusso d’acqua in un sistema di tubature. Ogni connessione idraulica corrisponde ad una sinapsi del cervello di una persona madrelingua cinese, e una volta che tutte le valvole sono state aperte in maniera corretta, allora il sistema fornirà la risposta in cinese.  Anche questa volta né l’uomo, né il sistema non possiede assolutamente nessuna comprensione della domanda e della risposta. Se pensassimo il contrario ci ritroveremo esattamente nella condizione già descritta precedentemente nella “risposta del sistema”. Searle conclude affermando che il sistema simula solamente la parte formale delle operazioni che avvengono all’interno del cervello (sinapsi e attività neuronale) e non la parte intenzionale.

La risposta della combinazione

Le precedenti risposte, come è stato analizzato da Searle, non sono riuscite a soddisfare le proprie pretese. Giunti a questo punto, immaginiamo di unirle in un’unica risposta: un robot provvisto di un calcolatore identico ad un cervello umano, in grado di ricreare al suo interno tutte le sinapsi. Questo robot e le sue “componenti” dobbiamo immaginarcele come un unico sistema, e non come una macchina che risponde solo ad input e output. Necessariamente dovremmo attribuire il concetto di intenzionalità al sistema, dovuto al fatto che a primo impatto esso risulta molto simile al comportamento di un uomo. Ma Searle ci propone di immaginare che all’interno del robot ci sia un uomo, che attraverso gli strumenti sensoriali del robot, manipoli determinati simboli formali non interpretati, li elabori seguendo determinate regole e invii le risposte (altri simboli formali non interpretati) agli strumenti motori. A questo punto, se l’uomo all’interno del robot manipola solo i simboli, senza sapere che significato tali operazioni abbiano per la macchina, allora non potremmo conferire uno stato di intenzionalità al sistema. Il robot esegue regole e altro non è che un automa a cui è impossibile attribuire una mente e, quindi, un’intenzionalità. [2]

Risposta delle altre menti

«Come posso determinare il fatto che una persona capisca il cinese o qualsiasi altra cosa?». In linea di massima potremmo capirlo nel caso il calcolatore superi delle prove comportamentali come fosse un uomo: se siamo disposti ad attribuire capacità cognitive a questi ultimi, dovremmo farlo anche per il calcolatore. Nonostante per Searle questa obiezione non colga il punto centrale trattato all’interno della stanza cinese, è giusto, a suo avviso, considerarla data la sua frequenza. Per Searle «non è come io so che le altre persone hanno stati cognitivi, ma piuttosto che cosa è che io attribuisco loro quando li accredito di stati cognitivi».[3] Per lui, anche in assenza di stati cognitivi è possibile ottenere input e output corretti. Il problema delle altre menti è un tema filosofico tradizionale, di tipo epistemologico, nel quale ci chiediamo come poter determinare il fatto che altri esseri umani abbiano pensieri, sentimenti e attributi mentali.[4]

La risposta delle molte dimore

Secondo tale replica in futuro sarà possibile costruire robot, calcolatori o macchine in generale in grado di possedere quei processi causali che Searle considera fondamentali per poter attribuire l’intenzionalità.[5] Per Searle invece questa replica pecca sul fatto di ridefinire il concetto che inizialmente avevamo definito di Intelligenza Artificiale: tale progetto era nato per “creare” dei processi mentali a partire da processi di calcolo. Impossibile dare una risposta a tale obiezione dal momento che si discosta totalmente con le premesse originarie.

Queste obiezioni e le relative risposte all’argomento proposto da Searle, evidenziano come una delle caratteristiche fondamentali per determinare il fatto che una macchina possa o meno pensare è determinato dal concetto di intenzionalità, e dal significato delle azioni che la macchina compie. Come potremmo pensare che un determinato calcolatore operi senza conoscere il significato delle sue azioni, senza che abbia una coscienza di esse?


[1] John R. Searle.  Menti, cervelli e programmi, traduzione di Graziella Tonfoni, 1984, pp. 57-58.

[2] Larry Hauser, Chinese room argument, 2001, p. 4.

[3] John R. Searle, Menti, cervelli e programmi, traduzione di Graziella Tonfoni, Milano, 1984, p. 63.

[4] https://plato.stanford.edu/entries/other-minds/#BestExpl, consultato in data 20 giugno 2020.

[5] Larry Huser, Chinese room argument, 2001, p. 5.