Tag

intelligenza artificiale debole

Browsing

Quale futuro per la nostra salute ?

In un recente articolo pubblicato dal The Journal of AMD, intitolato Intelligenza Artificiale e Big Data in ambito medico: prospettive, opportunità, criticità. JAMD Vol. 21-3, Nicoletta Musacchio e i suoi collaboratori hanno evidenziato l’evoluzione e l’incredibile aumento delle informazioni digitali, raddoppiate in quasi ogni ambito negli ultimi 2 anni.

Conseguentemente a questo aumento, siamo arrivati ad avere una mole non indifferente di dati, che sono stati definiti come Big Data. Essi sono caratterizzati da quattro componenti, rappresentate dalla lettera “V”: volume, velocità, varietà ed infine veridicità. I Big Data li troviamo oggigiorno anche in ambito medico sanitario, grazie allo sviluppo di quattro differenti fenomeni.

In primis lo sviluppo della diagnostica per immagini digitali, che sta prendendo il posto alle antiquate tecniche di diagnostica analogica. Collegato a ciò, ci sono ovviamente le nuove tecniche di reportistica digitale: tutti noi disponiamo di cartelle e fascicoli elettronici sanitari su cui vengono pubblicati gli esiti delle visite mediche a cui ci sottoponiamo.

Gli altri due punti riguardano temi differenti: lo sviluppo delle biotecnologie impiegate nelle scienze riguardanti la genomica e la trascrittomica; e l’esplosione di quello che viene definito come “Internet of things” (IOT). Il primo di questi due fenomeni riguarda l’indagine che viene effettuata sulle cellule ad un livello sempre più microscopico: l’analisi di ciò e l’elaborazione dei dati ricavati portano alla creazione di un ingente mole di dati.

Infine, l’esplosione delle IOT riguarda l’evoluzione tecnologica che stiamo vivendo ad un livello molto più ampio rispetto al solo settore della sanità (sia essa pubblica o privata). Passare dall’IOT al IOMT (ovvero l’Internet of medical things) è un passo molto più breve di quanto si pensi: basti pensare ai moderni orologi da polso, in grado di tenere conto dei battiti cardiaci, della temperatura corporea e dei movimenti che compiamo in ogni singolo istante.

La vera rivoluzione in ambito di intelligenza artificiale applicata in ambito medico è e sarà sempre di più il machine learning: la capacità di un software di simulare ragionamenti sulla base dei dati forniti permetterà la generazione di modelli predittivi. Tali modelli tramite l’utilizzo di dati storici potranno prevedere eventi futuri (come l’insorgere di malattie). Esistono due differenti modelli: quelli trasparenti e quelli denominati “black box”.

I primi hanno la caratteristica di evidenziare i parametri su cui basano la loro previsione, passando così dall’essere predittivi a “prescrittivi”. Il modello “black box”, a contrario, ci fornisce sì una risposta ma non ci fornisce alcuna giustificazione a riguardo. Questa è una delle criticità legate all’utilizzo dell’intelligenza artificiale in ambito medico: affinché il sistema possa funzionare correttamente dobbiamo disporre di requisiti fondamentali come la qualità, la validità e il corretto utilizzo dei dati a nostra disposizione.

Alcuni di essi provengono da piattaforme che originariamente erano state dedicate a ben altri scopi. Sempre rimanendo in tema di dati, l’importanza fondamentale è che siano digitalizzati: negli archivi sono presenti ancora decine di migliaia di cartelle cliniche inutilizzate a questi scopi.

Ovviamente raccogliere ingenti quantità di informazioni cartacee e racchiuderle in un database è un lavoro molto impegnativo, che deve garantire anche la privacy delle persone interessate. È chiaro ora come l’intelligenza artificiale possa essere di estremo aiuto per le funzioni quotidiane e per l’implementazione di nuovi sistemi sanitari complessi, tuttavia affinché essa possa davvero essere efficiente, è necessario preparare una base solida su cui poter erigere un sistema di tale complessità.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.

Riflessioni sull’etica delle macchine

Questi sette punti sono stati stilati sulla base di tre diversi presupposti che una qualsiasi intelligenza artificiale deve possedere: legalità, eticità e robustezza. Legalità significa che deve attenersi alle regole e alle leggi presenti e future.

Eticità che deve fare riferimento a principi etici e morali in accordo con quelle che sono gli obiettivi di coesione sociale ed integrazione promulgati dalla comunità europea. Infine, la robustezza sia tecnica che sociale, che renderà l’intero sistema uno strumento sicuro da utilizzare (sistemi di intelligenza artificiale potrebbero causare gravi danni seppur non intenzionali).

I sette punti elencati non devono essere visti come delle regole fisse a cui ogni macchina deve attenersi, quanto piuttosto una linea guida da seguire per la creazione di una legislazione che possa essere usufruibile in futuro[1].

  • Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
  • Robustezza e sicurezza: per un’IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
  • Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
  • Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
  • Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
  • Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
  • Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.

Un’intelligenza artificiale accuratamente programmata secondo queste “leggi” sarebbe un grosso passo in avanti per l’uomo, oltre che ad un supporto alla società ineguagliabile.

L’aiuto che può essere offerto riguarderebbe le più svariate forme: dalla medicina, all’ambiente, passando per l’organizzazione delle città (le cosiddette smart cities) e il mondo del lavoro. Esaminiamo ora alcune di queste questioni.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, URL consultato in data 28 agosto 2020.

Riflessioni sulla singolarità

L’idea della possibilità dell’avvento della singolarità tecnologica sull’uomo ha sicuramente stimolato la fantasia di diverse persone, fino ad arrivare alla creazione di un credo, il singolaritanismo: coloro che seguono questa concezione di filosofia morale (i singolaritanisti) credono si debba perseguire come scopo il raggiungimento della singolarità tecnologica.

Uno dei maggiori esponenti di questo movimento è Eliezer Yudkowsky, che ha pubblicato un saggio intitolato Singularitarian Principles[1], in cui elenca le principali qualità che definiscono un singolaritanista: in primo luogo la credenza che la singolarità sia possibile e realizzabile. Come secondo punto, un singolaritanista lavora attivamente per il raggiungimento dello scopo finale. Terzo punto, un singolaritanista vede questo raggiungimento come qualcosa di assolutamente reale e non mistico: nessuno crede sia fantascienza.

Infine, come ultimo punto, un esponente di tale movimento crede che la singolarità tecnologica possa essere un bene per chiunque nel mondo, e che essa non dovrebbe essere usata a beneficio di un ristretto gruppo di persone. Giunti a questo punto della spiegazione, è giusto sottolineare come i giudizi che ruotano attorno a tale credenza o movimento (seppur piccolo) siano due: da una parte chi crede sia possibile, dall’altra chi assume sia come aspettarsi l’arrivo di una salvezza divina in ottica “nerd”.

Partiamo dall’approccio più positivo dei due: Eliezer Yudkowsky, fondatore del Machine Intelligence Research Institute (MIRI), è conosciuto per supportare l’idea di un’intelligenza artificiale “amichevole” o friendly artificial intelligence in inglese. Tale IA porterebbe solamente a dei vantaggi per l’uomo, e non potrebbe recare nessun danno; motivo per cui è strettamente legata all’etica delle intelligenze artificiali, ma è presente una differenza: mentre l’etica dell’IA si concentra maggiormente a come debba comportarsi, la friendly IA si concentra su come applicare questo comportamento alle funzioni che deve compiere.

Bisogna precisare che il termine “friendly” non si riferisce tanto alla colloquialità che una macchina può avere o meno, ma riguarda maggiormente il punto di vista della sicurezza e dell’utilità che essa può avere. A contrario di un’intelligenza artificiale amichevole, potremmo involontariamente costruirne una con caratteristiche opposte, come esposto precedentemente nei pericoli derivanti dalla singolarità tecnologica. Come affermato anche da Nick Bostrom, è necessario che gli scopi di una superintelligenza siano in linea con quelli del genere umano altrimenti la situazione potrebbe diventare davvero molto pericolosa per noi.

Tutto ciò ammesso che sia possibile realizzare una tecnologia del genere: esponenti come Federico Faggin[2], dubitano fortemente che l’intelligenza artificiale sia in grado in un futuro prossimo, di mettere in pericolo l’uomo.  Lo stesso Faggin, inventore del microprocessore, in un’intervista[3] dichiara impensabile l’idea che una macchina riesca a sostituire l’uomo, a causa del fatto che manca di coscienza. Il suo punto di vista è ben delineato: l’intelligenza artificiale è sì il futuro, ma va utilizzata a suo avviso con l’ausilio di un’intelligenza umana.

L’artificiale non può isolarsi e pretendere di essere al pari dell’essere umano perché, dice Faggin, manca di empatia: l’idea di base è quella di creare un sistema in cui le macchine svolgano quelle attività meccaniche meglio di un essere umano, ma sempre con la sua supervisione, fino ad arrivare alla creazione di beni comuni usufruibili da più persone possibili. Tornando al discorso di Nick Bostrom, su quanto sia necessario allineare gli scopi dell’intelligenza artificiale a quelli degli uomini, ritengo doveroso menzionare il programma dell’Unione Europea sulle Linee Guida Etiche sull’intelligenza artificiale.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] Ray Kurzweil, La singolarità è vicina, Apogeo Education, 2005, p.500-501.

[2] Federico Faggin è un fisico, inventore ed imprenditore italiano.

[3] https://www.dday.it/redazione/32976/federico-faggin-robot-intelligenza-artificiale, URL consultato in data 25 agosto 2020.

Quanto manca prima della prima singolarità tecnologica?

Gli approcci e i processi relativi alle intelligenze artificiali visti fino a questo momento potrebbero portare (o porteranno) all’avvento di quella che prende il nome di singolarità tecnologica: si identifica con il momento in cui la tecnologia sarà intellettivamente uguale o addirittura superiore all’uomo.

Le possibilità dell’avvento di tale tecnologia sono ancora oggi materia di discussione, tuttavia si sono delineate due diverse correnti di pensiero: un primo approccio considera la singolarità come l’inizio di una nuova era per l’uomo, garante di numerosi vantaggi; ed un secondo approccio che considera invece uno scenario apocalittico, che porterà alla progressiva estinzione dell’uomo.

L’approccio positivo considera l’avvento di una tale tecnologia come un punto di partenza per uno sviluppo uomo-macchina che seguirà un approccio esponenziale. L’ipotesi più probabile di tale avvento sarà quando un’intelligenza artificiale avrà a disposizione (per mano dell’uomo o per apprendimento automatico) una rete neurale artificiale al pari dell’uomo, sia dal punto di vista della capacità di memoria, sia da quello della velocità di calcolo.

Contando che il cervello di un essere umano è una rete neurale che conta al suo interno ben cento milioni di miliardi di connessioni neurali, l’impresa di riuscire a creare una tecnologia simile può essere scoraggiante. Nel 2014 in Giappone, Fujitsu K ha faticato non poco per “tenere testa” al cervello umano: dotato di 82944 processori ed un petabyte di memoria (equivalente a circa milleventiquattro terabyte, per poter fare un paragone con misure più quotidiane) ha impiegato circa quaranta minuti per simulare un solo secondo di attività celebrale[1].

Al quanto scoraggiante, ma siamo solo all’inizio. Il concetto di singolarità tecnologica è stato coniato da un matematico e scrittore, Vernor Vinge. Egli pubblicò un saggio chiamato a Technological Singularity[2], pubblicato nel 1993. All’interno, troviamo un’affermazione secondo la quale entro trent’anni l’uomo avrà a disposizione una tecnologia tale da creare un’intelligenza sovraumana e successivamente andremo incontro alla nostra estinzione.  

Tale singolarità viene definita erroneamente come un progresso infinito, che tende a seguire l’andamento di una singolarità matematica (o isolata): in realtà il termine singolarità è stato scelto dalla fisica e non dalla matematica. Il motivo è molto semplice: ogni qual volta il progresso tecnologico si avvicina alla singolarità, le previsioni sui modelli futuri diventano imprecise e di conseguenza inaffidabili.

Tuttavia, in ambito informatico e elettronico, possiamo prevedere oggigiorno dove potremmo arrivare in determinati ambiti informatici grazie alla prima e alla seconda legge di Moore. La prima legge afferma che «La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni)». 

Può sembrare incredibile, tuttavia questa prima legge ha un grosso limite: quello spaziale. Non possiamo ridurre all’infinito le dimensioni dei transistor all’interno dei processori, e questo problema è comune a tante branche dell’informatica e della robotica moderna. La seconda legge di Moore invece afferma che «il costo di una fabbrica di chip raddoppia da una generazione all’altra».

Questo significa che all’aumentare della tecnologia a nostra disposizione (in questo caso in ambito di processori) aumenterà di conseguenza anche il costo di produzione dei singoli componenti. Questo potrebbe sancire, in un determinato tempo futuro, la morte della legge di Moore per come l’abbiamo intesa fino ad ora. Ma per Ray Kurzweil e Jim Keller non potrà mai morire idealmente, ma dovremmo reinterpretarla in maniera più ampia e complessa.

Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna.


[1]https://www.repubblica.it/tecnologia/2013/08/05/news/il_cervello_batte_sempre_il_supercomputer_per_replicare_un_secondo_servono_40_minuti-64320827/, consultato in data 10 agosto 2020.

[2] (EN) Vernon Vinge, The Coming Technological Singularity: How to Survive in the Post-Human Era (PDF), in Vision-21 Interdisciplinary Science and Engineering in the Era of Cyberspace, Proceedings of a symposium cosponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute and held in Westlake, Ohio, 1993, p. 11-22. URL consultato 10 agosto 2020.

Intenzionalità e processi cognitivi tra mente umana e intelligenza artificiale forte

Il termine mente è nel vocabolario comune associato all’insieme di attività che riguardano la parte superiore del cervello, tra le quali la coscienza, il pensiero, le sensazioni, la volontà, la memoria e la ragione. Oggigiorno la neurofisiologia si occupa dello studio e del funzionamento delle unità che compongono il nostro cervello: i neuroni e le reti neurali. Assieme alle cellule della neuroglia e al tessuto vascolare, compongono il nostro sistema nervoso. Grazie alle sue caratteristiche chimiche, fisiche e biologiche, i neuroni sono in grado di elaborare e trasmettere impulsi nervosi. Un errore da non commettere è quello di confondere la mente con il pensiero: quest’ultimo riguarda l’elaborazione di informazioni ottenute tramite l’esperienza (ovvero tramite gli organi sensoriali) vissuta dal soggetto da parte della mente stessa. Il pensiero è quindi solamente una delle tante attività che riguardano la mente, e che ha luogo nel cervello.

L’intenzionalità e i processi cognitivi nella mente umana

L’intenzionalità umana è definita come la caratteristica del pensiero umano che tende a qualcosa come ad un oggetto specifico. Come abbiamo precisato precedentemente, non ha a che vedere con il concetto di volontà e nemmeno con l’agire intenzionalmente. L’origine del termine deriva dalla filosofia scolastica ed è stato ripreso successivamente da Franz Brentano: per intenzionalità della coscienza intendeva infatti l’idea che essa sia sempre diretta verso un contenuto. Brentano ha considerato l’intenzionalità all’origine dei fenomeni psichici, distinguendoli così dai fenomeni fisici. In questo modo ogni tipo di attività mentale, che vada dal pensare, al desiderare, al credere, ha un oggetto di riferimento. Il concetto presentato da Brentano è irriducibile, è l’elemento fondamentale per la comprensione dei fenomeni mentali, ed è ciò che costituisce la stessa coscienza umana. Successivamente è stato l’allievo Edmund Husserl ad approfondire il concetto dell’intenzionalità, fino a definirlo come ciò che caratterizza la coscienza, oltre a definire gli stati mentali come Erlebnisse intenzionali o più semplicemente atti. Gli studi di filosofia della mente, nel corso del tempo, hanno contribuito a portare  la coscienza e l’intenzionalità ad avere un ruolo di primaria importanza per la comprensione delle attività celebrali. Proprio a partire dalla mente e tramite i processi cognitivi l’uomo ha la possibilità di formare ed aumentare le proprie conoscenze, le quali sono fortemente influenzate anche dal contesto culturale e dalle esperienze a cui il soggetto è sottoposto. Le esperienze ci permettono di avvicinarci a nuove situazioni diverse da quelle proposte dall’ambiente circostante quotidiano, e permettono un confronto con queste ultime.

In tal senso l’apprendimento parte proprio da questo confronto e può essere considerato come un processo di rinnovamento delle proprie conoscenze a partire dalle nuove esperienze. I metodi di apprendimento sono molteplici e non riguardano solamente l’ambito umano, ma anche piante, animali e alcune “macchine”. Vorrei qui approfondire la questione e differenziare le meccaniche di apprendimento in ambito umano e animale da quelle nell’ambito delle intelligenze artificiale. Per come si presenta la situazione al giorno d’oggi le macchine non possono pensare, ma è lecito chiedersi se esse possano imparare da noi, o da altre intelligenze artificiali. Anticipo che sì, sono in grado di farlo, ma prima di esaminare questo aspetto, concentriamoci sull’ambito del “naturale”.


Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna.

Alla scoperta delle intelligenze artificiali

Per dare risposta a questa domanda dovremmo in primo luogo definire cosa intendiamo per macchina. Erroneamente la maggior parte delle persone pensa ad un robot dalle sembianze umane, come abbiamo visto in innumerevoli pellicole cinematografiche.

Innanzitutto, per macchina potremmo definire i risultati ottenuti dagli studi dell’intelligenza artificiale, disciplina che progetta un insieme di hardware e software (o, in un linguaggio meno “tecnico”, componenti tecniche e programmi) che sono tanto efficaci da avvicinarsi o essere potenzialmente del tutto identiche all’intelligenza umana.  

Rinchiudere tutti i mezzi tecnologici in grado di avvicinarsi all’intelligenza umana sotto un’unica famiglia sembra un passo al quanto azzardoso, perciò, in base alle caratteristiche di queste “macchine” distinguiamo tra intelligenza artificiale forte e intelligenza artificiale debole.

Un’IA (intelligenza artificiale) debole è uno strumento molto potente, che, come dice Searle all’interno di Minds, Brains and Programs, ci permette di calcolare in maniera precisa e veloce ogni sorta di ipotesi e di formulazione:

«Secondo l’IA debole, il pregio principale del calcolatore nello studio della mente sta nel fatto che esso ci fornisce uno strumento potentissimo: ci permette, ad esempio, di formulare e verificare le ipotesi in un modo più preciso e rigoroso».[1]

Un IA forte, non è più uno strumento, ma è considerata da Searle come una vera e propria mente:

«Secondo l’IA forte, invece, il calcolatore non è semplicemente uno strumento per lo studio della mente, ma piuttosto, quando sia programmato opportunamente, è una vera mente; è cioè possibile affermare che i calcolatori, una volta corredati dei programmi giusti, letteralmente capiscono e posseggono altri stati cognitivi». [2]

E, in quanto tale, possiede una propria cognizione delle cose. All’interno dell’IA forte, i programmi di cui fa uso quest’ultima per spiegare i fenomeni psicologici, sono essi stessi queste spiegazioni. Quindi, riformulando quest’ultima parte, sembrerebbe che un IA forte, appositamente programmata, possegga degli stati cognitivi (come il cervello umano) e che quindi i programmi di cui fa uso, spieghino i processi cognitivi dell’uomo.

Ci soffermeremo in particolar modo sul ruolo dell’intelligenza artificiale forte, per scoprire se davvero essa può pensare e cosa questo determina per l’essere umano. John Searle scrive Minds, Brains and Programs nel 1984, ponendo come primo obiettivo quello di dimostrare come il cervello umano e la mente non abbiano nulla in comune con un programma o una macchina. Queste ultime non riusciranno mai a pensare e avere un concetto di intenzionalità simile a quello degli esseri umani.


[1]John R. Searle.  Menti, cervelli e programmi, traduzione di Graziella Tonfoni, 1984, pp. 54.
[2] Ibid.