Category

intelligenza artificiale

Category

Spunti e riflessioni sulla dinamica lavorativa

L’orizzonte che ci si prospetta dinanzi a noi è decisamente incerto, tenendo conto solo dei possibili scenari legati allo sviluppo tecnologico. Non ritengo necessario giungere a conclusioni affrettate, ma reputo indispensabile immaginare piccoli e semplici cambiamenti di cui siamo già stati “vittime” in passato.

Lo sviluppo dell’intelligenza artificiale progredirà senza ombra di dubbio, come è sempre stato e sempre sarà per ogni strumento e tecnologia inventata dall’uomo. Abbiamo già vissuto durante le prime rivoluzioni industriali, processi di automazione della produzione che hanno portato ad una sostituzione dell’uomo con determinate macchine. Ma fino a che la produzione necessaria al sostentamento globale non sarà completamente automatizzata, quale futuro ci si prospetta di fronte a noi?

Quello che stiamo vivendo in questo periodo storico coincide, come dice Luciano Floridi, con la quarta rivoluzione (quella digitale). Contemporaneamente, ci stiamo avvicinando al concetto di Industria 4.0 ovvero un insieme di processi di automazione industriale mirati a migliorare le tecnologie di produzione e la qualità del lavoro.

Il concetto di industria 4.0 prende in considerazione il concetto di “fabbrica intelligente [1]”, che si compone di tre diverse parti:

1) Smart Production (produzione intelligente): consistono in nuove tecnologie in grado di creare maggior collaborazione tra uomo, macchina e strumenti produttivi.

2) Smart Service (Servizi intelligenti): consistono in una serie di infrastrutture informatiche e tecniche in grado di integrare sistemi e aziende in modo collaborativo.

3) Smart energy (energie intelligenti): ovvero l’utilizzo di risorse sostenibili.

Per rendere possibile questa rivoluzione dal punto di vista industriale, secondo il Boston Consulting ci sarà bisogno di tecnologie chiamate “abilitanti”: tra queste figurano sistemi avanzati di produzione, simulatori, dispositivi di realtà aumentata, Cloud, sicurezza informatica e Big Data Analytics.

Analizzando i requisiti e le componenti di tale processo innovativo, salta all’occhio come oltre ad i processi di automazione dei sistemi di produzione, giochino un ruolo di fondamentale importanza tutte le competenze e le informazioni legate al “digitale”.

Ma tali fabbriche intelligenti, dotate di macchine intelligenti, non ci rubano il lavoro: è più probabile che ci liberino da esso. Devono sostituirci nelle mansioni più faticose e pericolose, e anche in quelle che richiederebbero per noi uno sforzo mentale enorme.

Come dice Luciano Floridi nel suo saggio “La quarta rivoluzione [2]” sono state create in un “ambiente digitale” che permette loro di esprimersi seguendo leggi che noi stessi gli abbiamo imposto. Gli argomenti trattati all’interno del saggio li analizzerò nel quarto capitolo.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] https://it.wikipedia.org/wiki/Industria_4.0#cite_note-8 URL consultato in data 28 agosto 2020.

[2] Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, 2014, p. 106.

La quarta rivoluzione

Luciano Floridi ha pubblicato un libro intitolato “La quarta rivoluzione” in cui si impegna a rispondere a domande generali riguardanti la comprensione dell’evoluzione dei sistemi informatici e di individuare e discutere i problemi legati ad essa. Per Floridi, il passaggio dalla carta al digitale ha portato il nostro essere a trasformarsi in qualcosa che egli definisce come “inforg” ovvero entità composte di informazioni, in grado di condividerle non solo tra umani ma anche con le macchine presenti.

«Stiamo lentamente accettando l’idea per cui non siamo agenti newtoniani isolati e unici, ma organismi informazionali, inforg, reciprocamente connessi e parte di un ambiente informazionale (infosfera), che condividiamo con altri agenti informazionali».

I risultati di tali “inforg” possiamo notarli con le generazioni nate dopo gli anni duemila: essi cercano di interagire con qualsiasi cosa come se questo disponesse di una predisposizione digitale. La differenza con le generazioni precedenti è concreta: la generazione X (che riguarda i nati tra il 1960 e il 1980) non ha la stessa predisposizione al digitale della seconda (la generazione Y, che riguarda i nati tra il 1980 e gli anni 2000), né tanto meno con l’ultima.

Questo divario generazionale, secondo Floridi, creerà problemi non solo dal punto di vista digitale, ma anche da quello sociale e culturale. E dal momento che trascorriamo sempre più tempo all’interno dell’infosfera, la nostra quotidianità sarà sempre più plasmata in base a ciò che succede a livello virtuale e digitale. Preoccuparsi del continuo distacco con la natura è un’azione ingiustificata: per Floridi se non possiamo competere con le macchine e gli algoritmi che sono in grado di codificare miliardi di dati al secondo, deteniamo ancora la caratteristica di poter comprendere i significati degli eventi che accadono intorno a noi.

In via definitiva stiamo tornando al discorso che avevamo intrapreso qualche capitolo indietro: significato ed intenzionalità sono gli attributi che ci rendono umani, al di sopra delle complessità mentali inferiori che possediamo rispetto ad una determinata intelligenza artificiale.

E nonostante questo, la nostra identità è sempre più orientata ad essere digitalizzata: onlife, come dice Floridi. La concezione che abbiamo di noi stessi è diventata quasi più importante sui vari social network piuttosto che nella vita reale, entrando in una sorta di” flusso continuo” fatto di messaggi istantanei, foto e video. Il trasferimento della nostra identità sul piano digitale ha, di conseguenza, portato un trasferimento delle situazioni reali sullo stesso piano: app per incontri, messaggistica istantanea, social media.

«Le micronarrazioni che produciamo e consumiamo stanno cambiando anche i nostri sé sociali e quindi il modo in cui ci percepiamo».[1]

Definire sé stessi risulta sempre più difficile in un mondo oramai sempre più condizionato da realtà parallele. Ma risulta quasi fisiologico, se accettiamo l’idea che stiamo vivendo una vera e propria rivoluzione, la quarta secondo Luciano Floridi. La prima è stata quella di Nicolò Copernico, che ha posizionato la terra non al centro dell’universo, facendo cadere la posizione centrale dell’uomo. Caduta la nostra centralità, ci siamo avvicinati alla seconda rivoluzione: nel 1859 Darwin pubblicò l’origine delle specie. Al suo interno, è presente la spiegazione secondo cui ogni essere vivente è l’evoluzione nel tempo da parte di progenitori comuni attraverso un processo di selezione naturale. Siamo passati da rivoluzione ad evoluzione, come ci fa notare Floridi.

«Questa volta fu la parola “evoluzione” ad acquisire un nuovo significato».[2]

Ma anche questa volta è avvenuto un nuovo spostamento: ci siamo allontanati dal centro del mondo naturale. La terza rivoluzione avvenne per mano di Sigmund Freud: egli sostenne che la mente umana è inconscia e soggetta a meccanismi di difesa come quello della repressione. Ennesimo spostamento, questa volta dal centro della coscienza verso la parte più buia della nostra mente.

La linea comune di queste rivoluzioni è stata il progressivo allontanamento della posizione centrale dell’uomo rispetto a diverse concezioni: non siamo al centro dell’universo, né al centro del mondo biologico, né tanto meno al centro della nostra stessa volontà. La quarta rivoluzione che stiamo vivendo, senza rendercene pienamente conto ed aspettando un evento significativo che non è detto si realizzi, è quella digitale. La posizione centrale dell’uomo in questo ambito è stata determinata dal fatto che la nostra intelligenza e capacità di ragionamento non potesse mai essere superata. Ma ci siamo decentralizzati anche da questa primarietà.

«Turing ci ha deposto dalla posizione privilegiata ed esclusiva che avevamo nel regno del ragionamento logico, della capacità di processare informazioni e di agire in modo intelligente. Non siamo più gli indiscussi padroni dell’infosfera. I nostri dispositivi digitali svolgono un numero crescente di compiti che richiederebbero da parte nostra una certa attività intellettuale se ci fossero affidati».[3]

Se consideriamo le aspettative sull’intelligenza artificiale e le varie ipotesi distopiche formulate a riguardo, è chiaro come la nostra immaginazione si sia lasciata andare, inghiottita all’interno di un universo fantascientifico. Non è assolutamente un male, ma dobbiamo confrontarci con la realtà: la trasformazione che stiamo vivendo non è da considerarsi dal punto di vista biotecnologico all’interno del nostro corpo, quanto piuttosto come la trasformazione dell’ambiente in cui viviamo e delle varie implicazioni che ne derivano.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, 2014, p. 72.

[2] Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, 2014, p. 101.

[3] Luciano Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina Editore, 2014, p. 105.

Quali risorse per la comunità ?

Per città intelligente (smart city) si intende una serie di strategie architettoniche ed urbanistiche volte ad ottimizzare e innovare i vari servizi pubblici presenti sul suolo cittadino, in modo da creare un saldo legame tra infrastrutture e le persone che abitano un determinato luogo.

Come riportato in un articolo di Gaia Gasparetto intitolato “Smart cities e Intelligenza Artificiale: applicazioni e tendenze”[1] una città intelligente sarebbe in grado di offrire ai propri abitanti un’alta qualità di vita a fronte di un consumo minimo delle risorse. Gli obiettivi primari per la realizzazione di tali progetti sono molteplici: in primis la” costruzione” di ambienti più puliti e sani, tramite l’evoluzione di sistemi quali bike e car sharing e dei sistemi di trasporto pubblico.

Ciò darebbe la possibilità agli abitanti di trasferirsi comodamente all’interno della città senza fare uso di mezzi propri, diminuendo il traffico ed aumentando la qualità dell’ambiente. La prerogativa per l’utilizzo dell’IA in ambito urbanistico riguarda principalmente un’infrastruttura di rete affidabile, sia hardware che software, per ottenere le migliori soluzioni possibili nel minor tempo possibile.

L’algoritmo sarebbe in grado così di fornire risposte a domande specifiche come ad esempio” dove costruire una zona verde” oppure” qual è la strada migliore per una nuova linea di trasporto pubblico”. Oggigiorno, l’IA viene già utilizzata (ad esempio a Singapore[2]) per creare delle mappe del calore della qualità dell’aria, attraverso il calcolo in tempo reale dei valori inquinanti.

In questo modo è possibile avere un quadro completo su quelle che possono essere le ripercussioni anche sulla salute delle persone. Altri esempi di applicazioni che vengono riportate nell’articolo riguardano il controllo dei parcheggi, la sicurezza pubblica e la raccolta dei rifiuti. Il controllo dei parcheggi avviene anche nelle principali città italiane, dato che negli spazi predisposti è possibile notare un tabellone luminoso che indica quanti posti sono ancora disponibili per la sosta.

L’evoluzione di tale sistema permetterebbe un maggiore scambio di dati tra gli utenti sulle automobili e il software di gestione del parcheggio: ciò garantirebbe, oltre che ad una precisa gestione dei posti auto, anche un miglioramento per quel che riguarda la gestione del traffico cittadino. Per quanto riguarda la pubblica sicurezza non dobbiamo escludere che ad un aumento di essa possa coincidere anche una diminuzione della nostra libertà, seppur in modo indiretto.

Telecamere per il riconoscimento facciale, microfoni per quello vocale, sono tutti strumenti che presentano due facce della stessa medaglia. Vanno a colpire la privacy personale di un libero cittadino, che non ha compiuto nessun crimine, così come sono di fondamentale importanza nella ricerca di un sospettato. Per quanto riguarda il monitoraggio in tempo reale, negli Stati Uniti esiste un sistema chiamato ShostSpotter, in grado di localizzare, tramite sensori acustici e microfoni, colpi di arma da fuoco e segnalarli direttamente alle forze dell’ordine.

Nel 2016 tale sistema ha segnalato ben 74.916 casi di colpi di arma da fuoco nei soli Stati Uniti.[3] Infine, sempre tenendo conto di un incremento della trasmissione dei dati, la raccolta dei rifiuti potrebbe subire un incredibile miglioramento: ipoteticamente, sarà possibile creare nuovi percorsi di raccolta, una gestione più precisa dei livelli di rifiuti presenti nelle strade, ed infine una migliore gestione del processo di riciclaggio.

Oggi giorno in Italia esistono i cosiddetti cassonetti intelligenti, in grado di monitorare in tempo reale sia la corretta raccolta differenziata, sia la capienza del cassonetto. Per usufruirne è necessaria una carta magnetica, collegata ad un domicilio: questo porta anche ad una maggiore responsabilizzazione degli utenti.[4]

Come riportato dall’autrice dell’articolo Gaia Gasparetto, nel prossimo futuro la rivoluzione urbanistica legata alle smart cities sarà dirompente e dovremmo essere pronti a gestire questi sistemi in modo saggio e pragmatico.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] https://namu.io/smart-cities-intelligenza-artificiale/ URL consultato in data 29 agosto 2020.

[2] https://www.businesstimes.com.sg/opinion/the-ai-way-to-cleaner-air-for-smart-cities URL consultato in data 29 agosto 2020.

[3] https://namu.io/smart-cities-intelligenza-artificiale/ URL consultato in data 23 agosto 2020.

[4] https://www.nonsprecare.it/cassonetti-intelligenti-raccolta-rifiuti URL consultato in data 27 agosto 2020.

Quale futuro per la nostra salute ?

In un recente articolo pubblicato dal The Journal of AMD, intitolato Intelligenza Artificiale e Big Data in ambito medico: prospettive, opportunità, criticità. JAMD Vol. 21-3, Nicoletta Musacchio e i suoi collaboratori hanno evidenziato l’evoluzione e l’incredibile aumento delle informazioni digitali, raddoppiate in quasi ogni ambito negli ultimi 2 anni.

Conseguentemente a questo aumento, siamo arrivati ad avere una mole non indifferente di dati, che sono stati definiti come Big Data. Essi sono caratterizzati da quattro componenti, rappresentate dalla lettera “V”: volume, velocità, varietà ed infine veridicità. I Big Data li troviamo oggigiorno anche in ambito medico sanitario, grazie allo sviluppo di quattro differenti fenomeni.

In primis lo sviluppo della diagnostica per immagini digitali, che sta prendendo il posto alle antiquate tecniche di diagnostica analogica. Collegato a ciò, ci sono ovviamente le nuove tecniche di reportistica digitale: tutti noi disponiamo di cartelle e fascicoli elettronici sanitari su cui vengono pubblicati gli esiti delle visite mediche a cui ci sottoponiamo.

Gli altri due punti riguardano temi differenti: lo sviluppo delle biotecnologie impiegate nelle scienze riguardanti la genomica e la trascrittomica; e l’esplosione di quello che viene definito come “Internet of things” (IOT). Il primo di questi due fenomeni riguarda l’indagine che viene effettuata sulle cellule ad un livello sempre più microscopico: l’analisi di ciò e l’elaborazione dei dati ricavati portano alla creazione di un ingente mole di dati.

Infine, l’esplosione delle IOT riguarda l’evoluzione tecnologica che stiamo vivendo ad un livello molto più ampio rispetto al solo settore della sanità (sia essa pubblica o privata). Passare dall’IOT al IOMT (ovvero l’Internet of medical things) è un passo molto più breve di quanto si pensi: basti pensare ai moderni orologi da polso, in grado di tenere conto dei battiti cardiaci, della temperatura corporea e dei movimenti che compiamo in ogni singolo istante.

La vera rivoluzione in ambito di intelligenza artificiale applicata in ambito medico è e sarà sempre di più il machine learning: la capacità di un software di simulare ragionamenti sulla base dei dati forniti permetterà la generazione di modelli predittivi. Tali modelli tramite l’utilizzo di dati storici potranno prevedere eventi futuri (come l’insorgere di malattie). Esistono due differenti modelli: quelli trasparenti e quelli denominati “black box”.

I primi hanno la caratteristica di evidenziare i parametri su cui basano la loro previsione, passando così dall’essere predittivi a “prescrittivi”. Il modello “black box”, a contrario, ci fornisce sì una risposta ma non ci fornisce alcuna giustificazione a riguardo. Questa è una delle criticità legate all’utilizzo dell’intelligenza artificiale in ambito medico: affinché il sistema possa funzionare correttamente dobbiamo disporre di requisiti fondamentali come la qualità, la validità e il corretto utilizzo dei dati a nostra disposizione.

Alcuni di essi provengono da piattaforme che originariamente erano state dedicate a ben altri scopi. Sempre rimanendo in tema di dati, l’importanza fondamentale è che siano digitalizzati: negli archivi sono presenti ancora decine di migliaia di cartelle cliniche inutilizzate a questi scopi.

Ovviamente raccogliere ingenti quantità di informazioni cartacee e racchiuderle in un database è un lavoro molto impegnativo, che deve garantire anche la privacy delle persone interessate. È chiaro ora come l’intelligenza artificiale possa essere di estremo aiuto per le funzioni quotidiane e per l’implementazione di nuovi sistemi sanitari complessi, tuttavia affinché essa possa davvero essere efficiente, è necessario preparare una base solida su cui poter erigere un sistema di tale complessità.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.

Riflessioni sull’etica delle macchine

Questi sette punti sono stati stilati sulla base di tre diversi presupposti che una qualsiasi intelligenza artificiale deve possedere: legalità, eticità e robustezza. Legalità significa che deve attenersi alle regole e alle leggi presenti e future.

Eticità che deve fare riferimento a principi etici e morali in accordo con quelle che sono gli obiettivi di coesione sociale ed integrazione promulgati dalla comunità europea. Infine, la robustezza sia tecnica che sociale, che renderà l’intero sistema uno strumento sicuro da utilizzare (sistemi di intelligenza artificiale potrebbero causare gravi danni seppur non intenzionali).

I sette punti elencati non devono essere visti come delle regole fisse a cui ogni macchina deve attenersi, quanto piuttosto una linea guida da seguire per la creazione di una legislazione che possa essere usufruibile in futuro[1].

  • Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo.
  • Robustezza e sicurezza: per un’IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
  • Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
  • Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
  • Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
  • Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
  • Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati.

Un’intelligenza artificiale accuratamente programmata secondo queste “leggi” sarebbe un grosso passo in avanti per l’uomo, oltre che ad un supporto alla società ineguagliabile.

L’aiuto che può essere offerto riguarderebbe le più svariate forme: dalla medicina, all’ambiente, passando per l’organizzazione delle città (le cosiddette smart cities) e il mondo del lavoro. Esaminiamo ora alcune di queste questioni.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, URL consultato in data 28 agosto 2020.

Riflessioni sulla singolarità

L’idea della possibilità dell’avvento della singolarità tecnologica sull’uomo ha sicuramente stimolato la fantasia di diverse persone, fino ad arrivare alla creazione di un credo, il singolaritanismo: coloro che seguono questa concezione di filosofia morale (i singolaritanisti) credono si debba perseguire come scopo il raggiungimento della singolarità tecnologica.

Uno dei maggiori esponenti di questo movimento è Eliezer Yudkowsky, che ha pubblicato un saggio intitolato Singularitarian Principles[1], in cui elenca le principali qualità che definiscono un singolaritanista: in primo luogo la credenza che la singolarità sia possibile e realizzabile. Come secondo punto, un singolaritanista lavora attivamente per il raggiungimento dello scopo finale. Terzo punto, un singolaritanista vede questo raggiungimento come qualcosa di assolutamente reale e non mistico: nessuno crede sia fantascienza.

Infine, come ultimo punto, un esponente di tale movimento crede che la singolarità tecnologica possa essere un bene per chiunque nel mondo, e che essa non dovrebbe essere usata a beneficio di un ristretto gruppo di persone. Giunti a questo punto della spiegazione, è giusto sottolineare come i giudizi che ruotano attorno a tale credenza o movimento (seppur piccolo) siano due: da una parte chi crede sia possibile, dall’altra chi assume sia come aspettarsi l’arrivo di una salvezza divina in ottica “nerd”.

Partiamo dall’approccio più positivo dei due: Eliezer Yudkowsky, fondatore del Machine Intelligence Research Institute (MIRI), è conosciuto per supportare l’idea di un’intelligenza artificiale “amichevole” o friendly artificial intelligence in inglese. Tale IA porterebbe solamente a dei vantaggi per l’uomo, e non potrebbe recare nessun danno; motivo per cui è strettamente legata all’etica delle intelligenze artificiali, ma è presente una differenza: mentre l’etica dell’IA si concentra maggiormente a come debba comportarsi, la friendly IA si concentra su come applicare questo comportamento alle funzioni che deve compiere.

Bisogna precisare che il termine “friendly” non si riferisce tanto alla colloquialità che una macchina può avere o meno, ma riguarda maggiormente il punto di vista della sicurezza e dell’utilità che essa può avere. A contrario di un’intelligenza artificiale amichevole, potremmo involontariamente costruirne una con caratteristiche opposte, come esposto precedentemente nei pericoli derivanti dalla singolarità tecnologica. Come affermato anche da Nick Bostrom, è necessario che gli scopi di una superintelligenza siano in linea con quelli del genere umano altrimenti la situazione potrebbe diventare davvero molto pericolosa per noi.

Tutto ciò ammesso che sia possibile realizzare una tecnologia del genere: esponenti come Federico Faggin[2], dubitano fortemente che l’intelligenza artificiale sia in grado in un futuro prossimo, di mettere in pericolo l’uomo.  Lo stesso Faggin, inventore del microprocessore, in un’intervista[3] dichiara impensabile l’idea che una macchina riesca a sostituire l’uomo, a causa del fatto che manca di coscienza. Il suo punto di vista è ben delineato: l’intelligenza artificiale è sì il futuro, ma va utilizzata a suo avviso con l’ausilio di un’intelligenza umana.

L’artificiale non può isolarsi e pretendere di essere al pari dell’essere umano perché, dice Faggin, manca di empatia: l’idea di base è quella di creare un sistema in cui le macchine svolgano quelle attività meccaniche meglio di un essere umano, ma sempre con la sua supervisione, fino ad arrivare alla creazione di beni comuni usufruibili da più persone possibili. Tornando al discorso di Nick Bostrom, su quanto sia necessario allineare gli scopi dell’intelligenza artificiale a quelli degli uomini, ritengo doveroso menzionare il programma dell’Unione Europea sulle Linee Guida Etiche sull’intelligenza artificiale.

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] Ray Kurzweil, La singolarità è vicina, Apogeo Education, 2005, p.500-501.

[2] Federico Faggin è un fisico, inventore ed imprenditore italiano.

[3] https://www.dday.it/redazione/32976/federico-faggin-robot-intelligenza-artificiale, URL consultato in data 25 agosto 2020.

La legge dei ritorni accelerati

Abbiamo visto precedentemente come la Legge di Moore definisca una curva esponenziale di sviluppo ma ciò rappresenti solamente un caso particolare di una legge più generale: la legge dei ritorni accelerati. Tale legge afferma come la curva descritta dalla prima legge di Moore in realtà sia doppiamente esponenziale. Questo significa che a mano a mano che il nostro progresso tecnologico avanzerà, diminuirà anche il tempo per nuove scoperte.

Quanto detto è stato espresso da Ray Kurzweil in The Law of Accelerating Returns[1]. L’adozione di una nuova tecnologia da parte dell’essere umano determina, all’interno del grafico dello sviluppo, un gradino, su cui si ergerà un’ennesima curva esponenziale. Analizzando quest’ultimo grafico ed estrapolando la velocità d’evoluzione attuale, potremmo iniziare a considerare cosa potrebbe aspettarci da qui a dieci o cento anni a questa parte. Ray Kurzweil ha proposto sei diverse epoche[2], basandosi su quali invenzioni sono state fatte nell’epoca precedente per ipotizzare (o confermare) cosa è stato creato nell’epoca successiva.

Le sei epoche di Kurzweil

La prima epoca è determinata da una massa di informazioni semplice e generale: energia e materia. Si parla di milioni di anni fa, in cui erano presenti strutture atomiche che immagazzinavano informazioni di vario tipo. Dopo il Big Bang (milioni di anni dopo) gli atomi hanno iniziato a formarsi e successivamente è nata la chimica: dall’incontro di atomi, sono nate le molecole. Doveroso menzionare il carbonio, che grazie alle sue caratteristiche atomiche e molecolari, è in grado di combinarsi con altre molecole creando così strutture complesse tridimensionali.

La seconda epoca è invece caratterizzata dallo sviluppo di organismi a partire dal carbonio: il DNA è l’apice di sviluppo di questa epoca, permettendo di trasmettere un numero informazioni sempre maggiore. La terza epoca, seguendo il meccanismo delle precedenti, parte dal DNA per arrivare allo sviluppo di organismi complessi, dotati di organi sensoriali e capacità di memorizzazione delle informazioni raccolta dai sensi stessi: si ha così lo sviluppo di cervelli e sistemi nervosi.

Questa ultima fase ha avuto inizio quando ha avuto inizio, da parte degli organismi, il pattern recognition, ovvero il riconoscimento degli “oggetti” nell’ambiente circostante. Tra tutti gli organismi, l’essere umano è riuscito a compiere dei ragionamenti logico-razionali su ciò che lo circonda, ed applicare in futuro tali pensieri. La quarta epoca si differenzia dalle altre dal momento che il progresso biologico è terminato ed è arrivato al culmine con l’uomo.

D’ora in avanti lo sviluppo riguarderà principalmente la tecnologia: da piccoli e semplici congegni meccanici siamo arrivati oggi a sofisticate apparecchiature elettroniche in grado di gestire e memorizzare una quantità impressionante di dati. Volendo paragonare lo sviluppo biologico e quello “tecnico”, è chiaro come il secondo sia avvenuto in maniera rapida e veloce: sono passati due miliardi di anni circa dall’origine della vita alle cellule, solamente quattordici anni dal primo computer portatile al World Wide Web.

La quinta epoca dovrebbe essere orientata indicativamente da oggi ad un futuro prossimo ed all’interno di essa avremmo la cosiddetta “fusione” tra l’intelletto umano e la tecnologia. Avverrà l’unione definitiva uomo-macchina, la singolarità tecnologica, come è stato spesso raccontato in molte pellicole cinematografiche e romanzi. Questo ci permetterà di ampliare gli orizzonti sia intellettuali che tecnologici, superando così i limiti imposti dal nostro sistema biologico.

Infine, l’ultima epoca delle sei descritte da Kurzweil, prevede un ulteriore evoluzione che permetterà sulla base delle tecnologie della singolarità tecnologica di superare i limiti dell’universo per come è conosciuto oggigiorno. Saremo in grado di trasformare l’intero universo in un complesso sistema intelligente. Sulla base della divisione proposta da Ray Kurzweil è interessante l’argomento portato dall’astronomo russo  Nikolaj Kardašëv, per la classificazione della civiltà umana sulla base della tecnologia che è in grado di produrre.

3.2.1 La scala di Kardashev

Tale scala è divisa in tre diversi tipi, sulla base dell’energia che l’uomo è in grado di produrre nell’ordine dei Watt; ed è utilizzata come base di partenza per il progetto SETI, volto alla ricerca di forme di vita extra terrestre. Una civiltà di tipo I sarebbe in grado di utilizzare tutta l’energia proveniente dal pianeta d’origine (nell’ordine dei 4×1016 watt), una civiltà di tipo II riuscirebbe ad usufruire di tutta l’energia di un intero sistema solare (4×1026 watt), infine una civiltà di tipo III capace di usare tutta l’energia presente all’interno della galassia in cui risiede (4×1036 watt).

Carl Sagan, astronomo e divulgatore scientifico, ha applicato una formula per poter calcolare a che livello si trovi la civiltà umana: ovviamente non siamo ancora una civiltà di primo livello, ma ci siamo molto vicini considerando che il valore corrisponde a 0,75! Magari arrivati al tipo I saremo in grado di usufruire di tecnologie tali da espandere esponenzialmente le nostre capacità, sia all’interno del sistema solare, sia all’interno della Via Lattea.

Iosif Šklovskij, uno dei principali collaboratori di Kardashev, ha affermato, come riportato da Ray Kurzweil in “la singolarità è vicina[3] che è impossibile non aver incontrato nel corso del progetto SETI una qualsiasi civiltà di tipo II o tipo III. Questo viene anche definito come il paradosso di Fermi, attribuito al fisico italiano Enrico Fermi: «Se l’Universo e la nostra galassia pullulano di civiltà sviluppate, dove sono tutte quante?».

© Cpyright. Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna. Materiale pubblicato per fini didattici e di ricerca con il permesso dell’autore. Riproducibile solo con citazione della fonte originale.


[1] Ray Kurzweil, The Law of Accelerating Returns, su kurzweilai.net, 7 marzo 2001. URL consultato in data 20 agosto 2020.

[2] Ray Kurzweil, The Law of Accelerating Returns, su kurzweilai.net, 7 marzo 2001. URL consultato in data 20 agosto 2020.

[3] Ray Kurzweil, La singolarità è vicina, Apogeo Education, 2005, p.608.

Quanto manca prima della prima singolarità tecnologica?

Gli approcci e i processi relativi alle intelligenze artificiali visti fino a questo momento potrebbero portare (o porteranno) all’avvento di quella che prende il nome di singolarità tecnologica: si identifica con il momento in cui la tecnologia sarà intellettivamente uguale o addirittura superiore all’uomo.

Le possibilità dell’avvento di tale tecnologia sono ancora oggi materia di discussione, tuttavia si sono delineate due diverse correnti di pensiero: un primo approccio considera la singolarità come l’inizio di una nuova era per l’uomo, garante di numerosi vantaggi; ed un secondo approccio che considera invece uno scenario apocalittico, che porterà alla progressiva estinzione dell’uomo.

L’approccio positivo considera l’avvento di una tale tecnologia come un punto di partenza per uno sviluppo uomo-macchina che seguirà un approccio esponenziale. L’ipotesi più probabile di tale avvento sarà quando un’intelligenza artificiale avrà a disposizione (per mano dell’uomo o per apprendimento automatico) una rete neurale artificiale al pari dell’uomo, sia dal punto di vista della capacità di memoria, sia da quello della velocità di calcolo.

Contando che il cervello di un essere umano è una rete neurale che conta al suo interno ben cento milioni di miliardi di connessioni neurali, l’impresa di riuscire a creare una tecnologia simile può essere scoraggiante. Nel 2014 in Giappone, Fujitsu K ha faticato non poco per “tenere testa” al cervello umano: dotato di 82944 processori ed un petabyte di memoria (equivalente a circa milleventiquattro terabyte, per poter fare un paragone con misure più quotidiane) ha impiegato circa quaranta minuti per simulare un solo secondo di attività celebrale[1].

Al quanto scoraggiante, ma siamo solo all’inizio. Il concetto di singolarità tecnologica è stato coniato da un matematico e scrittore, Vernor Vinge. Egli pubblicò un saggio chiamato a Technological Singularity[2], pubblicato nel 1993. All’interno, troviamo un’affermazione secondo la quale entro trent’anni l’uomo avrà a disposizione una tecnologia tale da creare un’intelligenza sovraumana e successivamente andremo incontro alla nostra estinzione.  

Tale singolarità viene definita erroneamente come un progresso infinito, che tende a seguire l’andamento di una singolarità matematica (o isolata): in realtà il termine singolarità è stato scelto dalla fisica e non dalla matematica. Il motivo è molto semplice: ogni qual volta il progresso tecnologico si avvicina alla singolarità, le previsioni sui modelli futuri diventano imprecise e di conseguenza inaffidabili.

Tuttavia, in ambito informatico e elettronico, possiamo prevedere oggigiorno dove potremmo arrivare in determinati ambiti informatici grazie alla prima e alla seconda legge di Moore. La prima legge afferma che «La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni)». 

Può sembrare incredibile, tuttavia questa prima legge ha un grosso limite: quello spaziale. Non possiamo ridurre all’infinito le dimensioni dei transistor all’interno dei processori, e questo problema è comune a tante branche dell’informatica e della robotica moderna. La seconda legge di Moore invece afferma che «il costo di una fabbrica di chip raddoppia da una generazione all’altra».

Questo significa che all’aumentare della tecnologia a nostra disposizione (in questo caso in ambito di processori) aumenterà di conseguenza anche il costo di produzione dei singoli componenti. Questo potrebbe sancire, in un determinato tempo futuro, la morte della legge di Moore per come l’abbiamo intesa fino ad ora. Ma per Ray Kurzweil e Jim Keller non potrà mai morire idealmente, ma dovremmo reinterpretarla in maniera più ampia e complessa.

Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna.


[1]https://www.repubblica.it/tecnologia/2013/08/05/news/il_cervello_batte_sempre_il_supercomputer_per_replicare_un_secondo_servono_40_minuti-64320827/, consultato in data 10 agosto 2020.

[2] (EN) Vernon Vinge, The Coming Technological Singularity: How to Survive in the Post-Human Era (PDF), in Vision-21 Interdisciplinary Science and Engineering in the Era of Cyberspace, Proceedings of a symposium cosponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute and held in Westlake, Ohio, 1993, p. 11-22. URL consultato 10 agosto 2020.

Tra artificiale e biologico

Questa metodologia di apprendimento cerca di creare un modello automatico su più livelli, in cui i livelli più “profondi” prendano in input i dati provenienti dai livelli precedenti a loro, rielaborandoli.

Ogni livello della scala di cui si compone corrisponderebbe ad una delle diverse aree che compongono il cervello umano, ognuna con le proprie caratteristiche: in base agli stimoli provenienti dall’esterno, così come nel cervello vengono “attivati” nuovi neuroni, così nella struttura proposta dal deep, verranno proposte differenti risposte del sistema a seconda degli stimoli ricevuti.

Nell’ambito delle reti neurali artificiali il deep learning viene largamente usato: si cerca di riprodurre il calcolatore più complesso in assoluto, il cervello umano. Le differenze tra i due sistemi sono ancora molto evidenti, basti pensare che a noi “umani” per riconoscere il viso familiare in una folla di persone possono volerci alcuni secondi, per una macchina distinguere immagini ben più semplici addirittura giorni!

Ed è così anche nel mondo animale, se consideriamo che i sistemi di orientamento di un pipistrello sono ben più avanzati e sviluppati dei sistemi radar umani. Questi paragoni servono principalmente per comprendere la difficoltà della risposta che vogliamo ottenere, e anche le complicazioni che sussistono all’interno di questo ambito di riserva. Ma che cos’è una rete neurale?

Per rete neurale intendiamo un processore ispirato al funzionamento del sistema nervoso di organismo biologici complessi, costituito di unità computazionali elementari che giocano lo stesso ruolo dei neuroni nel cervello. Essi hanno due caratteristiche: la prima è la conoscenza, come abbiamo visto precedentemente, acquisita tramite processi di apprendimento.

La seconda consiste nella capacità di immagazzinare tali conoscenze all’interno del sistema neuroni-rete neurale. I neuroni artificiali funzionano come nodi all’interno della rete, ricevono segnali provenienti dall’esterno o da altri nodi (neuroni) e ne effettuano una trasformazione chiamata funzione di attivazione. Questa operazione altro non fa che trasformare matematicamente il valore delle informazioni prima di passarle ad uno strato successivo, facendo in modo di trasmettere i valori di input attraverso tutta la rete fino ad arrivare all’output.

Il percettone è stato il primo schema di rete neurale proposta da Frank Roosenbalt nel 1958. Esso si presentava come un semplice classificatore binario in grado di riconoscere due differenti classi di input e separarle. Strutturalmente le similitudini con un neurone biologico sono indiscutibili: i dendriti e le sinapsi costituiscono l’input del neurone, mentre il nucleo e gli assoni costituiscono l’output del neurone che andrà poi ad interagire con gli altri neuroni. Il problema riguardante questo primo esperimento è la grande limitazione computazionale del singolo percettone, collegata al fatto che le prestazioni ottenibili dipendono con la scelta degli input.

Dal 1958 ad oggi, con un’impennata raggiunta negli anni ‘80, lo sviluppo delle reti neurali è continuato ed è possibile impiegare tali tecnologie soprattutto quando la difficoltà computazionale aumenta e le quantità di dati da elaborare diventano proibitive per l’uomo: ad esempio vengono utilizzate nel controllo del traffico aereo e veicoli, nelle simulazioni videoludiche come il gioco degli scacchi, nel riconoscimento nei sistemi radar e di identificazione facciale e vocale.

La nota negativa riguardante l’utilizzo di tali sistemi riguarda il fatto che, a differenza di sistemi algoritmici nei quali è possibile analizzare l’intero processo di elaborazione, con le reti neurali ci viene fornito solamente un dato (o un insieme di dati) in output che dobbiamo prendere come tale. Per questo a maggior ragione la scelta dei dati in ingresso è fondamentale per una corretta e attendibile valutazione da parte della rete.

Come abbiamo visto sussistono ancora innumerevoli differenze tra la tecnologia utilizzabile in ambito di reti neurali e le reti neurali biologiche presenti all’interno del cervello: tuttavia, le similitudini tra questi sistemi non sono così astratte. Le diverse tipologie di apprendimento automatico che abbiamo tenuto in considerazione mostrano come l’uomo stia cercando di ricreare artificialmente quello che possiede biologicamente: ovviamente non è un’operazione semplice, ma le possibilità di sviluppo sono a favore dei ricercatori.

Da un punto di vista computazionale e di velocità di elaborazione dei dati, una macchina sarà sempre favorita sull’uomo, rimane da implementare la parte relativa all’intenzionalità e alla cognizione. E nonostante ammettessimo che un’intelligenza artificiale (di tipo simbolico) possa essere associata al concetto di intenzionalità,  nulla ci garantisce che essa possa possedere autocoscienza di sé.

Se così fosse avremo di fronte a noi qualcosa di rivoluzionario: sarebbe una tecnologia tale da potersi migliorare da sola, rendersi conto di sé e di cosa la circonda, delle minacce e dei pericoli. In questo caso ci troveremo di fronte a quella che Nick Bostrom ha catalogato come Superintelligenza e che esporrò nel terzo capitolo.

Il machine learning è un tipo di apprendimento che riguarda l’intelligenza artificiale e ricopre un ruolo centrale nello sviluppo di quest’ultima: apprendere significa conoscere maggiormente, e questo significa svilupparsi meglio e più velocemente. Il procedimento di apprendimento risulta simile a quello dell’uomo sotto certi punti di vista: alla macchina viene programmata con un algoritmo tale da cercare e analizzare determinate informazioni. Come se stessimo insegnando a leggere a qualcuno: prima impara a leggere, poi imparare a rielaborare i dati e le informazioni ricevute. Può sembrare un discorso astratto, che riguarda tecnologie lontane dall’uso quotidiano ma non è assolutamente così, dato che praticamente ogni applicazione presente nei nostri smartphone (o per lo meno le più rinomate) utilizza algoritmi di apprendimento. Il machine learning viene utilizzato da Google e Amazon (solo per citarne alcuni tra i più importanti) per la gestione e l’analisi dei dati, o pattern, per essere più corretti. La traduzione di pattern sarebbe “forma” o “modello” ma secondo Satoshi Watanabe[1] va definito come un’entità specifica a cui è possibile fornire un nome, contrapposto a un’entità generica. Questi dati vengono trattati secondo differenti approcci, proposti da Arthur Samuels[2] negli anni ‘50 che sono: l’apprendimento supervisionato, l’apprendimento non supervisionato ed infine l’apprendimento per rinforzo.

2.3.1 Apprendimento supervisionato

Questa tecnica consiste in due fasi: training e prediction. Durante la fase di training la macchina viene istruita con dei dati in input ideali (come se fossero degli esempi da seguire). Successivamente entriamo nella seconda fase, quella del prediction: a questo punto la macchina utilizza il modello ideale precedentemente usato per rielaborare nuovi dati e produrre un output. Questo tipo di apprendimento è spesso usato nell’ambito del marketing: la sua applicazione permette di classificare i potenziali clienti e di proporgli determinati articoli in base alla loro cronologia di acquisti. Inoltre, viene utilizzato anche all’interno delle caselle di posta elettronica per categorizzare le e-mail a seconda che siano “spam” oppure no.

2.3.2 Apprendimento non supervisionato

L’apprendimento non supervisionato serve principalmente ad ottenere nuove informazioni. L’applicazione principale è il “clustering” ovvero il raggruppamento di determinati dati in gruppi omogenei che prendono appunto il nome di “cluster”. Utile in ambito di analisi di mercato per l’individuazione di nuovi clienti e nuovi mercati, è spesso utilizzato in ambito di Big-Data come un motore di ricerca: tramite una o poche parole questo algoritmo è in grado di creare molteplici collegamenti (link) attinenti alla ricerca iniziale. Interessante come nel 1975 Kunihiko Fukushima pubblicò una rete neurale non supervisionata finalizzata al riconoscimento di “pattern” che prendeva il nome di Cognitrone. Si caratterizza per organizzare autonomamente i collegamenti sinaptici tra i propri neuroni e quindi apprendere senza la supervisione di un insegnante. Nel modello proposto sono presenti quattro differenti strati denominati U0, U1, U2, e U3: il primo strato (U0) corrisponde ai neuroni presenti nella retina, mentre l’ultimo strato (U3) corrisponde ai neuroni presenti nella corteccia celebrale. Tale modello prende in considerazione del numero finito di dendriti presenti nei neuroni biologici e della lunghezza dell’assone: questi limiti permettono di associare i neuroni di ogni livello ad altri di un livello superiore, creando così una rete neurale intimamente connessa.

2.3.3 Apprendimento di rinforzo

Questo tipo di apprendimento è largamente usato in ambito robotico e si occupa di risolvere problemi di decisioni sequenziali. La macchina risponde a cambiamenti dell’ambiente circostante e per questo motivo è privilegiato in ambito robotico, ad esempio, nella gestione degli automi, ma anche nella guida senza conducente (driverless car). L’apprendimento per rinforzo funziona mediante tre diverse fasi: la prima consiste nell’applicazione di un algoritmo per cui in base ad un input viene generato un output. La seconda fase consiste nella valutazione dell’output precedentemente ottenuto: se è soddisfacente verrà rilasciata un giudizio positivo, al contrario verrà penalizzata. Infine, è presente un sistema di controllo che monitora l’operato delle prime due fasi, e modifica l’algoritmo utilizzato da A per fare in modo che il premio aumenti e le penalità diminuiscano, migliorando così l’intero processo.

Estratto dalla tesi di Laurea in Filosofia, Teorie e sistemi dell’intelligenza artificiale, a cura di Federico Malpighi. Alma Mater Studiorum Università di Bologna.


[1] Satosi Watanabe. 1985. Pattern recognition: human and mechanical. John Wiley & Sons, Inc., USA.

[2] A. L. Samuel, “Some studies in machine learning using the game of checkers“, in IBM Journal of Research and Development, vol. 44, no. 1.2, pp. 206-226, Jan. 2000, doi: 10.1147/rd.441.0206.