Intelligenza Artificiale e Intelligenza Umana: in cosa saranno diverse? - Pensiero Critico

Brain
brain
europa
critic
Coloro cui sfugge completamente l'idea che
è possibile aver torto non possono imparare nulla,
tranne la tecnica. (Gregory Bateson)
Vai ai contenuti

Intelligenza Artificiale e Intelligenza Umana: in cosa saranno diverse?

Teorie > Metodi > Intelligenza Artificiale
Puoi condividere questa pagina:
Il punto chiave
II giorno in cui l’Intelligenza Artificiale saprà approssimarsi all'intelligenza umana è vicino, ma le sue capacità vanno giudicate su tre livelli di abilità cognitive: vedere (associazione), fare (intervento) e immaginare (controfattuali). L’IA oggi lavora solo al livello più basso, cioè, vedere. (Judea Pearl, Dana MacKenzie)
_

Il futuro della intelligenza artificiale è costituito dallo sforzo di costruire computer che, come gli esseri umani, imparino dall'esperienza, senza la necessità di matematizzare ogni passo.

_

La natura delle giustificazioni basate sul computer non è affatto come le giustificazioni umane. E' aliena. Ma "aliena" non significa "sbagliata". Quando si tratta di capire come stanno le cose, le macchine possono essere più vicine alla verità di quanto noi umani potremo mai essere. (David Weinberger)

_

Il metodo scientifico umano, basato sull'osservazione di fenomeni, generazione di ipotesi e verifiche sperimentali, viene annullato dalla modalità di funzionamento delle applicazioni di intelligenza artificiale basate sul "machine learning". Esse non producono ipotesi nè fanno verifiche (visibili all'uomo) eppure danno risultati più attendibili, ma incomprensibili all'uomo.

_

L'IA, oggi, è solo in grado con molta ma molta più efficienza dell'uomo, di rilevare strutture significative all'interno di basi dati anche molto ampie. (Judea Pearl)
_
I mondi possibili sono cose di cui possiamo parlare o che possiamo immaginare, ipotizzare, in cui possiamo credere o che possiamo auspicare. Tuttavia, non possiamo mai arrivare in un mondo possibile che non sia il mondo reale; perchè, se potessimo, e richiede solo che si pensi un attimo alla fantascienza per vedere come potremmo pensare di potere, allora quel mondo sarebbe parte del mondo reale. Le cose stanno così in quanto il mondo reale non è altro che la totalità di ciò che accade nella realtà. (M.J. Cresswell)
_
La modellazione causale non è in prima linea nell'attuale lavoro di machine learning. L'apprendimento automatico oggi è dominato dagli statistici e dalla convinzione di poter imparare tutto dai dati. Questa filosofia incentrata sui dati è limitata. (Judea Pearl)
_
I dati possono aiutarci a prevedere cosa accadrà, ma anche l'apprendimento automatico più sofisticato di oggi non può dirci perché. (Judea Pearl)
_
Mentre la consapevolezza della necessità di un modello causale è cresciuta a passi da gigante tra le scienze, molte ricerche sull'intelligenza artificiale vorrebbero evitare il difficile passo della costruzione e acquisizione di un modello causale e fare affidamento esclusivamente sui dati per tutti i compiti cognitivi. (Judea Pearl)
intelligenza artificiale
In conclusion, the new is coming forward or not?
Difficult to say: no one distinguishes which is the head and which is the ass.
Come funzionano la mente umana e quella artificiale

Subito dopo la seconda guerra mondiale, agli albori di questo campo di studi avviato dal matematico Alan Turing, l'intelligenza artificiale (AI - artificial intelligence) aspirava solo a risolvere problemi difficili per gli umani, ma relativamente facili per dei computer, cioè problemi che potessero essere descritti da una lista di regole matematiche (ad esempio il supercomputer IBM’s Deep Blue che sconfisse il campione di scacchi Garry Kasparov nel 1997). Inizialmente la AI si proponeva di risolvere problemi pratici quali automatizzare routine di processi produttivi, riconoscere testi o immagini, fare diagnosi mediche, supportare la ricerca scientifica di base, e altri compiti di questo tipo.

L'approccio classico alla AI, conosciuto come "knowledge base" consiste nell'utilizzo di linguaggi formali che impiegano automaticamente regole logiche di inferenza. Questo è l'approccio degli albori dell'intelligenza artificiale. Il termine "intelligenza artificiale"  fu infatti coniato nel 1955 dallo scienziato informatico John McCarthy che ne diede la seguente definizione:


L'intelligenza artificiale è quella scienza che consente di costruire macchine intelligenti, in particolare programmi per computer intelligenti. Essa è legata a compiti simili a quelli che utilizzano computer per capire l'intelligenza umana, ma la AI non deve limitarsi a metodi che sono biologicamente osservabili.


Lo stesso McCarthy diede della "intelligenza umana" la seguente definizione:


L'intelligenza umana è la parte computazionale della capacità di raggiungere degli obiettivi nel mondo. Vari tipi e gradi di intelligenza si riscontrano nelle persone, in molti animali e in alcune macchine.


Alcune questioni basilari sulla differenza tra intelligenza umana e artificiale sono state date da McCarthy (ad esempio se il quoziente IQ è applicabile anche alle macchine, oppure cos'è il Turing Test, ecc) e sono reperibili qui.

Invenzione del "Machine Learning" e del "Deep Learning"
Con il tempo ci si accorse che la vera sfida che la AI doveva affrontare era un'altra, cioè quella di acquisire le proprie conoscenze estraendo strutture ("pattern") da dati grezzi esterni. Questa capacità di apprendimento automatico venne denominata "Machine Learning". Il Machine Learning si può definire un software che crea degli algoritmi che migliorano le proprie prestazioni nel corso del tempo, quando vengono misurati nell'ambito di un compito specifico, dopo aver effettuato una serie di esperienze. I più quotati corsi e tutorial universitari americani sono riportati qui.


Il tecnologo Daniel Faggella (vedi bibliografia) ha dato dell'apprendimento automatico delle macchine la seguente definizione:


Machine learning è la scienza che permette ai computer di imparare ed agire come gli umani, e di migliorare il proprio apprendimento nel tempo autonomamente, se essi vengono alimentati di dati e informazioni in forma di osservazioni e interazioni con il mondo reale


La AI doveva dunque imparare a risolvere problemi che l'uomo risolve facilmente in modo intuitivo (automatico), come riconoscere parole o volti nelle immagini, ma che non possono essere descritti matematicamente. Dato che non esistono regole per quest'attività, occorreva imparare dall'esperienza. Se la conoscenza proviene dall'esperienza si può fare a meno dell'intervento umano, infatti i computer possono funzionare nei termini di gerarchie di concetti, dove ogni concetto può essere definito con le sue relazioni a concetti più semplici, e il computer può imparare nuovi concetti complessi costruendoli dall'aggregazione di altri più semplici che già possiede. Secondo lo scienziato e filosofo Jürgen Schmidhuber (vedi bibliografia) lo sviluppo di reti neurali, cioè di reti che simulano il comportamento delle reti neurali biologiche, ha consentito il grande sviluppo del "Deep learning", cioè di un apprendimento automatico che richiede lunghe catene causali di fasi computazionali. L'apprendimento consiste nell'assegnazione di pesi corretti alle connessioni che portano la rete neurale verso il risultato desiderato. Il Deep Learning è un processo che continuamente valuta e assegna credito a molte fasi computazionali interconnesse (come il cervello umano).

Il Deep Learning è dunque un particolare apprendimento automatico che consente di ottenere da una rete neurale artificiale grande potenza e flessibilità imparando a rappresentare il mondo come una gerarchia di concetti, dove ogni concetto è definito in relazione a concetti più semplici e le rappresentazioni più astratte calcolate nei termini di quelle meno astratte.
La differenza tra correlazione e causalità: una visione alternativa dell'Intelligenza Artificiale

Il canto del gallo provoca l'alba? La risposta è ovvia, se sei un essere umano, ma una macchina può solo capire che il canto del gallo e l'alba sono correlati, non che uno causa (o non causa) l'altro. L'inferenza causale o ragionamento causale è oggi assente dai meccanismi di machine learning presi in considerazione dagli esperti di Intelligenza Artificiale, eppure essa è l'inferenza più rappresentativa dell'intelligenza  umana perché implica la previsione degli effetti delle proprie azioni.

La scala della causalità di Judea Pearl

Esistono due contrapposte visioni di come il mondo funzioni e si è espressa nella divergenza di due filosofie: l'ermeneutica e lo scientismo. Lo scienziato Rupert Riedl ha così descritto le due visioni del mondo nel libro "La realtà inventata" (p.79):

La spiegazione del mondo a partire dai suoi fini divenne il metodo delle scienze umanistiche, in particolare nella formulazione di Dilthey come arte dell'interpretazione o ermeneutica. La spiegazione del mondo a partire dalle forze o dall'energia divenne il metodo delle scienze esatte, il cosiddetto scientismo. Il secondo opera con la causalità, il primo con la finalità, supponendo che i rapporti causali e i rapporti finali agiscano sul presente, gli uni provengono dal passato, gli altri dal futuro.

Si tratta di una vecchia questione che riguarda la distizione tra cultura umanistica e cultura scientifica la quale negli Anni '70 ha alimentato il dibattito filosofico sulle "Due culture" di Charles Snow. In realtà vi è una sola visione del mondo che impiega e mescola elementi di entrambe le culture.

Mondo reale e mondi possibili
Noi viviamo in un mondo reale nel quale possiamo fare le nostre osservazioni e le nostre azioni, ma la nostra specie è l'unica che può vivere, mentalmente, in più "mondi possibili". Questa straordinaria capacità ha dato all'essere umano la possibilità di immaginare e, successivamente, realizzare artefatti, prodotti, stili di vita che ci hanno portato fin qui. Il filosofo M. J. Cresswell (vedi bibliografia) ha spiegato le supposizioni controfattuali che avvengono nei "mondi possibili". Egli ha scritto:

I mondi possibili sono cose di cui possiamo parlare o che possiamo immaginare, ipotizzare, in cui possiamo credere o che possiamo auspicare. Tuttavia, non possiamo mai arrivare in un mondo possibile che non sia il mondo reale; perchè, se potessimo, e richiede solo che si pensi un attimo alla fantascienza per vedere come potremmo pensare di potere, allora quel mondo sarebbe parte del mondo reale. Le cose stanno così in quanto il mondo reale non è altro che la totalità di ciò che accade nella realtà.

Dato che l'intelligenza artificiale si occupa del futuro, la scala della causalità rappresenta, secondo la visione del filosofo Judea Pearl, l'evoluzione del pensiero umano.

  1. Il primo gradino (SEEING) riguarda il "MONDO REALE" e si limita all'osservazione ed è proprio di tutte le specie animali. Ogni animale, attraverso il proprio sistema sensorio, si accorge di ciò che accade nel suo ambiente e fa le sue associazioni/correlazioni sugli eventi che nota.

  2. Il secondo gradino (DOING) riguarda il "MONDO REALE" e consiste nel decidere di effettuare azioni in esso (sulla base delle associazioni fatte) .

  3. Il terzo gradino (IMAGINING) riguarda i "MONDI POSSIBILI" e consiste nell'immaginare varie soluzioni alternative delle azioni che si potrebbero intraprendere in uno specifico contesto. Si tratta quindi di porsi delle domande controfattuali, cioè non basarsi su ciò che si vede ma immaginare quali risultati si potrebbero ottenere se si facessero delle azioni alternative. Quest'ultimo gradino è oggi "proprio" dell'azione umana.

Dall'osservazione di eventi al Pensiero controfattuale (che immagina nuovi mondi)
Judea Pearl
La scala della causalità mostra le possibilità che si presentano all'essere umano, che vanno dalla semplice osservazione di eventi e la successiva associazione/correlazione, all'azione sul mondo, fino alla creazione di ipotesi (pensiero controfattuale).
(Disegno: Maayan Harel)
In cosa differiscono l'intelligenza umana e quella Artificiale?

In cosa differiscono l'intelligenza umana e quella Artificiale? Il filosofo Judea Pearl, nel suo libro "The book of Why: The New Science of Cause and Effect" sostiene che la risposta sia: "La capacità di porre domande e trovare risposte". Riguardo al processo mentale che avviene nel cervello umano Pearl riporta l'opinione del filosofo Davis Lewis che diede una definizione controfattuale di una "causa" che la allinea con quella dell'intuizione umana (p.20):

noi pensiamo a una causa come a qualcosa che fa la differenza, e la differenza che fa deve essere una differenza rispetto a ciò che sarebbe accaduto senza di essa

Pearl, descrive così l'intelligenza umana:

Molto presto nella nostra evoluzione, noi umani ci siamo resi conto che il mondo non è fatto solo di puri fatti (quelli che oggi potremmo chiamare dati); piuttosto, questi fatti sono uniti da una intricata rete di relazioni causa-effetto. Spiegazioni causali, non puri fatti, costituiscono la maggior parte delle nostre conoscenze e dovrebbero essere la pietra angolare dell'intelligenza artificiale.

Scrive Pearl, nella recensione di Ben Dickson (vedi bibliografia):


Il nostro modello causale del mondo è ciò che ci consente di fare ipotesi sulle relazioni tra oggetti, tracciare analogie attraverso le esperienze e affrontare nuovi ambienti e problemi. Ma sfortunatamente, ci sono stati pochi sforzi per fornire ai modelli di intelligenza artificiale lo stesso tipo di strumenti. Per il momento, i sistemi di intelligenza artificiale di maggior successo sono modelli di deep learning che sfruttano set di dati più grandi con più esempi su diverse possibili situazioni. Ma i dati non risponderanno alla domanda quando il problema si allontanerà da situazioni ristrette, come la guida su strade pubbliche. L'intelligenza artificiale rimarrà fragile, il che significa che non sarà in grado di generalizzare il suo comportamento oltre il dominio degli esempi che ha visto. E continuerà a fallire di fronte a casi angolari, situazioni che non ha mai visto prima.



Pearl così descrive le previsioni controfattuali:

Un'altra classe di compiti sono i problemi che coinvolgono i controfattuali, ad esempio, per prevedere come sarebbe il mondo se avessimo agito diversamente. Un esempio pratico in un contesto politico sarebbe quello di identificare gli elettori oscillanti, ovvero gli elettori che cambieranno il loro voto se e solo se contattati (ad esempio dai lavoratori rurali). Sebbene i dati non ci dicano mai come un determinato elettore si comporterebbe in condizioni diverse, i computer con comprensione controfattuale possono comunque identificare, dai dati, quale elettore è probabilmente nella classe degli "elettori oscillanti".

L'intelligenza causale dei corvi
Bucchi
Sviluppo della intelligenza artificiale guidato dalle reti neurali

Le reti neurali artificiali tendono a riprodurre strutture e modalità di funzionamento di quelle biologiche. Benchè il concepimento delle reti neurali artificiali risalga alla metà del secolo scorso, solo adesso esse stanno diventando fruibili per merito di un'accresciuta potenza di calcolo, di immagazzinamento dati (storage) e di superiori conoscenze matematiche.


Uno dei risultati applicativi delle reti neurali artificiali è il "Deep learning" che produce i suoi risultati da un numero enorme di variabili in un altrettanto grande numero di condizioni diverse tali che l'intelligenza umana non è in grado di comprendere il modello costruito dalle elaborazioni del computer ma di vedere solo la correttezza dei suoi risultati.


Il tecnologo e filosofo David Weinberger (vedi bibliografia) evidenzia il fatto che le reti neurali si sono dimostrate (nel 2009) in grado di analizzare, con maggiore successo dei metodi tradizionali, le interazioni dei geni in alcune malattie genetiche, oppure che esse sono state in grado di discriminare, con risultati migliori dell'approccio tradizionale (nel 2016), il decadimento di particelle singole e multiple nel grande acceleratore di particelle Hadron a Ginevra, oppure ancora che esse hanno aiutato (nel 2011) a identificare quale sia il più preciso dei venti modelli di cambiamento climatico usati dal "Gruppo Intergovernativo sul Climate Change".


Secondo il ricercatore Francesco Corea (vedi bibliografia), questa accelerazione è stata determinata in particolare dall'acquisizione della società DeepMind da parte di Google e dalla successiva pubblicazione (nel 2016) di un articolo di David Silver, Aja Huang e Al. (vedi bibliografia) che descrive l'uso di reti neurali nel gioco Go (AlphaGo).

Neuroni biologici
I neuroni sono composti da un corpo cellulare (il nucleo del neurone) a da parecchi dendriti che smistano i segnali elettrici da/verso i corpi cellulari degli altri neuroni ad una velocità media di 350 km/h. La materia bianca (costituita da assoni) connette la materia grigia (costituita da neuroni). I neuroni sono gli elementi di base del cervello e ogni cervello umano ne contiene oltre 100 miliardi. Il numero di connessioni tra neuroni (sinapsi), che va a formare il "Connettoma umano" è di circa 130 mila miliardi (più del numero di stelle contenuto in 500 galassie delle dimensioni della Via Lattea).
Neuroni artificiali
intelligenza artificiale
In un neurone artificiale ci sarà un'attivazione (cioè il passaggio di uno stimolo dall'ingresso all'uscita verso un altro neurone) se la sommatoria degli ingressi (pesati/weights) supererà una certa soglia (threshold). Inoltre ogni neurone applica una specifica funzione di trasferimento (transfer function) agli ingressi che riceve effettuando delle trasformazioni matematiche prima che la soglia venga superata.
Connettoma umano: 130mila miliardi di sinapsi
Fonte: MGH HUMAN CONNECTOME PROJECT ACQUISITION TEAM
Lo "Human Connectome Project" è stato un progetto quinquennale avviato nel 2009 da sedici dipartimenti della salute degli Stati Uniti. Questo progetto ha acquisito e distribuito al mondo scientifico dettagliate mappe dei percorsi neurali che costituiscono la connettività strutturale e funzionale del cervello umano. Il progetto aveva lo scopo finale di porre le basi per futuri studi che indagassero i percorsi neurali anormali che nel cervello conducono a gravi disordini neurologici quali l'Alzheimer o a disordini psichiatrici quali la schizofrenia.
Rete neurale per applicazioni finanziarie
Sono oggi disponibili alcuni servizi per il "trading" (compravendita di titoli azionari)  a pagamento basati su applicazioni di intelligenza artificiale.
Un esempio di struttura per una rete neurale artificiale è "Neural Trader". Usando degli appositi software è possibile addestrare la rete riguardo al "trading" e la rete neurale tenterà di prevedere l'andamento del mercato titoli in base ai dati ricevuti in ingresso. In ingresso sarà possibile inserire indicatori tecnici quali il prezzo dei vari titoli, delle valute o delle materie prime usando dati storici già noti. E in uscita si inseriranno i prezzi futuri (target), la direzione del mercato o la volatilità. Una volta che la rete neurale sarà stata sufficientemente addestrata, se si inseriranno nuovi dati in ingresso sarà in grado di produrre nuove previsioni in uscita.
La battaglia tra intelligenza umana e intelligenza artificiale è già iniziata e la sta vincendo quest'ultima
Nel 2016 l'Intelligenza Artificiale (AI) è costata il posto di lavoro ad Amit Singhal, veterano di Google e del suo motore di ricerca, che ha annunciato il suo ritiro. Infatti, fin da inizio 2015, Google ha introdotto l'algoritmo RankBrain basato su un approccio in grado di imparare dall'esperienza, cioè di identificare pattern tra ricerche complesse apparentemente non correlate e capire che in realtà sono molto simili tra loro. Questo approccio ha permesso a Google di rispondere in modo più pertinente a quel 15% di ricerche (450 milioni su 3 miliardi giornalieri) che contengono sequenze di parole mai digitate prima da nessun utente (vedi bibliografia Angela Chirico). Dati questi risultati Google ha deciso di estendere gradualmente l'uso di RankBrain a una percentuale maggiore di richieste giornaliere (vedi bibliografia Jack Clark). Il fatto è che la logica con cui lavora un algoritmo in apprendimento automatico (Machine learning) è efficace ma indecifrabile per l'uomo, quindi Singhal se ne è andato (forse) perchè non sarebbe più stato in grado di giustificare e porre rimedio ai numerosi errori di ricerca (per i quali Google viene chiamata a giustificarsi per il comportamento dell'algoritmo vedi qui, qui e qui).
Intelligenza umana e intelligenza artificiale sono diverse
Concetti e Settori della Intelligenza Artificiale
intelligenza artificiale
Rielaborazione della figura tratta dal libro "Deep Learning" di Joshua Bengio et Al (p. 9).
Essa mostra un diagramma di Venn che mette in evidenza il fatto che il Deep learning è una tipologia di "Representation learning", la quale, a sua volta, è una tipologia di "Machine learning", e tutte sono contenute all'interno del vasto campo della "Intelligenza artificiale".

Tutte queste tecniche hanno lo scopo di costruire algoritmi che traggono dati da vari ambiti (principalmente da Big Data) per migliorare l'apprendimento delle macchine e, quindi, la loro intelligenza.
Rivoluzione robotica
robots
I robot operano già in tutti settori socioeconomici
L'analista Anna Kucirkova (vedi bibliografia) sostiene che la "Rivoluzione robotica" cambierà l'economia globale nei prossimi due decenni, dato che le capacità dei robot hanno superato una soglia critica già da alcuni anni come riportato da molti esperti. Ciò è stato permesso dalla crescita esponenziale della potenza di calcolo e dell'archiviazione dei dati che hanno portato i robot ad apprendere e prendere decisioni in base alle esperienze di altri robot. La Kucirkova cita tutti i settori dove i robot vengono già impiegati con successo quali: la giurisprudenza, il giornalismo, la finanza, la ristorazione, la produzione, la sanità, ecc. e invita le persone a non farsi intimorire dalla possibilità che la robotizzazione dell'economia e della società sottragga lavoro agli esseri umani, perchè ciò che verrà sottratto sarà il lavoro più ripetitivo e inumano mentre si aprirà spazio a lavori più sofisticati e qualificati.
Differenza tra intelligenza umana e intelligenza artificiale

L'utilizzo della parola "intelligenza", fatto da Turing per porre la sua famosa domanda ("Possono le macchine pensare?"), ci porta fuori strada nelle considerazioni che si fanno cercando differenze tra intelligenza umana e intelligenza artificiale, come scrive lo scienziato Brad Allenby (vedi bibliografia):

Per quanto brillante sia il test di Turing, la sua popolarità ha avuto un effetto pernicioso: ha rafforzato in molte persone la confortevole illusione che l'intelligenza umana sia una misura significativa dell'intelligenza in generale. Questo è comprensibile: se non si riesce a definire il "pensare" o la "intelligenza", si fa riferimento all'intelligenza umana come standard. Ma, ovviamente, sappiamo che la cognizione umana è costituita da soluzioni approssimative e scorciatoie. Ciò dipende dal fatto che essa è una intelligenza scaturita dall'evoluzione, o EI (Evoluted Intelligence), che significa che essa riflette i compromessi e le scorciatoie necessarie al cervello di un primate a bassa larghezza di banda che deve funzionare in un mondo incredibilmente complesso. I professionisti della psicologia, dell'economia comportamentale, del marketing e della pubblicità hanno negli ultimi decenni individuato molti esempi di come il cervello, con risorse limitate, ha creato regole del pollice endogene per consentirgli di gestire meglio la complessità. Perché ci sono costosi sistemi a schermo piatto messi davanti ai negozi che vendono prodotti elettronici? Perché incorniciare [framing] una decisione d'acquisto nei termini di sistemi ad alto costo fa apparire, per confronto, altri sistemi meno costosi. "Il pregiudizio di conferma", nel quale i comportamenti desiderati vengono incoraggiati collegandoli a modelli mentali preesistenti, è evidente nei modi di agire odierni. E così via. La EI In realtà funziona abbastanza bene, ma è una pastiche di soluzioni approssimative. E ancora più importante, quelle soluzioni riflettono le sfide evolutive dell'uomo: bassi livelli di attenzione conscia disponibile, limitata memoria, limitata energia decisionale, condizioni ambientali primitive, piuttosto che essere inerenti all'intelligenza in sé. EI è una forma di intelligenza piuttosto idiosincratica; non è intelligenza. E che dire della AI? Ebbene, la prima e più ovvia osservazione è che l'intero discorso attorno alla AI implicitamente presuppone la superiorità di EI - dopo tutto, ogni altra intelligenza è "artificiale", in confronto alla EI umana, che pertanto è implicitamente "naturale" e quindi superiore. La seconda è che gran parte dell'isteria distopica intorno all'AI riflette la paura che essa agirà come agiscono gli esseri umani (vale a dire violentemente, egoisticamente, emotivamente e talvolta irrazionalmente) - solo che avrà maggiori capacità. In sostanza, gran parte di quello che temiamo è una EI molto più competente. [...]  La nostra sfida, insomma, non è quella di continuare a costruire spauracchi al buio, è piuttosto, quella di percepire e comprendere ciò che può essere profondamente diverso e non umano al punto da essere veramente alieno, anche se siamo noi che l'abbiamo costruito.


L'intelligenza artificiale, a differenza di quella umana, non è influenzata da emozioni, non impiega euristiche e non è soggetta a bias cognitivi: essa sembra ricorrere a un diverso paradigma conoscitivo.
L'intelligenza artificiale deve sviluppare il Sistema1 o il Sistema2 ?
Intervista di Lex Fridman a Daniel Kahneman su ciò che manca agli attuali sistemi di deep learning per rappresentare il mondo come esso appare agli umani
Pensiero razionale, pensiero intuitivo e azione dei bias cognitivi
Composizione dei modelli di pensiero intuitivo (sistema 1) e razionale (sistema 2), nella rappresentazione fatta da Daniel Kahneman e tratta dal libro 'Pensieri lenti e veloci' (cliccare per ingrandire).
Metodo scientifico
AI
La separazione soggetto-oggetto è il presupposto del metodo scientifico
Analisi statistica di un testo fatta dal software GLTR
artificial intelligence
(Cliccare per ingrandire)
Un testo tratto dal romanzo Infinite Jest nel quale le parole più prevedibili sono verdi; le meno prevedibili gialle e rosse; e le difficilmente prevedibili viola
Il computer HAL9000 si ribella all'uomo (da Stanley Kubrick)
AI
Una scena tratta dal film "Odissea nello spazio"
Altan
What keeps me alive is the desire not to miss the end of the world
Con la AI un nuovo paradigma scientifico è alle porte?

Il tecnologo e filosofo David Weinberger, esaminando i risultati del confronto tra intelligenza umana e intelligenza artificiale, di fronte alla maggiore correttezza dei risultati della AI ma anche alla sua inspiegabilità umana, conclude che la AI cambierà anche il "metodo scientifico" così come noi lo conosciamo. Weinberger scrive (vedi bibliografia):


Se "conoscere" ha sempre comportato essere in grado di spiegare e giustificare le nostre credenze vere - idea di Platone [dal Teeteto], che si è protratta per più di duemila anni - cosa ce ne facciamo di un nuovo tipo di conoscenza in cui il compito della giusticazione è non solo difficile o scoraggiante, ma impossibile? Per migliaia di anni abbiamo agito come se la semplicità dei nostri modelli riflettesse la semplicità - l'eleganza, la bellezza, la pura razionalità - dell'universo. Adesso le nostre macchine ci lasciano vedere che anche se le regole sono semplici, eleganti, belle e razionali, il dominio che esse governano è così granulare, così intricato, così interconnesso, con ogni cosa che causa ogni altra cosa, tutto in una volta e per sempre, che i nostri cervelli e la nostra conoscenza non può iniziare a comprenderla. Ci vuole una rete di esseri umani e computer per conoscere un mondo così ben governato dalla contingenza, un mondo nel quale è caos fino in fondo.

La promessa del machine learning è che ci sono volte in cui i modelli imperscrutabili delle macchine saranno molto più predittivi di quelli costruiti manualmente. In questi casi la nostra conoscenza, se scegliamo di usarla, dipenderà da giustificazioni che non saremo in grado di capire.

Riconoscimento di FakeNews scritte da AI

La disinformazione è sempre più automatizzata, ormai molti testi vengono scritti con strumenti di intelligenza artificiale, tra i quali le fakenews. Dei ricercatori della Harvard University e del MIT (Hendrik Strobelt, Sebastian Gehrmann, Alexander M. Rush) si sono posti il problema di riconoscere questi testi, però non con metodi convenzionali quali l'analisi del significato, ma con metodi statistici, cioè analizzando la predicibilità delle singole parole all'interno del testo (vedi bibliografia). E' stato sviluppato un software chiamato Giant Language Model Test Room (GLTR) che svolge un'analisi statistica del testo (vedi immagine a fianco). Quando l'analisi del testo mostra prevalentemente parole verdi e gialle è probabile che il testo sia stato generato da un software AI.
Etica dell'intelligenza artificiale

La necessità di fare in modo che le applicazioni di intelligenza artificiale rispondano a criteri etici accettabili (da un punto di vista occidentale), è stata espressa da diversi scienziati in un articolo pubblicato nel 2015 su "Nature":


  • Stuart Russell, parlando dei sistemi d'arma comandati da "sistemi AI", mette in rilievo la necessità di leggi internazionali che regolamentino le decisioni autonome dei "sistemi AI" nell'uccisione di umani
  • Russ Altman, parlando dei sistemi sanitari nazionali governati da applicazioni "AI", mette in guardia dal rischio che essi aggravino le disparità di assistenza
  • Manuela Veloso, parlando dei robot collaborativi autonomi, propone che essi vengano corredati della possibilità di chiedere aiuto agli umani in casi controversi

Ma la preoccupazione maggiore degli esperti riguarda il momento in cui le macchine diventeranno più intelligenti dell'essere umano. Secondo il futurologo Ray Kurzweil ciò accadrà entro il 2029. L'esperto di Intelligenza Artificiale Danilo Bologna, parlando della visione di Kurzweil, scrive (vedi bibliografia):

Diversi scienziati, futuristi ed esperti sostengono che quando i computer diventeranno intelligenti come noi allora dovremo iniziare a preoccuparci. E quando lo diventeranno più di noi allora non avremo scampo. Per Elon Musk l’intelligenza artificiale sarà la “minaccia” più grande per la razza umana e per Stephen Hawking “lo sviluppo dell’intelligenza artificiale potrebbe significare la fine del genere umano“. Insomma, quando le macchine saranno più intelligenti di noi allora non saremo più in grado di controllarle.

Intanto gli effetti delle prime applicazioni di AI iniziano a farsi sentire sulla società, ad esempio uno studio della criminologa Jessica Saunders (vedi bibliografia), condotto per la Polizia di Chicago allo scopo di ridurre la violenza armata, e basato sul controllo delle persone inserite su una speciale lista (heat list) costruita con un algoritmo che stimava la propensione al crimine, si è rivelato inefficace nel prevedere futuri crimini e ha solo aumentato i soprusi della polizia nei confronti delle persone inserite in quella lista. Per misurare l'impatto di decisioni prese da sistemi di intelligenza artificiale si è costituito negli USA un gruppo di ricerca "AI Now", che pubblica report (vedi bibliografia) sulle implicazioni sociali ed economiche delle tecnologie di Intelligenza Artificiale.

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

La razionalità richiede impegno personale!
Iscriviti alla Newsletter di pensierocritico.eu per ricevere in anteprima nuovi contenuti e aggiornamenti:
Bibliografia (chi fa delle buone letture è meno manipolabile)


Scrivi, se non sei d'accordo
Se ritenete che le tesi del "punto chiave" non vengano sufficientemente supportate dagli argomenti presenti in questa pagina potete esprimere il vostro parere (motivandolo).
Inviate una email con il FORM. Riceverete una risposta. Grazie della collaborazione.
Libri consigliati
a chi vuole migliorare la propria capacità di interpretare le conseguenze della AI
Spesa annua pro capite in Italia per gioco d'azzardo 1.583 euro, per l'acquisto di libri 58,8 euro (fonte: l'Espresso 5/2/17)

________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________

Pagina aggiornata il 15 gennaio 2020

Copyright 2012-2020
creative commons
Quest'opera è distribuita con Licenza Creative Commons Attribuzione 2.5 Generico
Torna ai contenuti