Le macchine hanno la capacità di pensare?
La domanda può sembrare semplice, ma la natura introspettiva innata degli esseri umani ci ha fornito una comprensione profonda del concetto di pensiero. Tuttavia, rispondere senza l'influenza delle nostre esperienze personali e soggettive, come la voce nella nostra mente che narra i nostri pensieri, richiede una definizione formale di ciò che il pensiero comporta realmente.
Da sempre l'uomo è affascinato dalla costruzione di oggetti che imitano il comportamento animale e umano, dai giocattoli che simulano il canto e il volo degli uccelli all'automa che gioca a scacchi di Leonardo Torres, El Ajedrecista, del 1912.

Tuttavia, esiste una differenza marcata tra le macchine che simulano le caratteristiche fisiche e quelle che simulano le caratteristiche intellettuali degli esseri umani.
Le tappe fondamentali della storia che hanno portato all'intelligenza artificiale e Machine Learning
Sebbene gli sviluppi che hanno reso possibile affrontare questa questione in modo più formale siano troppo numerosi per essere elencati in modo esaustivo in questa sede, vale la pena segnalare alcune tappe fondamentali:
In matematica e logica:
- Lo sviluppo della logica moderna da parte di Gottlob Frege alla fine del XIX secolo
- La pubblicazione nel 1910 di Principia Mathematica di Bertrand Russell e Alfred Whitehead, che cerca di dimostrare che la matematica è riducibile alla logica simbolica.
- L'introduzione da parte di David Hilbert dell'Entscheidungsproblem, che richiede un metodo in grado di prendere qualsiasi proposizione matematica (logica) e, a partire da un insieme di assiomi, determinarne la validità.
- I teoremi di incompletezza di Gödel del 1931, che dimostrano che nessun sistema formale sufficientemente espressivo può essere allo stesso tempo completo e coerente.
- L'introduzione del campo della teoria dell'informazione da parte di Claude Shannon nel 1948
In psicologia e neuroscienze (apprendimento animale e umano)
- Il condizionamento classico e operante dei comportamentisti come Ivan Pavlov e B.F. Skinner
- Il concetto di modelli mentali elaborato da Kenneth Craik nel 1943 e il loro utilizzo nel ragionamento umano
- Teorie sulla plasticità sinaptica e neurale proposte da Donald Hebb nel 1949
- L'organizzazione neurale dell'ordine seriale nel comportamento di Karl Lashley, 1951
In ingegneria
- Il campo della cibernetica, introdotto da Norbert Wiener nel 1948 per studiare i sistemi di controllo con feedback ambientale.
- La programmazione dinamica e la sua relazione con la teoria del controllo ottimale, studiata da Richard Bellman, tra gli altri, nel 1953.
McCullough e Pitts e la prima rete neurale
Uno sviluppo importante che avvenne in seguito, e che fu in parte ispirato dalla macchina di Turing, fu l'introduzione della prima rete neurale da parte di Warren McCullough e Walter Pitts nel loro fondamentale articolo, A Logical Calculus of the Ideas Immanent in Nervous Activity. In realtà, il lavoro di McCullough e Pitts avrebbe probabilmente avuto un'influenza molto maggiore sui primi ricercatori nel campo dell'intelligenza artificiale (AI) rispetto al lavoro di Turing.
La storia di come McCullough e Pitts hanno iniziato a lavorare insieme è di per sé affascinante1. Secondo una leggenda metropolitana, il film Will Hunting - Genio ribelle sarebbe basato sulla vita di Pitts.
Altrettanto sorprendente è il fatto che la prima rete neurale sia stata sviluppata nel 1943, contrariamente alle rappresentazioni contemporanee del deep learning come una tecnologia rivoluzionaria più recente.
Basandosi sulla logica proposizionale dei Principia Mathematica di Russell e Whitehead e attingendo alle loro conoscenze di neuroanatomia, McCullough e Pitts svilupparono una teoria su come i neuroni possono essere interconnessi attraverso una serie di pesi sinaptici in modo da ricreare il funzionamento dei gate logici.
Con una serie di tali porte, è possibile costruire una rete neurale per calcolare i valori di verità di frasi di proposizioni logiche arbitrarie.
Il loro modello semplificava eccessivamente la struttura e la funzione dei neuroni e non era in grado di apprendere o adattarsi (i pesi sinaptici dovevano essere impostati manualmente). Tuttavia, ha ispirato l'architettura dei computer di John von Neumann ed è stato di grande ispirazione per il gruppo di ricercatori che in seguito avrebbe introdotto il termine "intelligenza artificiale".
AI: Il workshop di Dartmouth che ha dato il nome a tutto
Battendo alternative come intelligenza artificiale, macchine pensanti e cibernetica, il termine intelligenza artificiale fu coniato per la prima volta da John McCarthy nel 1955.
Si cercava di descrivere i piani per un workshop estivo che avrebbe riunito un piccolo gruppo di ricercatori provenienti da diversi ambiti che studiavano concetti relativi all'intelligenza artificiale. L'obiettivo, descritto da McCarthy, oltre che da Claude Shannon, Marvin Minsky e Nathan Rochester, nella loro proposta per il workshop, era definito come segue:
Lo studio procederà sulla base dell'ipotesi che ogni aspetto dell'apprendimento o qualsiasi altra caratteristica dell'intelligenza possa, in linea di principio, essere descritto con tale precisione da consentire a una macchina di simularlo. Si cercherà di scoprire come fare in modo che le macchine utilizzino il linguaggio, formino astrazioni e concetti, risolvano tipi di problemi attualmente riservati agli esseri umani e migliorino se stesse.
Il nome dato da McCarthy era in parte dovuto al desiderio di differenziare il campo in rapida espansione che stavano creando dai numerosi campi da cui provenivano i singoli ricercatori. Va notato che McCarthy voleva anche evitare il titolo di cibernetica per paura di dover avere a che fare con un prepotente Norbert Wiener2.
Ciononostante, la proposta conteneva sette temi e un invito ai singoli ricercatori a proporre i propri argomenti. Tra questi figuravano "Come si può programmare un computer per usare un linguaggio?", "Reti neurali", "Auto-miglioramento" e "Astrazioni", che si riferisce all'apprendimento delle astrazioni dagli stimoli sensoriali.
Gli argomenti trattati durante il workshop avrebbero in gran parte determinato il futuro orientamento dell'IA, unendo ricercatori provenienti da campi diversi verso obiettivi comuni e creando aspre divisioni tra i ricercatori che non erano d'accordo sul metodo migliore per raggiungerli.
Sviluppo dell'intelligenza artificiale
Dal workshop di Dartmouth, l'evoluzione dell'IA ha visto l'ascesa e il declino di varie tecniche. Ad esempio, l'attuale rivoluzione del deep learning è in realtà il terzo periodo di relativa popolarità delle reti neurali.
Il primo periodo, dagli anni '40 agli anni '60, iniziò con l'invenzione delle reti neurali da parte di McCullough e Pitts e si estese fino allo sviluppo del percettrone.
Il percettrone era una semplice rete neurale sviluppata da Frank Rosenblatt nel 1957 in grado di adattarsi e apprendere, nonché di eseguire semplici forme di riconoscimento ottico dei caratteri.
Nonostante le loro promettenti capacità, le reti neurali furono di fatto eliminate come campo di ricerca quando Marvin Minsky, uno dei primi sostenitori delle reti neurali, e Seymour Papert pubblicarono il loro libro, Perceptrons, nel 1969.
In esso, hanno descritto in dettaglio i limiti del percettrone di Rosenblatt dimostrando che era incapace di apprendere soluzioni per intere classi di problemi matematici. Il più famoso era la funzione XOR, in cui una rete avrebbe dovuto imparare a produrre il risultato di un "o esclusivo" su due input.
Sebbene in seguito ci si sia resi conto che tale limitazione poteva essere facilmente superata con piccole modifiche, come l'uso di funzioni di soglia non lineari, il libro fu abbastanza persuasivo da eliminare i finanziamenti e l'interesse per gli algoritmi di apprendimento ispirati al cervello.
Il vuoto lasciato dalla scomparsa delle reti neurali è stato colmato da quella che in seguito sarebbe stata definita la buona vecchia IA (GOFAI). Le tecniche che hanno definito la GOFAI erano in gran parte basate sulla logica simbolica. Ciò contrasta con l'elaborazione sub-simbolica di una rete neurale, in cui l'elaborazione è distribuita su molti neuroni o nodi e in cui le rappresentazioni possono essere distribuite e continue.
GOFAI ha utilizzato regole di produzione, come If-Then, e tecniche di ricerca in cui era possibile definire, valutare e confrontare ipotesi sulle azioni e sulle loro conseguenze. Sono stati sviluppati sistemi esperti che hanno cercato di formalizzare le conoscenze degli esperti in materia in rappresentazioni adatte all'elaborazione da parte di computer e algoritmi.
Nonostante il successo della GOFAI, la tendenza verso l'IA simbolica incontrò resistenza con la prima rinascita delle reti neurali alla fine degli anni '70 e negli anni '80. Durante questo periodo, erano conosciute come sistemi connessionisti a causa dei loro sistemi di neuroni ampiamente interconnessi.
Questa rinascita è stata determinata principalmente dall'introduzione di tecniche quali la teoria della risonanza adattiva (ART), una rete neurale biologicamente plausibile e la retropropagazione. Si tratta di un algoritmo di apprendimento che adatta i pesi di una rete neurale artificiale e mostra come sia possibile apprendere facilmente una soluzione al problema XOR.
L'era fu inaugurata con un libro di James McClelland e David Rumelhart intitolato Parallel Distributed Processing: Explorations in the Microstructure of Cognition(Elaborazione distribuita parallela: esplorazioni nella microstruttura della cognizione). Sebbene altamente tecnico, il libro ebbe un grande successo e fu recensito dal New York Times Book Review.
Nonostante questa ritrovata gloria, anche la seconda era di popolarità delle reti neurali ebbe vita breve a causa dei limiti della potenza di calcolo e della scarsità di dati con cui addestrare i modelli.
Di conseguenza, le reti neurali erano limitate a problemi banali, lasciandole nuovamente esposte alle critiche dei sostenitori degli approcci simbolici. Si sarebbe quindi verificato un secondo inverno dell'IA, che sarebbe durato fino all'inizio degli anni 2000.
L'attuale rivoluzione del deep learning ha portato le reti neurali al loro terzo atto. Sviluppi come il modello LSTM (Long Short-Term Memory) sviluppato nel 1997 da Hochreiter e Schmidhuber, così come l'introduzione delle reti di credenze profonde (DBN) da parte di Hinton nel 2006, hanno mostrato come superare alcune limitazioni dei modelli precedenti.
Grazie alla crescente potenza di calcolo e alle unità di elaborazione grafica (GPU), insieme alla disponibilità sempre maggiore di dati, i modelli di deep learning hanno iniziato a registrare miglioramenti significativi nei tassi di errore per le attività comuni di machine learning.
I rapidi progressi compiuti dalle reti neurali nel riconoscimento vocale, nella visione artificiale e nell'elaborazione del linguaggio naturale hanno avuto un impatto di vasta portata. Google, Facebook, Microsoft e altre grandi aziende con un forte interesse nell'elaborazione di dati vocali, immagini e testi hanno iniziato a investire risorse significative nella ricerca e nello sviluppo, accelerando il ritmo di sviluppo dell'IA.

