L'inizio: Friburgo 1983
Quando nel 1983 studiavo Informatica e Psicologia a Friburgo, il mondo dell'intelligenza artificiale era ancora molto diverso. I computer dell'epoca – se si potevano davvero chiamare così – erano macchine ingombranti con memoria limitata e potenza di calcolo minima. Un tipico PC aveva forse 64 KB di RAM, e Internet, come lo conosciamo oggi, non esisteva nemmeno.
Tuttavia, mi immersi intensamente nel tema dell'apprendimento – sia quello umano che quello delle macchine. La domanda centrale che mi preoccupava e che tornava innumerevoli volte nelle discussioni con compagni di corso e professori era: I computer un giorno potranno pensare e risolvere problemi come gli esseri umani?
Questa domanda non era solo accademicamente interessante, ma aveva qualcosa di rivoluzionario. Eravamo all'inizio dell'era dei computer, e le possibilità sembravano illimitate – anche se la realtà era ancora lontana dai sogni.
I pionieri che mi hanno influenzato
Due nomi hanno particolarmente influenzato la mia visione di allora e hanno plasmato la mia comprensione di ciò che l'IA potrebbe essere.
Terry Winograd e il potere del linguaggio
Terry Winograd con il suo rivoluzionario sistema SHRDLU degli anni '70 era per me un faro di possibilità. Anche se SHRDLU operava solo in un semplice mondo di blocchi – un ambiente virtuale con forme geometriche che potevano essere spostate – consentiva interazioni linguistiche sorprendentemente naturali.
Si poteva parlare con SHRDLU: "Prendi il blocco rosso e mettilo sul cubo verde." Il sistema non solo comprendeva l'istruzione, ma poteva anche fare domande di chiarimento: "Quale blocco rosso intendi?" Questo tipo di interazione era rivoluzionario all'epoca e mi mostrò che i computer potrebbero essere in grado di comprendere e rispondere al linguaggio umano.
Allo stesso tempo, il lavoro di Winograd rivelava anche i limiti enormi dell'IA di quel tempo. SHRDLU funzionava solo nel suo piccolo mondo perfettamente definito. Non appena si cercava di applicarlo a problemi reali, il sistema crollava.
Joseph Weizenbaum e le questioni etiche
Joseph Weizenbaum con il suo famoso programma ELIZA – un primo chatbot che simulava conversazioni di psicoterapia – mi aprì gli occhi su una dimensione completamente diversa della ricerca sull'IA. ELIZA era in realtà molto semplice: analizzava gli input dell'utente in base a parole chiave e rispondeva con frasi preprogrammate.
Tuttavia, le persone erano spesso stupite da quanto ELIZA sembrasse "comprensiva". Frasi come "Parlami di tua madre" o "Come ti senti al riguardo?" davano l'impressione di un interlocutore empatico.
Weizenbaum era però allarmato dalle reazioni delle persone al suo programma. Già allora avvertiva delle implicazioni etiche dell'IA e del pericolo che le persone potessero riporre troppa fiducia nelle macchine. La sua critica era profetica: oggi, 40 anni dopo, discutiamo intensamente delle stesse questioni.
La mia conclusione all'epoca: i computer devono "crescere".
Dopo un'intensa riflessione sull'argomento, innumerevoli ore nella biblioteca universitaria e esperimenti con i pochi programmi di intelligenza artificiale disponibili, nel 1983 giunsi a una conclusione chiara: le capacità dei computer dell'epoca non erano sufficienti.
La mia teoria era che i computer dovessero crescere in modo simile agli esseri umani – accumulando esperienze in un ambiente e imparando gradualmente. Immaginavo che un sistema di intelligenza artificiale dovesse iniziare come un bambino: prima imparare concetti semplici, poi comprendere relazioni più complesse, accumulare esperienze, commettere errori e imparare da essi.
L'analogia con l'apprendimento umano
Questa convinzione si basava sul mio studio della psicologia. Gli esseri umani non imparano memorizzando enciclopedie, ma interagendo con il mondo. Un bambino non impara il concetto di "caldo" attraverso una definizione, ma attraverso l'esperienza dolorosa di toccare una piastra calda.
Pensavo che i sistemi di intelligenza artificiale dovessero seguire un percorso simile: anni o decenni di interazione con il mondo fisico e sociale per comprendere le sfumature del pensiero e del comportamento umano. Un processo lento e organico di acquisizione della conoscenza, che richiederebbe generazioni di "bambini AI".
I limiti della tecnologia dell'epoca
Questa valutazione era piuttosto realistica, considerando la tecnologia dell'epoca. I computer degli anni '80 non avevano né la potenza di calcolo né la memoria per eseguire algoritmi di apprendimento complessi. Le reti neurali esistevano teoricamente, ma la loro attuazione pratica era estremamente limitata.
Il Machine Learning si limitava a semplici algoritmi che lavoravano con piccoli set di dati. L'idea di dare a un computer milioni di testi da apprendere era semplicemente impensabile, non solo a causa delle limitazioni tecniche, ma anche perché questi testi non erano affatto disponibili in formato digitale.
Cosa non riuscivo a immaginare
All'epoca mi sembrava semplicemente impensabile che i computer un giorno potessero apprendere in breve tempo da un gigantesco corpus di testi umani. Questa idea superava la mia fantasia per diversi motivi:
Disponibilità dei dati: nel 1983 il World Wide Web non esisteva ancora; la maggior parte delle informazioni era in supporti fisici.
Potenza di calcolo: anche con dati disponibili, mancavano le capacità per elaborarli.
Parallelismo: che una macchina potesse apprendere contemporaneamente da migliaia di fonti contraddiceva la mia comprensione dell'apprendimento all'epoca.
Il test di Turing: da visione a seria verifica
Alan Turing formulò nel 1950 il suo famoso test: una macchina è considerata intelligente se un interrogatore umano in una conversazione testuale non riesce a distinguere se sta comunicando con un essere umano o con una macchina.
La mia scetticismo del 1983
Nel 1983 il test di Turing mi sembrava ancora fantascienza. I sistemi di intelligenza artificiale dell'epoca erano così ovviamente meccanici che l'idea che potessero essere scambiati per umani sembrava assurda. ELIZA poteva condurre conversazioni superficiali convincenti, ma solo in contesti molto limitati. Non appena la conversazione si allontanava dai modelli preprogrammati, l'artificialità del sistema diventava evidente.
All'epoca stimai che ci sarebbero voluti almeno 50-100 anni prima che un computer potesse superare il test di Turing, se mai. La complessità del linguaggio umano, le sfumature della comunicazione, la comprensione del contesto e dell'ironia sembravano ostacoli insormontabili.
La realtà di oggi
Oggi, 40 anni dopo, siamo decisamente più vicini alla visione di Turing, ma non esiste una "vittoria" generalmente accettata. I moderni modelli di linguaggio di grandi dimensioni possono apparire umani in determinati contesti per periodi di tempo limitati; in altri scenari vengono riconosciuti in modo affidabile. La definizione di cosa significhi "superare" varia a seconda del protocollo di test, della durata, della scelta dei temi e dell'expertise dei valutatori. La letteratura accademica seria parla quindi più di ingannabilità parziale o contestuale piuttosto che di un superamento definitivo.
Importante inquadramento sullo stato della ricerca:
Non esiste una "conferma finale" consensuale e sottoposta a peer review che affermi che GPT-4 o i suoi successori abbiano "superato" il test di Turing secondo uno standard generalmente accettato.
Gli studi mostrano che le persone in contesti online hanno a volte difficoltà a distinguere tra uomo e macchina; tuttavia, i risultati dipendono fortemente dal contesto e dalle istruzioni.
In conversazioni più lunghe e ricche di conoscenza, con riferimenti e verifiche di fatti, emergono ancora debolezze.
La strada per arrivarci: cosa è cambiato fondamentalmente
Il progresso non è avvenuto grazie a un'unica invenzione, ma attraverso l'incontro di più sviluppi:
La rivoluzione dei dati
Il web e i progetti di digitalizzazione (ad es. libri scannerizzati, basi di conoscenza aperte) hanno generato corpora di addestramento in dimensioni precedentemente impensabili.
Potenza di calcolo e infrastruttura
GPU/TPU, l'addestramento distribuito e l'infrastruttura cloud hanno reso possibile l'apprendimento massicciamente parallelo.
Architetture e paradigmi di addestramento
I transformer e i regimi di pre-addestramento scalati (più RLHF) hanno reso i modelli linguistici generalizzanti praticamente utilizzabili.
Uno sguardo al futuro
Come qualcuno che nel 1983 sognava che i computer un giorno potessero pensare come gli esseri umani, sono affascinato da quanto questo sogno sia diventato realtà in modo diverso – non come una replica del pensiero, ma come un nuovo insieme di statistica, scalabilità e interazione. La domanda per me non è più "Possono i computer pensare come gli esseri umani?", ma: "Cosa significa per noi se i sistemi agiscono e comunicano in modo competente in un numero sempre maggiore di situazioni?" La risposta non si chiarisce in un grande momento, ma in molte decisioni concrete in cui bilanciamo utilità, rischio e responsabilità.
Bibliografia (verificata)
Fonti primarie e classici
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460. doi:10.1093/mind/LIX.236.433
Winograd, T. (1972). Understanding Natural Language. Cognitive Psychology, 3(1), 1–191.
Weizenbaum, J. (1966). ELIZA—Un programma per computer per lo studio della comunicazione in linguaggio naturale tra uomo e macchina. Communications of the ACM, 9(1), 36–45.
Weizenbaum, J. (1976). Computer Power and Human Reason. W. H. Freeman.
Architetture moderne di IA e scalabilità
Vaswani, A. et al. (2017). Attention Is All You Need. NeurIPS.
Devlin, J. et al. (2019). BERT: Pre-training of Bidirectional Transformers. NAACL.
Brown, T. B. et al. (2020). I modelli linguistici sono apprendisti a pochi colpi (GPT-3). NeurIPS.
Kaplan, J. et al. (2020). Leggi di scala per modelli di linguaggio neurale. arXiv:2001.08361.
Hoffmann, J. et al. (2022). Addestramento di modelli di linguaggio di grandi dimensioni ottimali per il calcolo (Chinchilla). arXiv:2203.15556.
OpenAI (2023). Rapporto tecnico GPT‑4. arXiv:2303.08774.
Valutazioni e riferimento sociale
Floridi, L., & Chiriatti, M. (2020). GPT‑3: La sua natura, ambito, limiti e conseguenze. Minds and Machines.
Bommasani, R. et al. (2021). Sulle opportunità e i rischi dei modelli di base. Stanford CRFM.
Gilardi, F., Alizadeh, M., & Kubli, M. (2023). ChatGPT supera i lavoratori umani per compiti di annotazione del testo. PNAS Nexus.
Jakesch, M., Hancock, J., & Naaman, M. (2023). Risposte umane ai contenuti generati dalle macchine. CHI.
Per inquadrare il "test di Turing" oggi
Hernández‑Orallo, J. (2017). La misura di tutte le menti: valutare l'intelligenza naturale e artificiale. Cambridge University Press.
Harnad, S. (1990). Il problema del grounding simbolico. Physica D.
Mitchell, M. (2023). Intelligenza artificiale: una guida per esseri umani pensanti. Penguin.
Scrivi qui …