Începutul: Fribourg 1983
Când am studiat informatica și psihologia la Fribourg în 1983, lumea inteligenței artificiale era cu totul diferită. Calculatoarele din acea vreme – dacă le putem numi așa – erau mașini greoaie, cu memorie limitată și putere de calcul minimă. Un PC tipic avea poate 64 KB RAM, iar internetul, așa cum îl cunoaștem astăzi, nici măcar nu exista.
Cu toate acestea, m-am aprofundat intens în tema învățării – atât învățarea umană, cât și învățarea automată. Întrebarea centrală care mă preocupa și care apărea în nenumărate discuții cu colegii și profesorii era: Vor putea calculatoarele într-o zi să gândească și să rezolve probleme la fel de bine ca oamenii?
Această întrebare nu era doar interesantă din punct de vedere academic, ci avea și un caracter revoluționar. Eram la începutul erei computerelor, iar posibilitățile păreau nelimitate – chiar dacă realitatea rămânea mult în urma visurilor.
Pionierii care m-au influențat
Două nume mi-au influențat în mod special perspectiva de atunci și mi-au modelat înțelegerea a ceea ce ar putea fi inteligența artificială.
Terry Winograd și puterea limbajului
Terry Winograd, cu sistemul său revoluționar SHRDLU din anii 1970, a fost pentru mine un far al posibilităților. Deși SHRDLU opera doar într-o lume simplă de cuburi – un mediu virtual cu forme geometrice care puteau fi mutate – a permis interacțiuni lingvistice surprinzător de naturale.
Se putea vorbi cu SHRDLU: „Ia blocul roșu și pune-l pe cubul verde.” Sistemul nu doar că a înțeles instrucțiunea, dar a putut să pună și întrebări de clarificare: „La ce bloc roșu te referi?” Această formă de interacțiune era revoluționară la acea vreme și mi-a arătat că computerele ar putea fi capabile să înțeleagă și să reacționeze la limbajul uman.
În același timp, însă, munca lui Winograd a dezvăluit și limitele enorme ale inteligenței artificiale de atunci. SHRDLU funcționa doar în mica sa lume perfect definită. De îndată ce încercai să-l aplici la probleme reale, sistemul se prăbușea.
Joseph Weizenbaum și întrebările etice
Joseph Weizenbaum cu celebrul său program ELIZA – un chatbot timpuriu care simula conversații de psihoterapie – mi-a deschis ochii pentru o dimensiune complet diferită a cercetării în inteligența artificială. ELIZA era de fapt foarte simplu: analiza intrările utilizatorului după cuvinte cheie și răspundea cu fraze preprogramate.
Cu toate acestea, oamenii erau adesea uimiți de cât de „înțelegător” părea ELIZA. Fraze precum „Spune-mi mai multe despre mama ta” sau „Cum te simți în legătură cu asta?” dădeau impresia unui partener de conversație empatic.
Weizenbaum era însă alarmat de reacțiile oamenilor la programul său. El avertiza deja atunci cu privire la implicațiile etice ale inteligenței artificiale și la pericolul ca oamenii să aibă prea multă încredere în mașini. Critica sa a fost profetică – astăzi, la 40 de ani distanță, discutăm intens despre aceleași întrebări.
Concluzia mea de atunci: computerele trebuie să „crească”
După o analiză intensă a subiectului, nenumărate ore în biblioteca universitară și experimente cu puținele programe de inteligență artificială disponibile, am ajuns în 1983 la o concluzie clară: capacitatea computerelor de atunci nu era suficientă.
Teoria mea era că computerele ar trebui să crească similar cu oamenii – să acumuleze experiențe într-un mediu și să învețe treptat. Mi-am imaginat că un sistem de inteligență artificială ar trebui să înceapă ca un copil: mai întâi să învețe concepte simple, apoi să înțeleagă relații mai complexe, să acumuleze experiențe, să facă greșeli și să învețe din acestea.
Analogia cu învățarea umană
Această convingere se baza pe studiul meu în psihologie. Oamenii nu învață prin memorarea enciclopedii, ci prin interacțiunea cu lumea. Un copil nu învață conceptul de „fierbinte” printr-o definiție, ci prin experiența dureroasă de a atinge o plită fierbinte.
Am crezut că sistemele de inteligență artificială ar trebui să urmeze un drum similar: ani sau decenii de interacțiune cu lumea fizică și socială pentru a înțelege nuanțele gândirii și comportamentului uman. Un proces lent, organic de dobândire a cunoștințelor, care ar necesita generații de „copii AI”.
Limitările tehnologiei de atunci
Această evaluare era destul de realistă, având în vedere tehnologia de atunci. Calculatoarele din anii '80 nu aveau nici puterea de calcul, nici memoria necesară pentru a rula algoritmi de învățare complexi. Rețele neuronale existau teoretic, dar implementarea practică era extrem de limitată.
Învățarea automată se limita la algoritmi simpli care lucrau cu seturi de date mici. Ideea de a oferi unui computer milioane de texte pentru a învăța era pur și simplu de neimaginat – nu doar din cauza limitărilor tehnice, ci și pentru că aceste texte nu erau disponibile digital.
Ce nu îmi puteam imagina
La acea vreme, mi se părea pur și simplu de neconceput că computerele ar putea învăța într-un timp atât de scurt dintr-un corpus gigantic de texte umane. Această idee depășea imaginația mea din mai multe motive:
Disponibilitatea datelor: În 1983, World Wide Web-ul nu exista; cele mai multe informații erau în medii fizice.
Puterea de calcul: Chiar și cu date disponibile, lipseau capacitățile necesare pentru a le procesa.
Paralelism: Faptul că o mașină ar putea învăța simultan din mii de surse contrazicea înțelegerea mea de atunci despre învățare.
Testul Turing: De la viziune la testare serioasă
Alan Turing a formulat în 1950 celebrul său test: O mașină este considerată inteligentă dacă un interogator uman nu poate distinge într-o conversație bazată pe text dacă comunică cu un om sau cu o mașină.
Skepticismul meu din 1983
În 1983, testul Turing mi se părea încă science fiction. Sistemele de inteligență artificială de atunci erau atât de evident mecanice, încât ideea că ar putea fi confundate cu oameni părea absurdă. ELIZA putea purta conversații superficial convingătoare, dar doar în contexte foarte limitate. De îndată ce conversația se abătea de la modelele preprogramate, artificialitatea sistemului devenea evidentă.
Estimam atunci că ar dura cel puțin 50–100 de ani până când un computer ar putea trece testul Turing – dacă ar putea. Complexitatea limbajului uman, nuanțele comunicării, înțelegerea contextului și ironiei păreau a fi obstacole insurmontabile.
Realitatea de astăzi
Astăzi, la 40 de ani distanță, ne-am apropiat semnificativ de viziunea lui Turing – dar nu există o „victorie” acceptată în mod general. Modelele moderne de limbaj de mari dimensiuni pot părea umane în anumite setări pentru perioade limitate; în alte scenarii, ele sunt recunoscute cu fiabilitate. Cum se definește „a fi trecut” variază în funcție de protocolul de testare, durată, alegerea temelor și expertiza evaluatorilor. Literatura de specialitate serioasă vorbește, prin urmare, mai degrabă despre o capacitate parțială sau context-dependentă de a induce în eroare decât despre o trecere definitivă.
Clasificare importantă a stadiului cercetării:
Nu există o „confirmare finală” consensuală, revizuită de colegi, că GPT-4 sau succesorii săi ar fi „trecut” testul Turing în sensul unui standard acceptat în mod general.
Studiile arată că oamenii au uneori dificultăți în a distinge între om și mașină în setările online; rezultatele depind însă foarte mult de setare și instrucțiuni.
În conversații mai lungi, bogate în cunoștințe, cu referințe și verificări de fapte, slăbiciunile continuă să iasă la iveală.
Calea către acolo: Ce s-a schimbat fundamental
Progresul nu a venit printr-o singură invenție, ci prin întâlnirea mai multor dezvoltări:
Revoluția datelor
Web-ul și proiectele de digitalizare (de exemplu, cărți scanate, baze de cunoștințe deschise) au generat corpuri de antrenament într-o amploare inimaginabilă anterior.
Puterea de calcul și infrastructura
GPU-uri/TPU-uri, antrenament distribuit și infrastructura cloud au permis învățarea masiv-paralelă.
Arhitecturi și paradigme de antrenament
Transformerele și regimurile de pre-antrenament scalate (plus RLHF) au făcut modelele de limbaj generalizatoare practic utilizabile.
O privire spre viitor
Ca cineva care în 1983 visa că computerele ar putea gândi ca oamenii, mă fascinează cât de diferit a devenit acest vis realitate – nu ca o replicare a gândirii, ci ca un nou pachet de statistică, scalare și interacțiune. Întrebarea pentru mine nu mai este „Pot computerele să gândească ca oamenii?”, ci: „Ce înseamnă pentru noi când sistemele acționează și comunică competent în tot mai multe situații?” Răspunsul nu se clarifică într-un mare moment, ci în multe decizii concrete, în care echilibrăm beneficiul, riscul și responsabilitatea.
Bibliografie (verificată)
Surse primare și clasice
Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460. doi:10.1093/mind/LIX.236.433
Winograd, T. (1972). Înțelegerea limbajului natural. Psihologia cognitivă, 3(1), 1–191.
Weizenbaum, J. (1966). ELIZA—Un program de calculator pentru studiul comunicării în limbaj natural între om și mașină. Comunicațiile ACM, 9(1), 36–45.
Weizenbaum, J. (1976). Puterea computerului și rațiunea umană. W. H. Freeman.
Arhitecturi moderne de IA și scalare
Vaswani, A. et al. (2017). Atenția este tot ce ai nevoie. NeurIPS.
Devlin, J. et al. (2019). BERT: Pre-antrenarea transformatoarelor bidirecționale. NAACL.
Brown, T. B. et al. (2020). Modelele de limbaj sunt învățători cu puține exemple (GPT‑3). NeurIPS.
Kaplan, J. et al. (2020). Legile scalării pentru modelele neuronale de limbaj. arXiv:2001.08361.
Hoffmann, J. et al. (2022). Antrenarea modelelor mari de limbaj optimizate pentru calcul (Chinchilla). arXiv:2203.15556.
OpenAI (2023). Raport tehnic GPT‑4. arXiv:2303.08774.
Evaluări și legătura cu societatea
Floridi, L., & Chiriatti, M. (2020). GPT‑3: Natura, domeniul, limitele și consecințele sale. Minds and Machines.
Bommasani, R. et al. (2021). Despre oportunitățile și riscurile modelelor fundamentale. Stanford CRFM.
Gilardi, F., Alizadeh, M., & Kubli, M. (2023). ChatGPT depășește lucrătorii umani în sarcinile de anotare a textului. PNAS Nexus.
Jakesch, M., Hancock, J., & Naaman, M. (2023). Răspunsurile umane la conținutul generat de mașini. CHI.
Pentru clasificarea „Testului Turing” astăzi
Hernández‑Orallo, J. (2017). Măsura tuturor minților: Evaluarea inteligenței naturale și artificiale. Cambridge University Press.
Harnad, S. (1990). Problema fundamentării simbolurilor. Physica D.
Mitchell, M. (2023). Inteligența artificială: Un ghid pentru oameni gânditori. Penguin.
Aici scrieți …