Se rendre au contenu

From 1983 to ChatGPT: A Personal Journey

through 40 years of AI development A look back at early AI dreams and the reality of today
23 mars 2026 par
From 1983 to ChatGPT: A Personal Journey
Rolf Schaub
| Aucun commentaire pour l'instant
  • Le début : Fribourg 1983

    Lorsque j'ai étudié l'informatique et la psychologie à Fribourg en 1983, le monde de l'intelligence artificielle était encore très différent. Les ordinateurs de l'époque – si on pouvait vraiment les appeler ainsi – étaient des machines lourdes avec une mémoire limitée et une puissance de calcul minimale. Un PC typique avait peut-être 64 Ko de RAM, et Internet, tel que nous le connaissons aujourd'hui, n'existait même pas.

    Néanmoins, je me suis plongé intensément dans le sujet de l'apprentissage – tant l'apprentissage humain que l'apprentissage machine. La question centrale qui me préoccupait et qui revenait sans cesse dans d'innombrables discussions avec mes camarades et mes professeurs était : Les ordinateurs seront-ils un jour capables de penser et de résoudre des problèmes aussi bien que les humains ?

    Cette question n'était pas seulement académiquement intéressante à l'époque, mais elle avait quelque chose de révolutionnaire. Nous étions au début de l'ère informatique, et les possibilités semblaient illimitées – même si la réalité était encore loin derrière les rêves.

    Les pionniers qui m'ont marqué

    Deux noms ont particulièrement marqué ma vision de l'époque et influencé ma compréhension de ce que l'IA pourrait être.

    Terry Winograd et le pouvoir du langage

    Terry Winograd avec son système révolutionnaire SHRDLU des années 1970 était pour moi un phare de possibilités. Bien que SHRDLU n'opérait que dans un monde de blocs simple – un environnement virtuel avec des formes géométriques pouvant être déplacées – il permettait des interactions linguistiques étonnamment naturelles.

    On pouvait parler avec SHRDLU : « Prends le bloc rouge et mets-le sur le cube vert. » Le système ne comprenait pas seulement l'instruction, mais pouvait aussi poser des questions de clarification : « De quel bloc rouge parles-tu ? » Ce type d'interaction était révolutionnaire à l'époque et m'a montré que les ordinateurs pourraient être capables de comprendre et de réagir à la langue humaine.

    En même temps, le travail de Winograd révélait également les énormes limites de l'IA de l'époque. SHRDLU ne fonctionnait que dans son petit monde parfaitement défini. Dès qu'on essayait de l'appliquer à des problèmes réels, le système s'effondrait.

    Joseph Weizenbaum et les questions éthiques

    Joseph Weizenbaum avec son célèbre programme ELIZA – un des premiers chatbots qui simulait des conversations de psychothérapie – m'a ouvert les yeux sur une toute autre dimension de la recherche en IA. ELIZA était en réalité très simple : elle analysait les entrées de l'utilisateur à la recherche de mots-clés et répondait avec des phrases préprogrammées.

    Néanmoins, les gens étaient souvent stupéfaits de voir à quel point ELIZA semblait « compréhensive ». Des phrases comme « Parlez-moi de votre mère » ou « Comment vous sentez-vous à ce sujet ? » donnaient l'impression d'un partenaire de conversation empathique.

    Cependant, Weizenbaum était alarmé par les réactions des gens face à son programme. Il mettait déjà en garde à l'époque contre les implications éthiques de l'IA et le danger que les gens accordent trop de confiance aux machines. Sa critique était prophétique – aujourd'hui, 40 ans plus tard, nous discutons intensément des mêmes questions.

    Ma conclusion à l'époque : les ordinateurs doivent « grandir ».

    Après une étude approfondie du sujet, d'innombrables heures passées à la bibliothèque universitaire et des expériences avec les quelques programmes d'IA disponibles, je suis arrivé en 1983 à une conclusion claire : la puissance des ordinateurs de l'époque n'était pas suffisante.

    Ma théorie était que les ordinateurs devaient grandir de manière similaire aux humains – accumuler des expériences dans un environnement et apprendre progressivement. Je m'imaginais qu'un système d'IA devait commencer comme un enfant : d'abord apprendre des concepts simples, puis comprendre des relations plus complexes, accumuler des expériences, faire des erreurs et en tirer des leçons.

    L'analogie avec l'apprentissage humain

    Cette conviction était basée sur mes études en psychologie. Les humains n'apprennent pas en mémorisant des encyclopédies, mais par l'interaction avec le monde. Un enfant n'apprend pas le concept de « chaud » par une définition, mais par l'expérience douloureuse de toucher une plaque de cuisson chaude.

    Je pensais que les systèmes d'IA devaient suivre un chemin similaire : des années ou des décennies d'interaction avec le monde physique et social pour comprendre les nuances de la pensée et du comportement humains. Un processus lent et organique d'acquisition de connaissances qui nécessiterait des générations de « enfants IA ».

    Les limites de la technologie de l'époque

    Cette évaluation était tout à fait réaliste, compte tenu de la technologie de l'époque. Les ordinateurs des années 1980 n'avaient ni la puissance de calcul ni la mémoire nécessaires pour exécuter des algorithmes d'apprentissage complexes. Bien que les réseaux neuronaux existaient théoriquement, leur mise en œuvre pratique était extrêmement limitée.

    L'apprentissage automatique se limitait à des algorithmes simples travaillant avec de minuscules ensembles de données. L'idée de donner à un ordinateur des millions de textes à apprendre était tout simplement impensable – non seulement en raison des limitations techniques, mais aussi parce que ces textes n'étaient pas du tout disponibles numériquement.

    Ce que je ne pouvais pas imaginer

    Il m'était alors tout simplement impensable que des ordinateurs puissent un jour apprendre en un temps record à partir d'un gigantesque corpus de textes humains. Cette idée dépassait mon imagination pour plusieurs raisons :

    • Disponibilité des données : En 1983, le World Wide Web n'existait pas encore ; la plupart des informations étaient sur des supports physiques.

    • Puissance de calcul : Même avec des données disponibles, il manquait les capacités pour les traiter.

    • Parallélisme : Qu'une machine puisse apprendre simultanément à partir de milliers de sources contredisait ma compréhension de l'apprentissage à l'époque.

    Le test de Turing : De la vision à l'évaluation sérieuse

    Alan Turing a formulé en 1950 son célèbre test : une machine est considérée comme intelligente si un interrogateur humain ne peut pas distinguer, lors d'une conversation textuelle, s'il communique avec un humain ou une machine.

    Mon scepticisme de 1983

    En 1983, le test de Turing me semblait encore de la science-fiction. Les systèmes d'IA de l'époque étaient si manifestement mécaniques que l'idée qu'ils puissent être pris pour des humains semblait absurde. Bien qu'ELIZA puisse mener des conversations superficiellement convaincantes, c'était seulement dans des contextes très limités. Dès que la conversation s'écartait des modèles préprogrammés, l'artificialité du système devenait évidente.

    J'estimais à l'époque qu'il faudrait au moins 50 à 100 ans avant qu'un ordinateur puisse passer le test de Turing - si tant est que cela soit possible. La complexité du langage humain, les nuances de la communication, la compréhension du contexte et de l'ironie semblaient être des obstacles insurmontables.

    La réalité d'aujourd'hui

    Aujourd'hui, 40 ans plus tard, nous sommes nettement plus proches de la vision de Turing - mais il n'y a pas de « victoire » généralement acceptée. Les modèles de langage modernes peuvent sembler humains dans certains contextes pendant des périodes limitées ; dans d'autres scénarios, ils sont facilement reconnus. La définition de ce qui est considéré comme « réussi » varie selon le protocole de test, la durée, le choix des sujets et l'expertise des évaluateurs. La littérature spécialisée parle donc plutôt de tromperie partielle ou contextuelle que de réussite définitive.

    Important contexte sur l'état de la recherche :

    • Il n'existe pas de « confirmation finale » consensuelle et évaluée par des pairs selon laquelle GPT-4 ou ses successeurs auraient « réussi » le test de Turing selon un standard généralement accepté.

    • Des études montrent que les gens ont parfois du mal à distinguer l'humain de la machine dans des configurations en ligne ; cependant, les résultats dépendent fortement de la configuration et des instructions.

    • Dans des conversations plus longues et riches en connaissances avec des références et des vérifications de faits, des faiblesses continuent d'apparaître.

    Le chemin parcouru : Ce qui a fondamentalement changé

    Le progrès n'est pas venu d'une seule invention, mais de la confluence de plusieurs développements :

    1. La révolution des données

      • Le web et les projets de numérisation (par exemple, des livres numérisés, des bases de connaissances ouvertes) ont généré des corpus d'entraînement à une échelle auparavant inimaginable.

    2. Puissance de calcul et infrastructure

      • Les GPU/TPU, l'entraînement distribué et l'infrastructure cloud ont permis un apprentissage massivement parallèle.

    3. Architectures et paradigmes d'entraînement

      • Les transformateurs et les régimes de pré-entraînement à grande échelle (plus RLHF) ont rendu les modèles de langage généralisants pratiquement utilisables.

    Un regard vers l'avenir

    En tant que personne qui a rêvé en 1983 que les ordinateurs pourraient un jour penser comme des humains, je suis fasciné par la manière dont ce rêve est devenu réalité – non pas en reproduisant la pensée, mais en formant un nouvel ensemble de statistiques, d'échelle et d'interaction. La question n'est plus pour moi « Les ordinateurs peuvent-ils penser comme des humains ? », mais : « Que signifie pour nous le fait que les systèmes agissent et communiquent de manière compétente dans de plus en plus de situations ? » La réponse ne se clarifie pas en un grand moment, mais dans de nombreuses décisions concrètes où nous équilibrons bénéfice, risque et responsabilité.

    Bibliographie (vérifiée)

    Sources primaires et classiques

    • Turing, A. M. (1950). Machines de calcul et intelligence. Esprit, 59(236), 433–460. doi:10.1093/mind/LIX.236.433

    • Winograd, T. (1972). Comprendre le langage naturel. Psychologie cognitive, 3(1), 1–191.

    • Weizenbaum, J. (1966). ELIZA—Un programme informatique pour l'étude de la communication en langage naturel entre l'homme et la machine. Communications of the ACM, 9(1), 36–45.

    • Weizenbaum, J. (1976). La puissance des ordinateurs et la raison humaine. W. H. Freeman.

    Architectures modernes de l'IA et mise à l'échelle

    • Vaswani, A. et al. (2017). L'attention est tout ce dont vous avez besoin. NeurIPS.

    • Devlin, J. et al. (2019). BERT : Pré-entraînement de transformateurs bidirectionnels. NAACL.

    • Brown, T. B. et al. (2020). Les modèles de langage sont des apprenants à peu d'exemples (GPT‑3). NeurIPS.

    • Kaplan, J. et al. (2020). Lois d'échelle pour les modèles de langage neuronaux. arXiv:2001.08361.

    • Hoffmann, J. et al. (2022). Entraînement de modèles de langage de grande taille optimaux en termes de calcul (Chinchilla). arXiv:2203.15556.

    • OpenAI (2023). Rapport technique GPT‑4. arXiv:2303.08774.

    Évaluations et lien avec la société

    • Floridi, L., & Chiriatti, M. (2020). GPT‑3 : Sa nature, son étendue, ses limites et ses conséquences. Minds and Machines.

    • Bommasani, R. et al. (2021). Sur les opportunités et les risques des modèles de base. Stanford CRFM.

    • Gilardi, F., Alizadeh, M., & Kubli, M. (2023). ChatGPT surpasse les travailleurs de foule pour les tâches d'annotation de texte. PNAS Nexus.

    • Jakesch, M., Hancock, J., & Naaman, M. (2023). Réponses humaines au contenu généré par machine. CHI.

    Pour le classement du « test de Turing » aujourd'hui

    • Hernández‑Orallo, J. (2017). La mesure de tous les esprits : Évaluation de l'intelligence naturelle et artificielle. Cambridge University Press.

    • Harnad, S. (1990). Le problème de l'ancrage symbolique. Physica D.

    • Mitchell, M. (2023). Intelligence artificielle : Un guide pour les humains réfléchis. Penguin.

Écrivez ici …

Se connecter pour laisser un commentaire.
Success Factor: People – How to Turn Your Team into AI Pilots
(and why you don't have to go this way alone)