L’odyssée de l’Intelligence Artificielle,
une épopée qui ne date pas d’hier

1 Jour, 1 IA – Prologue 

L’intelligence artificielle est sur toutes les lèvres, une révolution qui semble avoir surgi de nulle part pour redéfinir notre quotidien. Au fil de cette série, « 1 Jour, 1 IA », nous dresserons le portrait de ces nouvelles intelligences qui peuplent désormais notre monde. Mais avant de nous plonger dans le présent et le futur, un détour par le passé s’impose.

Pour comprendre ce que sont ces IA, il faut savoir d’où elles viennent.
Et si je vous disais que cette technologie, qui nous paraît si futuriste, est en réalité l’aboutissement d’un rêve millénaire, une quête aussi vieille que nos mythes anciens ? L’intelligence artificielle, une nouveauté ? Pas vraiment. Vous trouvez ça étonnant ? Et bien dans ce cas, laissez-moi vous raconter une histoire.

Introduction : Le rêve millénaire

2022. Le monde retient son souffle. L’émergence soudaine tout autant que spectaculaire d’intelligences artificielles génératives comme ChatGPT a donné l’impression d’un tsunami technologique planétaire, une vague immense et imprévisible qui s’abat et qui remodèle les rivages de notre réalité (amis de la poésie bonjour). Du jour au lendemain, la machine est capable de parler, d’écrire, de créer, avec une aisance … déconcertante. Pour beaucoup, ce fut un choc, la naissance d’une ère nouvelle et vertigineuse. Pourtant, cette vague n’est pas née d’une tempête soudaine. Elle est la crête majestueuse d’un courant profond et puissant qui traverse les siècles, nourri par l’un des rêves les plus anciens et les plus persistants de l’humanité : celui de donner la vie à l’inerte, d’insuffler la pensée à la matière.

Cette quête ne commence pas dans les laboratoires de la Silicon Valley1 comme on pourrait le penser de prime abord, mais dans les mythes fondateurs de notre civilisation. Envolons-nous du côté de la Crète antique et de ses côtes balayées par les vents de la mer Égée. Pour la protéger des envahisseurs, le dieu forgeron Héphaïstos ne bâtit pas une forteresse, mais conçoit une créature. Son nom est Talos. Ce n’est pas un homme de chair et de sang, mais un géant de bronze, un automate programmé avec une directive claire et immuable : faire trois fois par jour le tour de l’île et repousser les navires ennemis en leur lançant d’énormes rochers. Talos n’est pas une simple statue ; il est une conception primitive de ce que nous appellerions aujourd’hui un agent autonome.

Kitcreanet héphaïstos forgeant talos
Héphaïstos forgeant le Géant Talos – Image créée par Gemini

L’histoire de Talos nous enseigne que l’idée d’une machine capable de se mouvoir, d’interagir avec son environnement et d’exécuter en quelque sorte un programme, n’est pas une invention du XXe siècle, mais un récit fondamental gravé dans l’imaginaire occidental.

Si le mythe a posé le rêve, l’histoire l’a rendu tangible. Faisons un bond de plusieurs siècles jusqu’à l’âge d’or de l’Islam, au cœur du XIIe siècle à la rencontre d’un homme qui est souvent considéré comme le père de la robotique. Un polymathe2 et ingénieur de génie, Al-Jazari, consigne ses inventions dans un manuscrit éblouissant : Le Livre de la connaissance des procédés mécaniques. Loin d’être de simples curiosités, ses créations sont des merveilles d’ingénierie, des automates humanoïdes conçus pour des tâches pratiques ou pour le divertissement des cours royales. Son invention la plus stupéfiante est sans doute son orchestre flottant. Imaginez une barque sur un lac, transportant quatre musiciens mécaniques — deux batteurs, un harpiste et un flûtiste — qui jouent de la musique pour les invités du sultan. Le génie d’Al-Jazari réside dans le mécanisme de programmation de cet orchestre. Des chevilles (ou cames) placées sur un cylindre rotatif actionnent des leviers qui frappent les percussions. En déplaçant ces chevilles, on pouvait changer le rythme et la mélodie jouée par les batteurs. Ce dispositif est un ancêtre direct et concret de la programmation informatique, une démonstration que l’ambition de créer des machines autonomes et programmables a quitté le domaine du mythe pour entrer dans celui de la science bien avant que nous n’ayons même les mots pour la nommer.

Kitcreanet al jazari
Représentation de Al-Jazari montrant ses automates – Image créée par Gemini

Cette quête immémoriale, de Talos à Al-Jazari, forme le prologue de notre histoire. Elle nous révèle que la poursuite contemporaine de l’intelligence artificielle n’est pas une simple aventure scientifique moderne, mais la continuation technologique d’une impulsion humaine intemporelle et universelle. C’est l’histoire de ce long cheminement, de cette épopée méconnue, que je vais maintenant vous raconter.

Chapitre 1 : La Genèse
Les architectes de la pensée (1940-1956)

L’épopée de l’intelligence artificielle, après avoir sommeillé pendant des siècles dans les limbes de la mécanique et de la philosophie, trouve son véritable point de départ au milieu du XXe siècle. Une poignée de penseurs visionnaires, armés des nouveaux outils de la logique mathématique et de l’informatique naissante, vont transformer un rêve ancien en un véritable champ de recherche scientifique.

Le prophète de l’âge numérique : Alan Turing

Au cœur de cette genèse se trouve une figure aussi brillante qu’insaisissable : Alan Turing. Loin de l’image austère du scientifique, Turing était un homme timide, à l’excentricité attachante et à l’indépendance d’esprit farouche, dont la vie fut aussi tragique que son œuvre fut fondatrice. Son héritage ne se limite pas à son rôle crucial dans le déchiffrement des codes nazis pendant la Seconde Guerre mondiale ; il est avant tout une sorte de prophète qui a posé la pierre angulaire philosophique de tout le domaine.

En 1950, il publie un article qui va changer le cours de l’histoire : Computing Machinery and Intelligence. Cet article n’est pas un simple traité technique, c’est un acte révolutionnaire. Turing y accomplit un coup de génie conceptuel. Conscient que la question « Les machines peuvent-elles penser? » est un bourbier philosophique sans fond, il la reformule en une proposition élégante et testable : le « Jeu de l’Imitation ». Le but n’est plus de définir l’insaisissable concept de la « pensée », mais d’évaluer si une machine peut générer une capacité cognitive humaine de manière si convaincante qu’un observateur humain ne pourrait la distinguer d’une vraie personne.

Turing était incroyablement en avance sur son temps. Il a anticipé et démonté, une par une, les neuf principales objections à son idée. Par exemple, à l’argument religieux qu’une machine ne peut penser car elle n’a pas d’âme, il répondait : « nous ne faisons qu’offrir des demeures aux âmes que Dieu crée ». Face à l’idée qu’une machine ne peut ressentir d’émotions, il expliquait très clairement notre propre résistance à une intelligence non biologique.

Il a même prédit qu’en 50 ans, il ne sera plus possible de faire la différence entre les réponses d’un humain et celles d’un ordinateur, une prophétie qui, avec le recul, semble presque modeste. 

Dans son article fondateur de 1950, « Computing Machinery and Intelligence », Alan Turing ne se contente pas de proposer son célèbre test (qu’il appelait le « Jeu de l’Imitation »). Il anticipe avec une clarté remarquable les critiques que l’on pourrait formuler contre l’idée qu’une machine puisse « penser ».

Il les a listées et réfutées une par une. Voici ces neuf objections, souvent citées comme une preuve de sa vision complète du sujet.


Les 9 objections anticipées par Alan Turing :

  1. L’Objection Théologique
    • L’argument : Penser est une fonction de l’âme immortelle de l’homme. Dieu a donné une âme à l’homme, mais pas aux machines. Donc, une machine ne peut pas penser.
    • La réponse de Turing : Il écarte cet argument en se demandant pourquoi Dieu ne pourrait pas, s’il le souhaitait, donner une âme à une machine. Il ajoute que créer des machines pensantes ne serait pas usurper le pouvoir de Dieu, pas plus que la procréation ne l’est.
  2. L’Objection de « la tête dans le sable »
    • L’argument : « Les conséquences de machines qui pensent seraient trop effrayantes. Espérons et croyons qu’elles ne peuvent pas le faire ! »
    • La réponse de Turing : Il qualifie cette position de peu convaincante. Le fait que les conséquences nous déplaisent ne change rien à la réalité de ce qui est possible ou non. C’est un argument basé sur la peur, pas sur la logique.
  3. L’Objection Mathématique
    • L’argument : Des théorèmes logiques, comme le théorème d’incomplétude de Gödel, montrent qu’il y a des limites à ce que peut faire un système formel (comme un ordinateur). Il y aurait donc toujours des questions auxquelles une machine ne pourrait répondre, mais un humain si.
    • La réponse de Turing : Il admet que les machines ont des limitations, mais il souligne que les humains se trompent aussi constamment et que rien ne prouve que l’intelligence humaine ne soit pas soumise à des limitations similaires.
  4. L’Argument de la Conscience
    • L’argument : Une machine ne peut pas être consciente. Elle ne peut pas ressentir d’émotions, de plaisir, de peine, ni écrire un poème ou composer une symphonie parce qu’elle n’a pas de vie intérieure.
    • La réponse de Turing : C’est l’argument le plus difficile à contrer. Il le retourne en demandant : « Comment savoir si une autre personne est consciente ? ». Nous ne pouvons qu’observer son comportement et en déduire un état intérieur. Si une machine se comporte de manière indiscernable d’une personne consciente, nous devrions logiquement lui accorder le bénéfice du doute.
  5. L’Argument des incapacités diverses (Arguments from Various Disabilities)
    • L’argument : C’est un fourre-tout pour des affirmations du type : « Une machine ne pourra jamais faire telle chose ou telle chose… » : être gentil, avoir de l’humour, tomber amoureux, faire des erreurs, apprendre de ses expériences, etc.
    • La réponse de Turing : Il explique que ces affirmations sont souvent basées sur une vision limitée des machines de son époque. Il soutient que des ordinateurs avec une grande capacité de stockage et de programmation pourraient, en théorie, être programmés pour simuler ou même réaliser toutes ces choses.
  6. L’Objection de Lady Lovelace
    • L’argument : Ada Lovelace, une pionnière de l’informatique, a écrit que la machine analytique (un ancêtre de l’ordinateur) « n’a aucune prétention à créer quoi que ce soit. Elle peut faire ce que nous savons lui ordonner d’exécuter. » En bref, une machine n’est pas originale.
    • La réponse de Turing : Il concède qu’une machine peut nous surprendre. Même si elle suit ses instructions, les conséquences de ces instructions peuvent être totalement inattendues pour son programmateur. C’est en ce sens qu’elle peut faire preuve d’une forme d’originalité.
  7. L’Argument de la Continuité du Système Nerveux
    • L’argument : Le système nerveux n’est pas une machine à états discrets (comme un ordinateur digital qui fonctionne avec des 0 et des 1). C’est un système continu, et on ne peut donc pas le simuler avec un système discret.
    • La réponse de Turing : Il répond que la machine du « Jeu de l’Imitation » peut tout à fait donner des réponses qui seraient indiscernables d’un système continu. L’interrogateur ne pourrait pas faire la différence.
  8. L’Argument du Comportement Informel (Informality of Behaviour)
    • L’argument : Il est impossible de créer un ensemble de règles qui dicterait tout le comportement d’un être humain. La vie est trop complexe. Si les humains ne suivent pas un ensemble de règles fixes, et que les machines si, alors les machines ne peuvent pas être comme les humains.
    • La réponse de Turing : Il distingue les « règles de conduite » (ce qu’on doit faire) des « lois du comportement » (ce qui nous fait agir). Nous ne connaissons peut-être pas les lois qui régissent notre comportement, mais cela ne veut pas dire qu’il n’y en a pas.
  9. L’Argument de la Perception Extra-Sensorielle
    • L’argument : C’est l’objection la plus étrange. Turing prend au sérieux la télépathie et autres phénomènes paranormaux. Si un humain peut lire dans les pensées de l’interrogateur, il aura un avantage que la machine n’a pas.
    • La réponse de Turing : Il conclut que si ces phénomènes existent, il faudrait simplement placer les concurrents dans une « pièce à l’épreuve de la télépathie » pour que le test reste valide.

Cette liste montre à quel point sa réflexion était profonde, couvrant des aspects philosophiques, mathématiques, psychologiques et même paranormaux.


Kitcreanet alan turing
Alan Turing travaillant à la conception de sa machine – Image créée avec Gemini

— Petit aparté rapide, si vous n’avez pas vu le film qui retrace la vie d’Alan Turing, IMITATION GAME, courez le voir ! — 

Les premières étincelles : construire le cerveau, pièce par pièce

Pendant que Turing pose les fondations philosophiques, d’autres s’attèlent à construire les premières briques matérielles de la pensée artificielle. Le récit passe de la théorie à la pratique en 1943, lorsque le neurophysiologiste Warren McCulloch et le logicien Walter Pitts publient leur article fondateur, « Un Calcul Logique des Idées Inhérentes à l’Activité Nerveuse »  (« A Logical Calculus of Ideas Immanent in Nervous Activity« ). Ils y présentent le premier modèle mathématique d’un neurone biologique : le neurone formel. C’est l’« Adam » des réseaux de neurones artificiels. Ce modèle simple, une unité binaire qui reçoit des entrées et produit une sortie de 0 ou 1, est la première tentative de traduire un processus biologique complexe en un langage que les machines peuvent comprendre. Plus important encore, à eux deux ils démontrent qu’un réseau de ces neurones formels possède la même puissance de calcul qu’une machine de Turing universelle, prouvant ainsi qu’en principe, un assemblage de ces simples unités pouvait accomplir n’importe quelle tâche logique.

Cependant, il manque une pièce cruciale au puzzle : comment ces réseaux peuvent-ils apprendre ? La réponse viendra en 1949 du psychologue canadien Donald Hebb. Dans son livre “L’organisation du comportement” (“The Organization of Behaviour”), il formule une théorie qui deviendra la pierre angulaire de l’apprentissage automatique : la règle d’apprentissage hebbien3. Son postulat est d’une simplicité désarmante mais d’une puissance immense : lorsque deux neurones sont actifs en même temps, la connexion qui les relie se renforce. Autrement dit, « les neurones qui s’activent ensemble se lient ensemble ». Ce principe fournissait enfin un mécanisme plausible pour l’apprentissage et la mémoire, un moyen pour le réseau de s’adapter et de se modifier en fonction de son expérience. Le rêve d’une machine qui apprend n’était plus une simple spéculation.

L’été des génies : La conférence de Dartmouth de 1956

L’été 1956 marque le baptême officiel de l’intelligence artificielle. Loin des symposiums formels et guindés, l’événement qui se tient au Dartmouth College, dans le New Hampshire, ressemble davantage à un « camp d’été pour génies ». Pendant huit semaines, une vingtaine des esprits les plus brillants de l’époque se réunissent pour une session de brainstorming prolongée et libre, un événement que l’on décrira plus tard comme le « Big Bang mythique de l’IA ».

Kitcreanet conference dartmouth
Conférence de Dartmouth 1956 – Image créée par Gemini

À l’origine de cette rencontre se trouvent deux jeunes chercheurs ambitieux. Le premier, John McCarthy, alors jeune professeur de mathématiques à Dartmouth, est frustré par le manque de vision et d’ambition du domaine naissant des « machines pensantes ». C’est lui qui, dans sa proposition de financement à la Fondation Rockefeller, va stratégiquement forger un nouveau nom pour ce champ de recherche. Il choisit l’expression « Intelligence Artificielle », un terme volontairement neutre qui permet de se démarquer de la cybernétique, alors dominée par la figure imposante de Norbert Wiener, et de la théorie plus étroite des automates. Le second est le polymathe Marvin Minsky, un esprit curieux et « merveilleusement enfantin », qui deviendra l’un des plus grands mentors et une source d’énergie inépuisable pour la recherche en IA pendant des décennies. 

L’atmosphère à Dartmouth est électrique, chargée d’un optimisme presque naïf. Les participants, parmi lesquels figurent des sommités comme Claude Shannon, le père de la théorie de l’information, sont convaincus de pouvoir réaliser des avancées significatives, voire de résoudre le problème de l’intelligence machine, en un seul été. Leur projet repose sur une conjecture audacieuse, qui deviendra le credo fondateur de l’IA : « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit avec une précision telle qu’une machine peut être conçue pour le simuler ». C’est la déclaration d’indépendance du domaine de l’intelligence artificielle.

Malgré des discussions parfois décousues où chacun défend ses propres idées avec acharnement, la conférence est le théâtre de démonstrations capitales. Allen Newell et Herbert Simon y présentent leur programme, le Logic Theorist, capable de prouver des théorèmes mathématiques, tandis que McCarthy expose le principe de l’élagage alpha-bêta, un algorithme fondamental pour les jeux et la résolution de problèmes.  Cet été-là, l’intelligence artificielle n’a pas seulement trouvé un nom ; elle a trouvé une communauté, une ambition et une feuille de route. L’ADN du domaine s’est ainsi formé, un mélange unique d’optimisme démesuré, d’ambition intellectuelle vertigineuse et de visions philosophiques déjà concurrentes, qui allaient façonner son histoire mouvementée pour les décennies à venir.

Chapitre 2 : L’Âge d’Or et le Premier Hiver
Promesses et Désillusions (1960-1980s)

Après l’effervescence fondatrice de Dartmouth, l’intelligence artificielle entre dans une phase de jeunesse tumultueuse, marquée par des promesses spectaculaires, des succès concrets, mais aussi par une première et douloureuse confrontation avec la réalité. Cette période de cycles rapides d’enthousiasme et de déception va forger le caractère résilient du domaine de l’intelligence artificielle.

La promesse aveuglante du Perceptron

L’un des premiers héros de cette nouvelle ère est le Perceptron, inventé en 1957 par le psychologue Frank Rosenblatt au laboratoire de Cornell. C’était la première machine conçue pour apprendre par l’expérience, une incarnation physique des idées de Hebb.  Le Perceptron a immédiatement déclenché une vague d’enthousiasme médiatique sans précédent. En juillet 1958, lors d’une conférence de presse orchestrée par la marine américaine qui finançait le projet, les superlatifs pleuvent. Le New York Times rapporte que cet « embryon d’ordinateur électronique » est attendu pour pouvoir un jour « marcher, parler, voir, écrire, se reproduire et même être conscient de sa propre existence ». Rosenblatt lui-même déclare que sa machine est le premier appareil « capable d’avoir une idée originale ».

La réalité, bien sûr, était plus modeste. Le Perceptron était un réseau de neurones à une seule couche. Lors de sa démonstration la plus célèbre, il a simplement appris, après une cinquantaine d’essais, à faire la différence entre des cartes perforées marquées à gauche et celles marquées à droite. Entendons-nous bien, c’était une prouesse remarquable pour l’époque, mais bien loin de la conscience promise. Le Perceptron, malgré sa simplicité, contenait en germe les principes fondamentaux de l’apprentissage automatique moderne. Cependant, son incapacité à résoudre des problèmes logiques simples comme le « OU exclusif » (XOR) et les promesses démesurées qui l’entouraient allaient semer les graines de la future désillusion.

L’IA trouve un emploi : L’ascension des Systèmes Experts

Alors que l’approche connexionniste du Perceptron montrait ses limites, une autre branche de l’IA, plus symbolique et logique, connaissait son heure de gloire. Dans les années 1970, sous l’impulsion de chercheurs comme Edward Feigenbaum à Stanford, les premiers systèmes experts voient le jour. L’idée était aussi pragmatique que brillante : plutôt que de chercher à recréer l’intelligence humaine dans sa globalité, on allait se concentrer sur la capture et la codification des connaissances d’un expert humain dans un domaine très précis.

Ces programmes étaient conçus pour imiter le processus de raisonnement d’un spécialiste. On leur fournissait une base de connaissances — un ensemble de faits et de règles (par exemple, « si le patient a tel symptôme ET tel résultat d’analyse, ALORS il est probable qu’il ait telle maladie ») — et un « moteur d’inférence » capable d’appliquer ces règles pour résoudre un problème. Des systèmes comme MYCIN4 , développé pour diagnostiquer les infections bactériennes et recommander des antibiotiques, ont démontré une performance égale, voire supérieure, à celle des médecins humains. Pour la première fois, l’IA quittait les laboratoires de recherche pour devenir un outil puissant et commercialement viable, capable d’apporter une valeur concrète dans des domaines aussi critiques que la médecine, la finance ou l’ingénierie.

Le long et froid hiver

Malgré le succès des systèmes experts, le champ de l’IA dans son ensemble se dirigeait vers une crise. Les promesses extravagantes des années 1950 et 1960 n’avaient pas été tenues. Les ordinateurs de l’époque manquaient cruellement de puissance pour faire tourner les algorithmes complexes imaginés par les chercheurs. Le passage des « micromondes » virtuels, où les premières IA avaient fait leurs preuves, aux problèmes complexes et désordonnés du monde réel s’avérait bien plus difficile que prévu.

Le couperet tombe au milieu des années 1970. En 1973, un rapport très critique du mathématicien Sir James Lighthill pour le gouvernement britannique conclut à l’échec de la recherche en IA à produire des résultats concrets et significatifs. Ce rapport, ainsi que des pressions politiques similaires aux États-Unis, conduit à des coupes drastiques dans les financements publics. C’est le début du « premier hiver de l’IA », une période de stagnation qui durera jusqu’au début des années 1980. L’enthousiasme retombe, les investissements se tarissent et le terme « intelligence artificielle » devient presque tabou dans certaines communautés scientifiques.

La renaissance résiliente

Pourtant, même pendant cet hiver, les braises de l’innovation continuaient de couver. La renaissance survient dans les années 1980, portée par l’explosion commerciale des systèmes experts. Le marché décolle : en 1985, 150 entreprises investissent collectivement un milliard de dollars dans des départements d’IA internes. Des sociétés spécialisées essaiment depuis les grandes universités, créant une véritable « Allée de l’IA » (AI Alley) autour du MIT à Cambridge.

Mais le progrès le plus significatif de cette période se déroulait plus discrètement. Alors que l’IA symbolique triomphait, des chercheurs continuaient d’explorer l’approche connexionniste, héritière du Perceptron. Des avancées cruciales comme l’algorithme de rétropropagation du gradient (backpropagation) permettaient enfin d’entraîner efficacement des réseaux de neurones à plusieurs couches.

C’est dans ce contexte qu’en 1989, un chercheur français du nom de Yann LeCun, inspiré par le fonctionnement du cortex visuel des animaux, met au point le premier réseau de neurones convolutifs (CNN) capable de reconnaître des chiffres écrits à la main. Cette invention était une percée fondamentale, mais elle était, comme le Perceptron avant elle, en avance sur son temps. La puissance de calcul nécessaire pour exploiter pleinement son potentiel n’existait tout simplement pas encore. L’idée allait donc entrer dans une longue période de dormance, attendant patiemment son heure. Cette histoire stratifiée, où des idées prometteuses peuvent rester en sommeil pendant des décennies avant de resurgir pour tout changer, est l’une des leçons les plus profondes de l’odyssée de l’IA. Elle nous montre que le progrès scientifique n’est pas une ligne droite, mais un chemin sinueux, fait de résilience, de détours et de révolutions silencieuses dont les graines sont plantées bien avant qu’elles ne germent.

Chapitre 3 : Les arènes de l’esprit
L’homme contre la machine

Au cours de son histoire, l’intelligence artificielle a quitté les pages des publications scientifiques pour s’incarner dans des confrontations spectaculaires, des duels qui ont captivé l’imagination du monde entier. Ces matchs, plus que de simples compétitions, sont devenus des rites de passage, des moments de vérité où l’humanité a pu mesurer les progrès de sa propre création et redéfinir sa relation avec elle.

Partie I : Le roi et le Léviathan5 (1997 – Deep Blue vs. Kasparov)

En mai 1997, le monde a les yeux rivés sur New York. L’atmosphère est celle des grands combats. Dans un coin, Garry Kasparov, champion du monde d’échecs en titre, considéré par beaucoup comme le plus grand joueur de tous les temps, un symbole du génie stratégique et de l’intuition humaine. Dans l’autre, Deep Blue, un supercalculateur d’IBM pesant 1,4 tonne, une machine colossale capable d’évaluer 200 millions de positions par seconde. Pour les médias, l’enjeu est biblique : c’est « le dernier combat du cerveau », l’humanité face à la machine.

Le drame qui se joue est avant tout psychologique, centré sur la figure de Kasparov. La défaite, lorsqu’elle survient, est un choc brutal. Kasparov la décrira lui-même plus tard comme « physiquement douloureuse ». La sixième et dernière partie du match est un calvaire : une défaite écrasante en seulement 19 coups, en à peine plus d’une heure. L’humiliation est totale. Dans un premier temps, la réaction de Kasparov est celle d’un homme blessé et méfiant. Il accuse IBM d’avoir triché, suggérant qu’un grand maître humain aurait secrètement guidé les coups les plus dévastateurs de la machine, une accusation qui manque pas de mettre les ingénieurs d’IBM en colère.

Pourtant, le véritable génie de Kasparov ne s’est peut-être pas exprimé sur l’échiquier ce jour-là, mais dans les années qui ont suivi. Sa réflexion sur cette défaite est une métamorphose intellectuelle. Il passe de la perception d’une « malédiction » à celle d’une « bénédiction ». Il comprend qu’il a été le témoin privilégié d’un moment historique unique. Progressivement, il démystifie son adversaire. Il réalise que Deep Blue n’est pas une « intelligence » au sens humain du terme. Sa force réside dans sa puissance de calcul brute, pas dans une forme de cognition ou de créativité. Dans une formule devenue célèbre, il déclare que Deep Blue était « aussi intelligent que votre réveil matin », un réveil très cher et très puissant, mais un réveil tout de même.

De cette compréhension naît une vision prophétique. Au lieu de s’enfermer dans une posture de rivalité, Kasparov imagine un avenir de collaboration. Il invente le « Centaur Chess » ou « Advanced Chess », un nouveau mode de jeu où des joueurs humains font équipe avec des ordinateurs. L’idée est d’associer l’intuition et la vision stratégique à long terme de l’humain à la puissance de calcul tactique et à l’absence d’erreurs de la machine. Il découvre alors une loi fascinante : un joueur plus faible avec une machine plus ancienne peut battre un joueur plus fort avec une machine plus rapide, si le premier sait comment créer la meilleure synergie. En transformant une défaite personnelle en un nouveau paradigme de partenariat homme-machine, Kasparov a montré la voie : l’avenir de l’intelligence n’était pas dans la confrontation, mais dans l’augmentation.

Kitcreanet kasparov
Représentation de Garry Kasparov face à Deep Blue – Image créée par ChatGPT.

Partie II : Le maître et le coup divin (2016 – AlphaGo vs. Lee Sedol)

Près de vingt ans plus tard, l’arène change, mais l’enjeu semble encore plus grand. Le nouveau champ de bataille est le goban, le plateau du jeu de go. Si les échecs sont un océan de complexité, le go est un univers. Le nombre de configurations possibles sur un goban dépasse le nombre d’atomes dans l’univers connu. Pendant des décennies, le go a été considéré comme le bastion imprenable de l’intelligence humaine, un jeu reposant sur une « sensation » et une intuition esthétique qu’aucune machine ne semblait pouvoir maîtriser.

En mars 2016, à Séoul, le programme AlphaGo de la société DeepMind (rachetée par Google) affronte Lee Sedol, une légende vivante du go, un joueur au style créatif et agressif, détenteur de 18 titres mondiaux. Lee Sedol aborde le match avec une confiance absolue, s’attendant à une victoire facile. Ce qui va suivre est un séisme qui va secouer le monde du jeu de go et de la technologie.

Le moment le plus emblématique de ce duel survient lors de la deuxième partie. Au 37ème coup, AlphaGo joue un coup si étrange, si inattendu, qu’il laisse les commentateurs professionnels pantois. C’est un coup sur la cinquième ligne, une zone du plateau que la sagesse millénaire du go considère comme moins intéressante en début de partie. La probabilité qu’un joueur humain joue ce coup à ce moment-là est estimée à 1 sur 10 000. Les experts pensent d’abord à une erreur de la machine. Lee Sedol, visiblement décontenancé, met plus de 12 minutes à réagir. Mais ce n’était pas une erreur. C’était un coup de génie, une nouvelle forme de stratégie, belle et efficace, que des siècles de pratique humaine n’avaient jamais découverte. Le coup 37 a révélé qu’AlphaGo n’était pas simplement en train de reproduire le jeu humain ; il était en train de le réinventer.

L’atmosphère de ce match est radicalement différente de celle du duel Kasparov-Deep Blue. Ici, pas de triomphalisme guerrier. Même au sein de l’équipe de DeepMind, la victoire a un goût amer. Une profonde tristesse et une forme d’ambivalence envahissent la salle. Un membre de l’équipe avouera : « Je ne pouvais pas célébrer. C’était fantastique que nous ayons gagné. Mais une grande partie de moi voyait cet homme qui essayait si fort et qui était si déçu… ». La victoire de la machine ne fut pas ressentie comme une victoire pour l’humanité.

Pourtant, l’humanité allait avoir son moment de gloire. Acculé, mené 3-0, Lee Sedol joue la quatrième partie pour l’honneur. Et c’est là qu’il produit un instant de pure magie. Au 78ème coup, il joue un coup d’une créativité fulgurante, une pierre placée au cœur du territoire d’AlphaGo, un coup que les commentateurs qualifieront de « divin » (God’s Touch). Ce coup était tout aussi improbable que le coup 37 d’AlphaGo. Il a exploité une faille, un angle mort dans la logique de la machine, la plongeant dans une telle confusion qu’elle a commencé à commettre une série d’erreurs grossières avant de finalement s’incliner. La salle explose d’applaudissements, célébrant le triomphe de l’esprit humain. Lee Sedol perdra le match 4-1, mais il restera à jamais le seul être humain à avoir vaincu cette version d’AlphaGo.

Kitcreanet alphago
Représentation de Lee Sedol face à AlphaGo – Image créée par ChatGPT.

Ces deux duels iconiques racontent une évolution. Le match de Kasparov nous a appris que la machine pouvait nous surpasser en calcul, et qu’il fallait l’accepter comme un outil. Le match de Lee Sedol nous a montré que la machine pouvait aussi nous dépasser en créativité, mais que cette créativité « extraterrestre » pouvait, en retour, devenir une source d’inspiration pour élever notre propre jeu. Après le match, de nombreux joueurs de go, en étudiant les parties d’AlphaGo, ont commencé à jouer de manière plus inventive, repoussant les frontières de leur propre art. La machine, de rivale, était devenue une muse.

Chapitre 4 : La Révolution Silencieuse
L’IA Avant l’Heure

L’onde de choc provoquée par les IA génératives a laissé croire à une naissance ex nihilo. Pourtant, pendant que les projecteurs étaient braqués sur les duels spectaculaires contre Kasparov et Lee Sedol, une révolution bien plus profonde et silencieuse était déjà à l’œuvre, tissant la toile de notre monde numérique et physique. Bien avant que ChatGPT ne sache écrire un poème, l’intelligence artificielle façonnait déjà nos choix, organisait notre savoir, nous aidait à communiquer et sauvait des vies, le plus souvent sans que nous en ayons conscience.

Les Conservateurs Invisibles de la Culture

Cette révolution discrète a commencé à la fin des années 1990, dans les coulisses du commerce en ligne naissant. En 1998, Amazon a lancé un système qui allait changer à jamais la manière dont nous découvrons les produits : le filtrage collaboratif d’article à article (item-to-item collaborative filtering). L’idée, développée par Greg Linden et son équipe, était d’une simplicité redoutable. Plutôt que de chercher des utilisateurs aux goûts similaires (une opération de calcul massive et lente), l’algorithme se concentrait sur les produits eux-mêmes. Il analysait les paniers d’achat de millions de clients et en déduisait des relations : les clients qui ont acheté le produit A ont aussi souvent acheté le produit B. Cette approche, beaucoup plus rapide et scalable (modulable), a donné naissance à la fameuse phrase « Les clients qui ont acheté cet article ont également acheté… », devenant l’un des moteurs les plus puissants du commerce électronique.

Quelques années plus tard, Netflix a perfectionné cette approche pour la culture. Dès 2007, alors que l’entreprise envoyait encore des DVD par la poste, elle utilisait des algorithmes pour recommander des films. Pour accélérer l’innovation, Netflix a lancé en 2006 le « Netflix Prize », un concours doté d’un million de dollars pour quiconque pourrait améliorer de 10 % la performance de son système de recommandation. Cet événement a galvanisé toute une communauté de chercheurs et a propulsé le domaine sur le devant de la scène. Avec le passage au streaming, l’impact de ces systèmes est devenu colossal. En 2015, Netflix estimait que plus de 80 % des heures de visionnage sur sa plateforme provenaient de ses recommandations, un système qui lui permettait d’économiser plus d’un milliard de dollars par an en réduisant le désabonnement de ses clients. 

L’Architecte Invisible du Web

Au même moment, l’IA s’attaquait à un problème encore plus vaste : organiser le chaos du World Wide Web. En 1998, deux doctorants de Stanford, Larry Page et Sergey Brin, ont introduit un algorithme révolutionnaire qui allait propulser leur jeune entreprise, Google, au sommet : PageRank. Inspiré par le système de citations académiques, PageRank ne se contentait pas d’analyser les mots-clés d’une page. Il évaluait son importance et son autorité en fonction du nombre et de la qualité des autres pages qui pointaient vers elle. Un lien depuis une page importante (comme celle d’une grande université) valait bien plus qu’un lien depuis un blog obscur. En traitant les liens comme des votes de confiance, PageRank a apporté une forme d’intelligence collective au web, permettant de classer et de hiérarchiser l’information avec une pertinence jusqu’alors inégalée. Chaque recherche Google est, depuis lors, une interaction avec cette forme d’IA fondamentale.

La Quête Décennale pour se Faire Entendre

Si les assistants vocaux semblent aujourd’hui omniprésents et naturels, leur développement est l’une des plus longues et ardues sagas de l’IA. Cette quête pour que la machine comprenne la parole humaine a débuté dans les années 1950.

Quand je vous dit que ça ne date pas d’hier !” 

Les premiers systèmes étaient d’une simplicité rudimentaire : « Audrey », des laboratoires Bell, ne pouvait reconnaître que les chiffres de 0 à 9 prononcés par une seule voix. Dans les années 1960, la machine « Shoebox » d’IBM a péniblement atteint un vocabulaire de 16 mots anglais. Il a fallu attendre les années 1970 et le projet « Harpy » de l’université Carnegie Mellon pour franchir le cap symbolique des 1000 mots. Cette progression lente et laborieuse, s’étalant sur plus de 70 ans, illustre parfaitement la nature de la recherche en IA : une accumulation de progrès incrémentaux, souvent invisibles, qui finissent par aboutir à une technologie qui semble magique.

Le Code qui Sauve des Vies en Médecine et dans l’Industrie

L’impact le plus profond et le plus méconnu de l’IA se trouve peut-être dans le domaine de la santé. Bien avant l’engouement actuel, l’IA était déjà une alliée précieuse pour les médecins. Dès les années 1970, des systèmes experts aidaient les cliniciens à poser des diagnostics complexes pour les maladies infectieuses. Depuis des décennies, des algorithmes sont utilisés en radiologie et en pathologie pour analyser des images médicales (scanners, IRM, mammographies). Ils sont capables de détecter des anomalies subtiles, des signes précoces de cancer, de maladies cardiaques ou de rétinopathie diabétique, souvent avec une précision égale ou supérieure à celle de l’œil humain. Cette IA n’a jamais cherché à remplacer le médecin, mais à l’augmenter, en agissant comme une seconde paire d’yeux infatigable et objective.

De même, dans l’industrie, la révolution robotique a commencé bien avant que l’on ne parle d’IA au grand public. Dès les années 1960, les usines de General Motors et de Ford ont commencé à intégrer des bras robotisés sur leurs chaînes de montage. La production de masse de ces robots dans les années 1970 et 1980 a transformé le secteur automobile, augmentant la productivité et la sécurité en confiant aux machines les tâches les plus répétitives et dangereuses.

Cette histoire de la révolution silencieuse révèle une vérité fondamentale sur notre perception de l’IA. Le grand public a pris conscience de son existence au moment où elle a appris à maîtriser ce qui nous semble le plus humain : le langage et l’image. Mais son impact sociétal le plus transformateur s’est produit pendant des décennies dans l’ombre, à travers des systèmes d’optimisation, de recommandation et d’analyse qui ont restructuré notre économie et notre accès à l’information. ChatGPT n’est pas le début de l’ère de l’IA ; c’est le moment où cette ère, déjà bien entamée, est devenue personnelle et conversationnelle.

C’est Claude, l’IA d’Anthropic qui m’a dit cela, tandis que je l’interrogeais pour créer un prompt bien ficelé pour l’image qui devait illustrer cette section.

Conclusion :
À l’aube d’un nouveau monde

L’épopée de l’intelligence artificielle, comme nous l’avons vu, est une odyssée au long cours. Elle nous a mené des rêves mythologiques de la Grèce antique aux automates ingénieux de l’âge d’or islamique, des salons feutrés de Dartmouth où une poignée de visionnaires lui ont donné un nom, aux hivers glaciaires du doute et du désinvestissement. Nous avons assisté à des duels épiques où l’esprit humain s’est mesuré à sa propre création, et nous avons découvert la révolution silencieuse qui, pendant des décennies, a remodelé notre monde sans que nous en prenions la pleine mesure. Les systèmes qui nous émerveillent aujourd’hui ne sont pas des créations spontanées ; ils sont les héritiers de cette histoire riche, complexe et profondément humaine.

Cette longue quête, cependant, est loin d’être terminée. Nous nous trouvons aujourd’hui à l’aube d’une nouvelle ère, au seuil de plusieurs frontières qui promettent de redéfinir encore une fois les limites du possible.

La prochaine frontière (épisode I) – La quête de la généralité (AGI)

Le Saint-Graal, l’horizon ultime de la recherche en IA, porte un nom : l’Intelligence Artificielle Générale (AGI). Il ne s’agit pas simplement de créer une IA « plus intelligente », mais d’opérer un changement de nature fondamental. Alors que les IA actuelles sont des outils spécialisés, brillants dans des tâches précises (jouer au go, rédiger ou traduire un texte, créer ou reconnaître une image), l’AGI serait une intelligence hypothétique dotée de la capacité proprement humaine d’apprendre, de raisonner et de transférer ses connaissances d’un domaine à l’autre. Une AGI pourrait lire un traité de physique, en déduire des principes, puis les appliquer pour concevoir un nouveau type de moteur, ou composer une symphonie inspirée par les lois de la thermodynamique. C’est la poursuite technologique du rêve originel de Dartmouth : une machine pensante, flexible et adaptable, capable de s’améliorer elle-même en toute autonomie. Bien que nous soyons encore loin de cet objectif, les récents progrès dans les modèles de fondation et l’IA incarnée nous en rapprochent plus que jamais.

La prochaine frontière (épisode épisode II) – Le saut quantique

Parallèlement à la quête de la généralité, une autre révolution se prépare à la confluence de deux des technologies les plus puissantes de notre temps : l’informatique quantique et l’intelligence artificielle. L’IA quantique promet de fusionner la puissance prédictive de l’IA avec les capacités de calcul ahurissantes du monde quantique. Là où un ordinateur classique fonctionne avec des bits (0 ou 1), un ordinateur quantique utilise des « qubits ». Grâce au principe de superposition, un qubit peut être à la fois 0 et 1, et toutes les valeurs intermédiaires, simultanément. Cette propriété lui permet d’explorer un nombre exponentiel de possibilités en parallèle. En appliquant cette puissance aux algorithmes d’IA, on espère pouvoir résoudre des problèmes d’optimisation et de simulation aujourd’hui totalement hors de portée, que ce soit pour découvrir de nouveaux médicaments en modélisant des interactions moléculaires complexes, pour créer de nouveaux matériaux ou pour affiner les modèles du changement climatique.

La prochaine frontière (épisode III) – Donner un corps au rêve

Enfin, l’odyssée de l’IA boucle la boucle pour revenir à son point de départ : le rêve de Talos et des automates d’Al-Jazari. La frontière la plus visible et peut-être la plus spectaculaire est celle des robots humanoïdes. Après des décennies de progrès lents, le domaine connaît une explosion fulgurante, portée par des entreprises comme Boston Dynamics (avec son robot Atlas), Tesla (avec son robot Optimus), Figure AI ou encore Sanctuary AI. La clé de cette avancée est la convergence. Les progrès spectaculaires en mécanique, en capteurs et en actionneurs sont désormais combinés avec la puissance des grands modèles de langage (LLM) et des modèles de vision (VLM). Pour la première fois, les robots ne sont plus seulement capables d’exécuter des tâches préprogrammées ; ils peuvent comprendre des instructions complexes en langage naturel, percevoir et interpréter leur environnement, et interagir intelligemment et physiquement avec le monde des humains. Tesla prédit que ses robots Optimus pourraient accomplir la majorité des tâches manuelles d’ici quelques années, une perspective qui pourrait révolutionner le travail et la société.

Nous avons passé des millénaires à rêver de créer un second esprit et des décennies à en construire les fondations. Aujourd’hui, alors que nous entrons dans cette nouvelle ère, le défi n’est plus seulement technique, il est aussi philosophique et sociétal. Il nous appartient de tracer avec sagesse la voie d’un avenir où l’intelligence humaine et l’intelligence artificielle, loin de s’opposer, collaboreront pour repousser les frontières de la connaissance, de la créativité et de ce qu’il est possible d’accomplir.

L’odyssée est loin d’être terminée ; un nouveau chapitre, peut-être le plus passionnant de tous, ne fait que commencer.

FIN (de l’article hein ? 😉 Seulement de l’article …)
Voila, c’est ici que s’achève notre voyage historique aux sources de l’IA, avec un regard tourné résolument vers le futur. J’espère que vous aurez pris autant de plaisir à le lire que j’en ai eu à le concevoir. Au fil de mes recherches, dans cet objectif qui est le mien de transmettre, j’ai appris beaucoup de chose que j’ignorais et c’est aussi ce qui va se passer dans les autres articles de cette série. Donc, sans plus attendre, je vous laisse parcourir le premier de la série qui sera consacré à … à quoi selon vous ? — À tout de suite !

Noël.

Notes de bas de page :

  1. La Silicon Valley est une petite région des États-Unis (Californie), au S. -S. -E. de San Francisco, entre San Jose et Palo Alto. C’est le site de nombreuses implantations de haute technologie, elle doit son nom à la densité des établissements industriels utilisant le silicium comme matière première pour la fabrication des semi-conducteurs. ↩︎
  2. Un polymath est une personne aux connaissances variées et approfondies, en particulier des connaissances en art et en science. Imhotep, Pic de la Mirandole, Léonard de Vinci et Isaac Asimov sont des polymathes célèbres. Les polymathes ont parfois été appelés hommes d’esprit universel. ↩︎
  3. La règle d’apprentissage hebbien, également connue sous le nom de théorie de Hebb ou théorie de l’assemblage cellulaire, est un principe fondamental en neurosciences et en intelligence artificielle qui décrit comment les neurones forment des connexions pour l’apprentissage . Elle est souvent résumée par l’adage : « les neurones qui s’activent ensemble se connectent ensemble » (cells that fire together, wire together) . ↩︎
  4. MYCIN est l’un des premiers systèmes experts développés dans les années 1970. Il a été conçu à l’Université de Stanford pour aider les médecins à diagnostiquer les infections bactériennes et à recommander des traitements antibiotiques appropriés. ↩︎
  5. Le terme « Léviathan » renvoie au monstre biblique pour symboliser la puissance colossale et inhumaine de Deep Blue. ↩︎

Les sources utilisées pour rédiger cet article, pour aller plus loin.

  1. Un chercheur de Stanford étudie les premiers concepts d’iA …/… dans les mythes anciens | Stanford Report.
  2. Myth – RTD Talos | Le mythe de Talos.
  3. The Story of Talos: The First AI Robot Machine in Greek Mythology
  4. Talos, un exemple précoce d’intelligence artificielle ? | Smithsonian Magazine.
  5. AL-JAZARI (1136-1206) – THE FOUNDER OF ROBOTICS | HistoriaFactory.
  6. Ismail al-Jazari | Wikipedia.
  7. Al-Jazarī crée les premiers modèles enregistrés d’un automate programmable
  8. Automata during the Middle Ages | The Mechanical Art & Design Museum
  9. Al-Jazari et le premier robot humanoïde programmable | Da Vinci Automata
  10. Alan Turing | Stanford Encyclopedia of Philosophy
  11. Computing Machinery and Intelligence | Wikipedia
  12. Alan Turing’s “Computing Machinery and Intelligence” – au format Word | ResearchGate
  13. Summary of ‘Computing Machinery And Intelligence’ (1950) by Alan Turing | Jack Hoy
  14. L’histoire du Perceptron | Université de l’État de Californie
  15. L’IA est née dans ce camp de vacances américain il y a 68 ans. | NDTV.com
  16. L’atelier de Dartmouth de 1956 : Le berceau de l’intelligence artificielle (IA) | Securing.AI
  17. L’IA est née dans un camp devacances il y a 68 ans ! | International Science Council.
  18. Dartmouth Summer Research Project: The Birth of Artificial | History of Data Science
  19. Dartmouth workshop | Wikipedia
  20. Perceptron | Wikipedia
  21. Le perceptron d’un professeur a ouvert la voie à l’IA – 60 ans trop tôt | Cornell University
  22. L’histoire de l’intelligence artificielle | LeanIX
  23. Expert system | Wikipedia
  24. Deep Blue | IBM
  25. Kasparov face à Deep Blue | Chess.com
  26. Garry Kasparov on Losing to Deep Blue | YouTube
  27. AlphaGo | Google DeepMind
  28. Google Deepmind AlphaGO | Youtube
  29. Lee Sedol vs. AlphaGo | gomagic.org
  30. Une victoire triste | University of Oxford
  31. AlphaGo, the Movie (documentary of AlphaGo vs Lee Sedol) | Youtube
  32. AlphaGo | Wikipedia
  33. Two Decades of Recommender Systems (PDF) | Amazon.com
  34. The history of Amazon’s recommendation algorithm | Amazon Science
  35. Recommender system | Wikipedia,
  36. Exploring the current and prospective role of artificial intelligence in disease diagnosis | PubMed Central
  37. Artificial intelligence in diagnosing medical conditions and impact on healthcare | MGMA
  38. What is artificial general intelligence (AGI)? – Google
  39. Ordinateur Quantique | Wikipedia
  40. Intelligence Artificielle Générale | Wikipedia

Vous pouvez retrouver tous les termes techniques de cet article dans le glossaire disponible ici.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *