

- Avant les débuts de l'IA, une histoire de philosophie
- De 1943 à 1956 : les débuts de l'IA
- De 1956 à 1980 : un âge d'or de l'intelligence artificielle
- De 1980 à 1990 : le premier "hiver" de l'IA
- De 1990 à 2000 : les premières victoires de l'IA
- De 2000 à 2020 : la démocratisation de l'IA
- De 2020 à nos jours : l'IA bien présente dans nos vies
Avant les débuts de l'IA, une histoire de philosophie
La définition de l'IA est assez complexe, car ce domaine est encore en mouvement. Cependant, pour avoir une idée claire de ce concept, on vous invite à lire notre article qui vous explique c'est quoi l'intelligence artificielle et comment s'en servir. Au-delà d'une définition formelle et terre-à-terre, le concept d'IA trouve ses racines dans des temps très reculés, avec les philosophes grecs, chinois ou encore indiens. Beaucoup d'entre eux formulaient que la pensée était un processus qui pouvait être artificialisé et conceptualisé pour être reproduit ou expliqué de manière mathématique.
Il faut donc comprendre que l'intelligence artificielle, et l'intelligence au sens large, fascine l'humanité depuis ses origines. Bref, l'IA telle que nous la connaissons aujourd'hui a des fondations bien plus anciennes que vous ne pouviez peut-être l'imaginer, et aussi bien moins pragmatiques !

De 1943 à 1956 : les débuts de l'IA
Le premier modèle mathématique de raisonnement comparable à une IA
On s'accorde généralement à dire que les débuts de l'IA, telle que nous connaissons ce concept sur le plan informatique et mathématique, remontent à 1943. C'est en effet à cette date que Warren McCullough et Walter Pitts, respectivement chercheur en neurologie et scientifique (tout deux Américains), publient un article intitulé "A Logical Calculus of Ideas immanent in Nervous Activity". On peut traduire cela par : "Un calcul logique des idées immanentes à l'activité nerveuse".
Les deux chercheurs présentent donc dans cet article le tout premier modèle de réseau neuronal mathématique. En effet, l'un des buts de l'IA est d'imiter et/ou d'effectuer des raisonnements logiques à la manière des humains. On a donc créé très vite des modèles informatiques basés sur la structure neuronale du cerveau humain. Quoi de mieux pour reproduire le fonctionnement humain que de copier le cerveau ? Il est donc logique que le premier article scientifique conceptualisant de manière mathématique l'IA se base sur le réseau de neurones de notre cerveau.
La mise en pratique : entre informatique et neurones
D'ailleurs, c'est en 1950 qu'est né SNARC, le premier ordinateur à utiliser un réseau de neurones. Et déjà en 1950, SNARC était capable d'apprendre par lui-même. Il pouvait par exemple étudier des informations et des exemples donnés pour apprendre à accomplir certaines tâches. La même année, Alan Turing crée le très célèbre test de Turing.
Le principe de ce dernier est simple : un humain pose des questions à une entité, dont il ne sait pas si elle est humaine ou machine. Il doit déterminer, à partir des réponses qu'il obtient, si c'est un robot ou non qui lui répond. La machine remporte le test à partir du moment où la personne qui doit deviner fait autant de fautes en choisissant si c'est une machine ou un humain, que quand elle a face à elle un autre humain. Notons également que le raisonnement informatique avance avec la création par Arthur Samuel du premier ordinateur capable de jouer aux échecs et de battre certains joueurs (pas encore les meilleurs du monde, mais c'est un début).
L'année fatidique
Vient ensuite l'année 1956, à marquer d'une pierre blanche. C'est en effet à cette date que le terme d'IA est prononcé pour la première fois par Jonh McCarty à la conférence de recherche et de projets sur l'intelligence artificielle, à Dartmouth. De là, le monde entre véritablement dans l'ère de l'intelligence artificielle.
Que retenir de cette période ?
C'est durant cette période que les prémices de l'IA tel que nous connaissons ce concept apparaissent, bien que le mot "Intelligence Artificielle" n'ait pas encore été formulé avant 1956. Cette période est faite de prototypes, d'essais et de recherches théoriques sur ce concept dont la cristallisation est la conférence de Dartmouth et l'apparition du terme "IA".
De 1956 à 1980 : un âge d'or de l'intelligence artificielle
L'engouement général autour de l'IA
À partir de la conférence de Dartmouth, les découvertes et les progrès s'enchaînent. Un véritable engouement se crée autour de l'IA. En 1959, le terme de Machine Learning est inventé par Arthur Samuel, informaticien travaillant chez IBM, une grande firme américaine dans le domaine de l'informatique toujours active de nos jours. C'est également à cette période que le raisonnement à tâtonnement est créé. Il s'agit du fonctionnement le plus basique chez une IA. Il consiste à faire plusieurs essais jusqu'à arriver petit à petit à la bonne réponse. Il s'agira du raisonnement utilisé pour les premiers programmes capable de résoudre des problèmes d'algèbre ou de battre des joueurs d'échec et de jeu de dame.
Quand l'IA conversationnelle existait déjà au XXe siècle
On peut également citer ELIZA, un programme informatique conversationnel créé par Joseph Weizanbaum entre 1964 et 1966. Son but ? Imiter un psychothérapeute pour converser avec des humains. Et déjà à cette époque, plusieurs personnes qui ont eu l'opportunité de tester ce programme se sont dites bluffées par ses capacités. Vous pensiez que ChatGPT avait inventé l'art de parler avec un robot ?
> C'est quoi ChatGPT et comment ça fonctionne ?
Que retenir de cette période ?
Cette période est donc considérée comme un âge d'or car elle voit apparaître les premiers programmes d'intelligence artificielle, s'accompagnant d'un grand engouement, avec plusieurs entreprises et organismes qui obtiennent des subventions pour poursuivre les recherches. On peut par exemple citer l'université technologique du Massachusetts, plus connue sous le nom de MIT, qui reçoit en 1963 une subvention de 2,2 millions de dollars (de l'époque !) pour ses recherches. Plusieurs laboratoires voient le jour dans d'autres établissements également.

De 1980 à 1990 : le premier "hiver" de l'IA
L'IA limitée par son époque
Dans les années 1980 et la fin des années 1970, le domaine de l'intelligence artificielle est en difficulté. Après un âge d'or et un engouement (trop ?) puissant, le monde a des attentes fortes pour ce domaine. Ces dernières ne seront pas réalisées et vont freiner les investissements et les programmes de recherche en matière d'intelligence artificielle.
Quels étaient les freins au développement de l'IA durant cette période ? D'abord, une limitation technologie empêchant les programmes d'atteindre les objectifs fixés. Nous étions encore loin de la puissance de calcul d'un MacBook ou d'un processeur Intel de dernière génération. Même nos smartphones sont cent fois plus puissants que les ordinateurs de l'époque ! La puissance de calcul était donc limitée et avec elle, le secteur tout entier.
Les critiques faites à l'encontre de l'intelligence artificielle
Dans la même période, plusieurs critiques universitaires et scientifiques sont formulées à l'encontre de l'IA. On pointe du doigt les promesses non tenues par ces programmes, l'inutilité de tels logiciels informatiques face à d'autres, plus conventionnels, ou encore les problèmes éthiques de tels programmes. Tous ces éléments conduisent à une réduction des investissements dans le secteur, qui va alors entrer dans ce qu'on appelle un "hiver" où aucune avancée significative ne sera réalisée.
Que retenir de cette période ?
Cet "hiver" de l'IA s'explique de manière tout à fait logique. Les limitations techniques de l'époque n'ont pas permis un développement assez rapide et concluant des programmes informatiques d'alors. L'engouement de l'âge d'or des années 1950 à 1980 a créé une attente trop grande pour ce que la communauté scientifique avait à proposer. C'est ce même engouement qui a également "égaré" les chercheurs qui, en l'absence de lignes directrices claires, n'ont pas pu aboutir à des recherches poussées et concrètes. Le résultat de tout ceci est une méfiance des investisseurs, ainsi qu'une critique du domaine de l'intelligence artificielle.
De 1990 à 2000 : les premières victoires de l'IA
Premiers liens avec des domaines liés à l'IA
Juste avant le début des années 1990, un nouvel engouement se créé pour ce que l'on peut appeler "embodiment". Ce mouvement, très présent à la fin des années 1980 et qu'on peut mettre à part de l'hiver de l'IA, consiste en l'idée que l'intelligence artificielle est liée à la robotique. Des chercheurs commencent à plaider pour une approche de l'IA centrée autour des robots, mais également de la cybernétique.
Une utilisation réelle de l'IA
Les années 1990 voient un nouvel engouement pour l'IA. Elle est parvenue à atteindre une grande partie de ses objectifs : elle commence à être utilisée dans divers secteurs professionnels, notamment les hautes technologies, ou encore la finance, bien que peu connue dans ce secteur voire parfois méprisée.
Le moment où l'IA devint supérieure à l'homme (en partie seulement !)
Mais ce qui reste à retenir dans cette période, c'est la victoire de Deep Blue qui, en 1997, devient le premier système informatique à battre le champion du monde d'échec de l'époque, Garry Kasparov. En 2001, un robot issu de l'université de Standford remporte le grand prix DARPA pour avoir conduit de manière autonome pendant 210 kilomètres sans avoir été informé de son environnement au préalable. Ces réussites sont possibles en grande partie grâce à la formidable puissance de calcul désormais atteinte par les ordinateurs de l'époque.
Que retenir de cette période ?
Après un gel de la recherche, des investissements et de l'engouement de l'IA, cette dernière revient au centre de la scène et est enfin utilisée de manière concrète dans certains secteurs professionnels. L'IA devient même plus efficace que l'homme dans certains domaines comme les échecs, ce qui illustre bien les énormes progrès faits aussi bien en matière de recherche informatique qu'en matière de technologie. Tout cela permet à cette période 1990 - 2000 de voir apparaître de manière sérieuse les premières utilisations concrètes de l'intelligence artificielle dans nos vies.
De 2000 à 2020 : la démocratisation de l'IA
L'IA accessible à tous
Déjà établie dans quelques secteurs depuis les années 1990, l'IA va se démocratiser auprès du grand public à partir des années 2000. En 2007, Apple lance son assistant Siri. Google lui emboîte le pas avec son assistant en 2007, appelé à l'époque Google Now. Microsoft suit la tendance avec Cortana, son outil de gestion pour Windows en 2014. La même année, Amazon sort Alexa, son assistant connecté.
Une recherche scientifique toujours intense
Outre les outils destinés au grand public, le monde de la recherche continue ses expériences. En 2005, le projet Blue Brain essaye de créer une IA en observant le cerveau des mammifères. De manière plus amusante, l'US Air Force constitue un superordinateur avec... 336 Playstation 3, afin de créer des calculateurs aux capacités similaires à celles d'un humain. De grands groupes comme Apple ou Facebook investissent massivement dans la recherche IA et rachètent parfois des start-up dans ce domaine.
Une IA qui continue de battre l'humain
Les années 2010 sont également celles des records ! En 2011, l’intelligence artificielle d'IBM appelée Watson remporte Jeopardy!, un jeu télévisé dont le but est de deviner une question à partir de réponses données. En 2016, Alpha Go, une IA créée par Google, a battu le champion mondial de jeu de Go.
Que retenir de cette période ?
Les années 2000, et plus précieusement les années 2010, sont celles de la démocratisation de l'IA et de sa révélation auprès du grand public. Toutes les grandes firmes lancent leur propre assistant connecté pour aider les utilisateurs. En parallèle, la recherche scientifique continue de manière intense. Tant et si bien que des records sont encore battus. L'IA devient de plus en plus performante et surpasse l'homme dans de nombreux domaines.

De 2020 à nos jours : l'IA bien présente dans nos vies
L'IA dans notre quotidien
Désormais, l'IA fait partie intégrante (ou presque) de nos vies. La sortie de ChatGPT en 2022 a permis à l'ensemble de la planète d'accéder à l'IA comme on l'entend et ses formidables capacités. Ensuite, tout s'est enchainé : Copilot, DALL-E, des smartphones boostés à l'IA... Elle s'utilise partout et dans tous les domaines : retouche photo, musique, texte, programmation, loisirs... Les derniers smartphones Google Pixel vous permettent de retoucher des images en quelques instants, tandis que les Samsung Galaxy S peuvent traduire une conversation en temps réel. Vos goûts sont également passés au crible, avec des programmes capables de vous proposer des musiques ou des films adaptés. Et vous pouvez parler à ChatGPT (presque) comme à un humain !
> Windows Copilot c'est quoi au juste ?

Quel avenir pour l'IA ?
Aujourd'hui, la recherche est à nouveau très enthousiaste pour l'intelligence artificielle. Les progrès sont constants et l'essor technologique, très rapide. Certains n'hésitent pas à parler de super-IA ou d'IA "fortes" pour désigner des programmes bientôt capables d'imiter l'humain et de le surpasser dans des domaines précis, sinon dans tous les domaines. Nous n'en sommes pour le moment pas encore là, mais une chose est certaine : l'IA, malgré presque un siècle de progrès, n'en est qu'à ses balbutiements et nous réserve encore bien des surprises.