L'I.A. en question
L'I.A. en question

Gottfried Wilhelm Leibniz



L'I.A. fait actuellement l'objet de nombreux débats.

L'un d'entre eux oppose ceux qui croient en la possibilité d'une I.A. forte, capable, sinon de conscience, du moins d'approcher de très près les capacités d'un être humain dans tous les domaines et ceux qui pensent que l'I.A. restera au stade de l'I.A. faible, c'est-à-dire une I.A. qui excellera dans des domaines très particuliers, ce qu'elle fait d'ores et déjà, et y restera cantonnée.

Pour y voir plus clair, un peu d'histoire :

On peut remonter à la nuit des temps, on trouvera toujours des tentatives pour "animer" des représentations humaines soit par des procédés mécaniques, magiques, spirituels et autres, mais le premier à penser cette possibilité par le "calcul" est bien Gottfried Wilhelm Leibniz, qui a imaginé au XVIIe siècle un langage permettant d'exprimer la totalité des pensées humaines pouvant résoudre des problèmes par le calcul grâce au "calculus ratiocinator".

John Von Neumann



Cependant, il aura fallu 4 siècles d'avancées en mathématiques, en logique, en électronique, en informatique et en neurosciences pour que l'on envisage sérieusement la possibilité d'une "intelligence artificielle" au tournant des années 1950.

Alan Turing



Il aura fallu également que certains concepts voient le jour, à commencer par l'architecture de l'ordinateur que John Von Neumann a défini en 1945 en s'inspirant de la structure du cerveau comme on l'imaginait à l'époque. Ce fut ensuite Alan Turing qui imagine un test pour évaluer la capacité d'une machine à simuler suffisamment correctement la pensée humaine, le fameux test de Turing.

John McCarthy



Enfin, c'est John McCarthy qui, lors de la conférence de Dartmouth, en 1956, introduit le terme intelligence artificielle tandis que la même année, un premier programme capable de démontrer des théorèmes mathématiques "Logic Theorist" est conçu par Allen Newell, Herbert Simon et Cliff Shaw. Ces derniers récidiveront en 1959 avec le "General Problem Solver", ou programme solveur de problèmes universels.

H. Simon et A. Newell



Bien que de prometteuses tentatives aient été faites avec des machines capables d'apprentissage automatique comme le Perceptron inventé en 1943 par Warren McCulloch et Walter Pitts et développé pendant les années 50 et 60 à partir de travaux sur les réseaux de neurones, pendant près de trois décennies, les espoirs mis dans l'efficience de l'IA seront déçus.

Walter Pitts



De sérieux espoirs se sont alors reportés dans les systèmes experts. Ces systèmes simulaient les compétences d’experts humains dans des domaines spécialisés au cours des années 60 comme le MYCIN pour la médecine). Il fallait fournir à ces systèmes toutes les données concernant un domaine particulier. Ces systèmes permettaient aux entreprises de prendre des décisions complexes, mais restaient limités aux domaines pour lesquels ils étaient spécifiquement programmés.

Pendant cette période, la programmation fonctionnelle (Lisp) et la programmation logique (Prolog) ont été privilégiées pour la recherche en IA. D'autres langages spécialisés pour ce genre d'application apparaîtront par la suite (Scheme, Haskell, OCalm...). De nos jours, des langages plus généralistes comme Python disposent de bibliothèques de haut niveau dans le domaine de l'IA et sont très largement utilisés.

Au cours des années 90, les réseaux de neurones redeviennent sur le devant de la scène, grâce notamment aux performances de plus en plus grandes du matériel informatique.

Deep Blue



Une étape symbolique est franchie en 1997, quand l’ordinateur Deep Blue d’IBM bat le champion d’échecs Garry Kasparov, montrant l'efficacité des algorithmes dans des environnements à règles fixes. Bien plus tard, c'est AlphaGo de DeepMind, qui battra des champions au jeu de Go en 2016.

Garri Kasparov



Mais c'est surtout l'apparition de l'apprentissage automatique (machine learning) qui permettra aux ordinateurs d’apprendre à partir de données plutôt que de règles strictes. Et comme le développement du Web et des réseaux sociaux rend disponible une quantité phénoménale de données, le "Big Data" et l’augmentation de la puissance de calcul (notamment avec les GPU) permettent alors le développement de l'apprentissage profond (deep learning). À partir de là, on ne va plus programmer les machines, mais utiliser des techniques pour les "entraîner" : apprentissage supervisé (on donne la réponse à la machine), apprentissage par renforcement (on indique à la machine si sa réponse est bonne ou non)...

Logo ChatGPT



Les réseaux neuronaux profonds (deep neural networks) permettront ainsi des percées dans la vision par ordinateur et le traitement du langage naturel. Ceci sera illustré récemment par les exploits de ChatGPT d’OpenAI, qui génèrera du texte de manière absolument comparable à ce que ferait un humain (y compris parfois ses erreurs et ses imprécisions).

L'époque actuelle voit l'explosion des applications de l'IA générative, c'est à dire de la production originale de textes, images, sons, vidéos. Se pose désormais la question de l'impact sur l’emploi, la vie privée, et la sécurité ainsi que des mesures éventuelles à prendre pour encadrer l'IA et en garantir un usage éthique protégeant les personnes contre les risques induits.

Yann le Cun



Les capacités des ordinateurs actuels sont bel et bien comparables en puissance au cerveau humain, mais ils n'en ont pas vraiment l'architecture qui reste en partie mystérieuse. Si des prouesses sont réalisées avec les grands modèles de langage (LLM) capables de "comprendre" et générer des textes, ils ne gèrent finalement que quelques milliers d'éléments de base (les mots et la ponctuation) décomposés en quelques dizaines de milliers de "tokens", ce n'est rien comparé aux milliards d'éléments visuels de base nécessaires à la compréhension et à la mémorisation complète d'un lieu quelconque, pièce d'habitation, paysage, où se déroule une scène de quelques minutes.

On est donc très loin de l'I.A. forte espérée par certains comme l'explique Yann le Cun, dans la vidéo réalisée avec Matthieu Stefani sur la chaîne Génération Do It Yourself que nous vous proposons de regarder dans l'article suivant.

Haut de page