L'I.A. en question
L'I.A. en question
L'I.A. fait actuellement l'objet de nombreux débats.
L'un d'entre eux oppose ceux qui croient en la possibilité
d'une I.A. forte, capable, sinon de conscience, du moins d'approcher de très près les capacités d'un être humain
dans tous les domaines et ceux qui pensent que l'I.A. restera au stade de l'I.A. faible, c'est-à-dire une I.A.
qui excellera dans des domaines très particuliers, ce qu'elle fait d'ores et déjà, et y restera cantonnée.
Pour y voir plus clair, un peu d'histoire :
On peut remonter à la nuit des temps, on trouvera toujours des tentatives pour "animer" des représentations
humaines soit par des procédés mécaniques, magiques, spirituels et autres, mais le premier à penser cette
possibilité par le "calcul" est bien Gottfried Wilhelm Leibniz, qui a imaginé au XVIIe siècle un langage
permettant d'exprimer la totalité des pensées humaines pouvant résoudre des problèmes par le calcul grâce
au "calculus ratiocinator".
Cependant, il aura fallu 4 siècles d'avancées en mathématiques, en logique, en électronique, en informatique et en
neurosciences pour que l'on envisage sérieusement la possibilité d'une "intelligence artificielle" au tournant
des années 1950.
Il aura fallu également que certains concepts voient le jour, à commencer par l'architecture de l'ordinateur
que John Von Neumann a défini en 1945 en s'inspirant de la structure du cerveau comme on l'imaginait à
l'époque. Ce fut ensuite Alan Turing qui imagine un test pour évaluer la capacité d'une machine à simuler
suffisamment correctement la pensée humaine, le fameux test de Turing.
Enfin, c'est John McCarthy qui, lors de la conférence de Dartmouth, en 1956, introduit le terme intelligence
artificielle tandis que la même année, un premier programme capable de démontrer des théorèmes mathématiques
"Logic Theorist" est conçu par Allen Newell, Herbert Simon et Cliff Shaw. Ces derniers récidiveront en 1959
avec le "General Problem Solver", ou programme solveur de problèmes universels.
Bien que de prometteuses tentatives aient été faites avec des machines capables d'apprentissage automatique
comme le
Perceptron inventé en 1943 par Warren McCulloch et Walter Pitts et développé pendant les années 50 et
60 à partir de travaux sur les réseaux de neurones, pendant près de trois décennies, les espoirs mis dans
l'efficience de l'IA seront déçus.
De sérieux espoirs se sont alors reportés dans les systèmes experts. Ces systèmes simulaient les
compétences d’experts humains dans des domaines spécialisés au cours des années 60 comme le MYCIN pour la
médecine). Il fallait fournir à ces systèmes toutes les données concernant un domaine particulier. Ces systèmes permettaient aux entreprises
de prendre des décisions complexes, mais restaient limités aux domaines pour lesquels ils étaient spécifiquement
programmés.
Pendant cette période, la programmation fonctionnelle (Lisp) et la programmation logique (Prolog) ont été
privilégiées pour la recherche en IA. D'autres langages spécialisés pour ce genre d'application apparaîtront
par la suite (Scheme, Haskell, OCalm...). De nos jours, des langages plus généralistes comme Python disposent
de bibliothèques de haut niveau dans le domaine de l'IA et sont très largement utilisés.
Au cours des années 90, les réseaux de neurones redeviennent sur le devant de la scène, grâce notamment aux
performances de plus en plus grandes du matériel informatique.
Une étape symbolique est franchie en 1997, quand l’ordinateur Deep Blue d’IBM bat le champion d’échecs Garry
Kasparov, montrant l'efficacité des algorithmes dans des environnements à règles fixes. Bien plus tard,
c'est AlphaGo de DeepMind, qui battra des champions au jeu de Go en 2016.
Mais c'est surtout l'apparition de l'apprentissage automatique (machine learning) qui permettra aux ordinateurs
d’apprendre à partir de données plutôt que de règles strictes. Et comme le développement du Web et des
réseaux sociaux rend disponible une quantité phénoménale de données, le "Big Data" et l’augmentation de la
puissance de calcul (notamment avec les GPU) permettent alors le développement de l'apprentissage profond
(deep learning). À partir de là, on ne va plus programmer les machines, mais utiliser des techniques pour les
"entraîner" : apprentissage supervisé (on donne la réponse à la machine), apprentissage par renforcement
(on indique à la machine si sa réponse est bonne ou non)...
Logo ChatGPT
Les réseaux neuronaux profonds (deep neural networks) permettront ainsi des percées dans la vision par
ordinateur et le traitement du langage naturel. Ceci sera illustré récemment par les exploits de ChatGPT
d’OpenAI, qui génèrera du texte de manière absolument comparable à ce que ferait un humain (y compris parfois
ses erreurs et ses imprécisions).
L'époque actuelle voit l'explosion des applications de l'IA générative, c'est à dire de la production originale
de textes, images, sons, vidéos. Se pose désormais la question de l'impact sur l’emploi, la vie privée, et la
sécurité ainsi que des mesures éventuelles à prendre pour encadrer l'IA et en garantir un usage éthique protégeant
les personnes contre les risques induits.
Les capacités des ordinateurs actuels sont bel et bien comparables en puissance au cerveau humain, mais
ils n'en ont pas vraiment l'architecture qui reste en partie mystérieuse. Si des prouesses sont réalisées avec
les grands modèles de langage (LLM) capables de "comprendre" et générer des textes, ils ne gèrent finalement
que quelques milliers d'éléments de base (les mots et la ponctuation) décomposés en quelques dizaines de milliers de "tokens", ce n'est rien
comparé aux milliards d'éléments visuels de base nécessaires à la compréhension et à la mémorisation complète
d'un lieu quelconque, pièce d'habitation, paysage, où se déroule une scène de quelques minutes.
On est donc très loin de l'I.A. forte espérée par certains comme l'explique Yann le Cun, dans la vidéo
réalisée avec Matthieu Stefani sur la chaîne Génération Do It Yourself que nous vous proposons de regarder
dans l'article suivant.