Chargement de l'IA...

Définition de l’I.A.

Yvan LAVALLÉE

Professeur émérite Université Paris VIII

En tant que spécialiste algorithmique, on m’a demandé de vous exposer ce qu’est l’Intelligence Artificielle. “Artificial Intelligence”, quand on le traduit en français, ce n’est pas l’Intelligence Artificielle. Personne n’a jamais traduit “Intelligence service” par service intelligent. Ça se saurait. Pour différentes raisons qui vont du marketing à la fainéantise, on a traduit “Artificial Intelligence” par Intelligence Artificielle. Si nous voulons conserver les initiales I.A., je préfère utiliser Informatique Avancée.

Ceci étant dit, ce qu’on appelle l’Intelligence Artificielle, et plus généralement l’informatique, est la fille de la révolution numérique. Il ne faudrait pas croire que les choses apparaissent brutalement. Ça vient de très loin dans l’histoire. Pythagore, au quatrième siècle avant notre ère, nous dit que tout est nombre. Au dix-septième siècle, Leibniz nous dit qu’on peut écrire tout le monde avec deux symboles. Les choses commencent à bouger réellement, pour ce qui nous intéresse, à partir de 1835. En 1835, Babbage, un astronome, fait les plans d’une machine, on peut dire que c’est un ordinateur mécanique, qui marche avec des cartes perforées qui viennent des métiers à tisser. Au dix-neuvième siècle, apparaît l’algèbre de Boole qui nous donnera l’algèbre de base pour les ordinateurs. Enfin, ce que je considère – je ne suis pas le seul – comme l’acte fondateur de ce qu’on appelle la révolution numérique et de l’informatique, c’est la machine de Turing. C’est quelque chose de fondamental. Auparavant, pour rendre hommage à nos compagnes, le premier programmeur de l’histoire avec une programmeuse. Je suis amoureux d’Ada. Je vous demande de méditer ce qu’elle avait écrit à l’époque. C’est d’une actualité absolue : « La machine analytique n’a nullement la prétention de créer quelque chose par elle-même. Elle peut exécuter tout ce que nous saurons lui ordonner d’exécuter. Elle peut suivre une analyse, mais elle n’a pas la faculté d’imaginer des relations analytiques ou des vérités. Son rôle est de nous aider à effectuer ce que nous savons déjà dominer. » C’est vrai encore aujourd’hui. Elle avait tout compris.

La machine de Turing est toute simple. C’est un ruban avec une tête de lecture écriture. Le ruban est divisé en case. Dans chaque case, il y a un symbole et une table à double-entrée. Vous avez ce qu’on appelle un alphabet, c’est-à-dire ce qui peut être écrit sur le ruban. C’est l’alphabet extérieur. C’est la seule façon, qu’a la machine de Turing, d’entrer en contact avec l’extérieur. Vous avez des états, Q0, Q1, Q2, autant que vous voulez. La machine fonctionne à partir d’une table à double entrée. Je ne vais pas vous la faire fonctionner. Ça, c’est une machine de Turing particulière. C’est une machine de Turing de l’addition. Evidemment, cela n’a d’intérêt que pour montrer ce que c’est. Ce qui est intéressant, c’est La machine de Turing universel, c’est-à-dire la machine de Turing des machines de Turing. On écrit tout sur le ruban. Il faut donc un langage universel. Ce langage universel était prôné par Leibniz et grâce à l’algèbre de Boole, on sait utiliser le binaire. Tout ce qui est informatique, révolution numérique, automatisme, vient de là. C’est la machine des machines. La machine à laver fonctionne avec ça. C’est une machine de Turing derrière. Tout processeur est une machine de Turing. Pour les ordinateurs, c’est un tout petit peu plus complexe, mais le schéma théorique est celui-là. Pour aller plus vite, on a emboîté les machines de Turing les unes dans les autres.

On parle d’Intelligence Artificielle à partir des définitions de John McCarthy et Marvin Lee Minsky 1950. La définition par John McCarthy et Marvin Lee Minsky est la suivante : « la construction de programmes informatiques pour des tâches qui sont actuellement accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux, tel que l’apprentissage perceptuel (c’est-à-dire la reconnaissance d’images), l’organisation de la mémoire et le raisonnement critique. Ce qu’on appelle Intelligence Artificielle, ce sont donc des algorithmes permettant de faire faire à la machine des tâches mentales de haut niveau, telle que la reconnaissance d’images, l’analyse de très grands volumes de données, ou la résolution par la machine de problèmes complexes qui n’entrent pas dans les schémas connus a priori. La différence avec l’informatique classique est surtout que pour ce type de tâches, il y a seulement à savoir qu’il n’est plus possible de tout programmer de façon déterministe, pas à pas pour la machine. Il faut qu’elle soit capable d’apprendre par elle-même ». Ce terme « apprendre » est décisif en Intelligence Artificielle. « Il s’agit fondamentalement de techniques informatiques qui s’appliquent dans des domaines algorithmiques pour lesquels soit on ne sait pas les formuler, soit la complexité calculatoire est trop importante pour qu’on puisse espérer trouver un algorithme de résolution en temps raisonnable ».

Pour la première catégorie, quand on ne sait pas donner une description formelle de ce qu’on veut, on utilise essentiellement l’apprentissage machine. Il faut bien s’entendre ici sur ce qu’on appelle Intelligence Artificielle : c’est la simulation de processus intelligents. C’est là, la vision behaviouriste anglo-saxonne du terme intelligent, comme dans Intelligence service, où intelligence a le sens de renseignement. Certains auteurs considèrent cette simulation au même titre que l’intelligence humaine elle-même. Bien sûr, cela permet à nombre de ceux qui n’y connaissent rien, de vendre du papier, et à d’autres scientif iques dont le bagage philosophique ne dépasse pas le matérialisme mécanique de se fourvoyer.

L’apprentissage automatique. Il y a trois grands types d’apprentissage automatique en machine :

  • par renforcement,
  • supervisé,
  • non supervisé.

Les deux premiers sont un peu du même ordre. L’apprentissage par renforcement, une entité, un agent en informatique pour la programmation agent, un programme si vous voulez, est plus ou moins pénalisé ou renforcé en fonction de la nature de ces actions, et ce, automatiquement à partir de critères inclus dans le programme de l’agent Je gagne, je perds. Au fur et à mesure que je gagne, je vais continuer à faire les mêmes choses. Tout au moins, je vais essayer. L’apprentissage non supervisé est un peu plus subtil. On laisse le programme trouver les points communs entre les exemples qu’on lui présente et on le dote éventuellement d’une fonction de proximité à seuil, permettant ainsi de construire automatiquement des classes ou catégories d’exemples suivant qu’ils sont proches ou éloignés. Ainsi, le programme permet d’organiser les connaissances et évite éventuellement de les classer d’une façon nouvelle s’apparentant à des connaissances nouvelles.

L’apprentissage supervisé présente des exemples étiquetés d’une fonction de proximité au programme, comme présenter des images de feuilles d’arbre et le nom de l’arbre correspondant. L’apprentissage consiste alors en ce qu’au bout d’un certain nombre d’exemples, le programme est capable d’associer un nom d’arbre à la feuille qu’on lui présente. L’apprentissage supervisé moderne est peut-être plus complexe et le superviseur d’une nature plus sophistiquée comme les réseaux de neurones formels. Ces termes de neurones formels, comme celui de synapse, ressorti son vocable anthropomorphique qui préside souvent au discours en Intelligence Artificielle. Encore une fois, on est dans le monde anglo-saxon.

Les neurones formels, il s’agit d’une généralisation du concept électronique de porte logique. Je rappelle que les tout premiers qui ont utilisé ce qu’on a appelé des neurones artificiels, c’étaient des relais bêtes et méchants, oui ou non. Ils appellent ça des neurones. Aujourd’hui, c’est un peu plus sophistiqué. C’est la théorie des graphes. Il s’agit d’un sommet d’un graphe à plusieurs arcs entrant et un arc sortant. Le sommet, que l’on appelle neurone, est doté d’une fonction de seuils. La valeur de sortie, 0 ou 1, est liée à la somme des valeurs entrantes issues des neurones formels et à la fonction de seuils. On met ces neurones formels en réseau. Le réseau de neurones formels, c’est un graphe dont les sommets sont les neurones formels, bien entendu. Ce qui fait la pertinence d’un tel réseau, c’est la fonction d’activation associée aux neurones. On généralise en introduisant le concept de poids synaptique, toujours l’anthropomorphisme, c’est-à-dire des fonctions numériques sur les arcs d’entrée des neurones. La fonction associée aux neurones est alors plus complexe.

Réseau en couche. Les réseaux de neurones formels actuels sont organisés en trois strates. Le problème avec des centaines de milliers de connexions, donc de fonctions synaptiques, est l’établissement de ces dernières. Il n’est pas raisonnable de penser le faire à la main. On utilise ici l’apprentissage supervisé pour ce faire, ce qui permet à l’algorithme, à partir d’exemples, d’ajuster les coefficients associés aux synapses formels pour étiqueter les exemples. Je vous prie de m’excuser pour ces aspects un peu techniques, mais je pense qu’il est bon que nous ayons une vague idée de ce qui se passe.

Les jeux d’échecs, AlphaGo, AlphaZéro, le Go, le Shogi. La puissance de calcul aidant, les bases de données massives permettent de passer à la vitesse supérieure. Alors que pour faire jouer un ordinateur aux échecs, on disposait depuis un ordinateur aux échecs, on disposait depuis un demi-siècle d’algorithmes comme Alpha-Beta, SSS*, Scout, qui sont des algorithmes d’énumération implicite auxquels il faut donner des critères d’élagage dans l’arbre de jeu et auxquels il faut aussi préciser les poids des différentes pièces et donner des fonctions d’évaluation. Avec d’énormes puissances de calcul (en 2020, on devrait attendre l’exaf lop, c’est-à-dire 1018 opérations par seconde, on devrait se passer de ce type d’algorithmes et faire découvrir les bonnes stratégies par des réseaux en couche. C’est une attitude de feignants d’utiliser la force brute de la machine, alors qu’on a des algorithmes. Sur votre ordinateur personnel, vous avez un jeu d’échecs nécessairement. Le jeu d’échecs n’utilise pas des puissances de calcul faramineuses. Il utilise un parcours d’arbre bien foutu. En règle générale, c’est Alpha-Beta qu’il utilise la puissance.

Se passer de ce type d’algorithmes et faire découvrir les bonnes stratégies par des réseaux en couche associée à un apprentissage par renforcement, lui-même basé sur le fait qu’on fait jouer l’algorithme contre lui-même. Vous voyez ce que je disais : je gagne, je perds. Je génère une position de partie d’un côté, j’en génère une autre d’un autre côté, et je fais jouer l’ordinateur contre lui-même mais en introduisant des variantes. Il y en a un qui gagne et un qui perd. Je vais garder les paramètres de celui qui a gagné. On fait jouer l’algorithme contre lui-même avec une procédure arborescence probabiliste de type Monte-Carlo. En probabilité, on a deux méthodes : Monte-Carlo et Las Vegas. C’est cet aspect aléatoire qui permet à la fois de faire jouer l’ordinateur contre lui-même et d’introduire de l’apprentissage non supervisé dans le choix des coups.

Cet algorithme générique AlphaZéro, après quatre heures d’auto-apprentissage, a battu tous les autres programmes d’échec. Vous allez voir la puissance mise en route. Pour le Go, on était face à un parallélisme du niveau 64, générant 80 000 positions à la seconde sur une machine de puissance teraflopic, c’est-à-dire 1012 opérations par seconde. Il a pu examiner plus de 2 milliards de positions, plus qu’aucun joueur humain n’en verra dans une vie et peut-être même tous les joueurs humains réunis.

Le mythe de la singularité, je ne sais pas si vous en avez entendu parler. Le mythe de la singularité est un délire anglo-saxon qui est de dire que les machines deviennent tellement puissantes, que l’Intelligence Artificielle est tellement puissante qu’un jour ou l’autre, elle prendra le dessus sur les hommes. Une petite remarque sur les jeux, c’est que l’ordinateur n’a inventé ni le jeu d’échecs, ni le Shogi, ni le jeu de Go, ni la mécanique quantique. Il n’invente rien. C’est ce que disait Ada et elle a raison. L’Intelligence Artificielle, c’est ça. L’équation gagnante : le principe est l’induction algorithme + base de données + probabilité. Avec ça, on fait l’I.A.

Comment on peut s’en douter à la lecture de cette description des réseaux de neurones formels, ils n’ont strictement rien à voir malgré ce que veut en dire une vulgate très répandue avec les neurones des cerveaux animaux, et a fortiori du cerveau humain. Ce qui fait la puissance de nombre de ses algorithmes, mais pas tous, c’est leur couplage avec les très grandes bases de données et l’association des super ordinateurs au parallélisme massif. En fait, on utilise la force brute de la machine.

L’intelligence humaine ne saurait être celle d’un individu. L’intelligence de chaque individu et celle de la société dans laquelle il vit. Ce qu’on nomme intelligence est une production sociale. Les outils fabriqués et conçus par les humains y participent, en particulier l’informatique et ce qu’on appelle l’I.A. La puissance des algorithmes de l’I.A, associée aux grandes bases de données, fait tourner la tête de quelques scientifiques anglo-saxons pour lesquels l’intelligence est d’ordre syntaxique. Ils ne font pas de différence notable entre intelligence humaine et « Intelligence Artificielle ». Le behaviourisme ou comportementalisme consiste à s’attacher à ce qui paraît seulement, pas à ce que cela signif ie, à la sémantique. Comme je l’ai dit au début, traduit en français, l’expression Artificial Intelligence devrait se traduire autrement, par exemple par le syntagme informatique Avancé, pour garder les initiales I.A., ou Extraction Automatique des Connaissances ou Apprentissage Automatique.

Ces algorithmes, ils sont imbattables pour jouer, pas pour créer de jeu. Plus généralement, nous pouvons faire nôtre cette remarque de Pablo Picasso : « Les ordinateurs sont ennuyeux. Ils ne donnent que des réponses ». C’est bien parce que désormais, nous savons concevoir ces machines apprenantes, que l’Intelligence Artificielle dont on parle depuis longtemps revient sur le devant de la scène. Les conséquences concrètes sont que l’on est en train de concevoir des machines capables de faire du diagnostic médical de pointe, de traduire très correctement toutes les langues du monde ou d’écrire automatiquement des articles, faire des véhicules véritablement autonomes, des systèmes capables d’utiliser les informations diffuses de millions de smartphones pour prédire le trafic routier ou les pics de pollution, de chercher un visage donné dans la photo ou la vidéo d’une foule, etc. Avec cela, nous sommes en train de nous donner de nouveaux moyens pour améliorer la prévention et le traitement des maladies graves, mieux lutter contre le réchauffement climatique et autres pollutions, décongestionner les villes et optimiser les flux de matières ou de marchandises pour permettre le passage à une économie plus circulaire ou interagir plus naturellement avec les machines qui nous entourent.

Mais évidemment, ce faisant, on se dote des moyens de détruire, à moyen terme, des millions d’emplois de chauffeurs, d’opérateurs téléphoniques, de traducteurs, journalistes, techniciens, ingénieurs et même avocats, architectes ou médecins. Cela signifie, en tout cas, qu’une nouvelle augmentation de la densité du travail, donc de l’exploitation, devient techniquement envisageable, ainsi que l’augmentation des capacités de surveillance et de répression. Une fois de plus, la technologie n’est ni bonne, ni mauvaise, ni neutre, mais ce que nous en ferons collectivement. En l’état, elle est poussée par les intérêts de la classe dominante, prof it et contrôle social, et l’on doit craindre le pire. Face à la menace d’un monde cyberpunk où quelques grandes multinationales maîtrisant les technologies clés de l’exploitation auraient tout pouvoir sur les Etats et les peuples, les résistances sont nombreuses, partant souvent des chercheurs et spécialistes de ces technologies ou des travailleurs qu’elle menace. C’est aussi pourquoi nous sommes là aujourd’hui. Le problème est de faire en sorte que ces résistances éparses rencontrent une perspective politique qui leur permette de devenir contre-pouvoir et force de proposition. Il n’y a qu’une manière de créer une telle perspective de convergence, une pratique exigeante de la démocratie qui organise la rencontre de l’expertise et de la mobilisation populaire dans l’intérêt général, une pratique combinant transmission la plus large possible de savoir exigeant et encadrement des orientations techniques par la décision collective. Ni démagogie technophobe, ni règne des experts dans leur tour d’ivoire, l’I.A. n’est au fond que le dernier avatar de la cyber-révolution portée par le numérique et ses réseaux. Pour qu’elle soit porteuse de progrès, il y a urgence à construire ensemble le projet d’un numérique de la liberté du bien commun.

  • LALOUBERE Jean-Claude

    « Intelligence Artificielle » provient d’une mauvaise traduction de l’expression anglo-saxonne « Artificial Intelligency ».
    Et le mot « Intelligency » se traduit en français par « Renseignement ».

    En conséquence, « Intelligence Artificielle » doit se traduire par « Renseignement Artificiel ».
    Il s’agit de mathématiques qui opèrent par approche et par résultat aléatoire qui, ensemble, ne sont qu’une aide à la décision, décision qui doit en dernier lieu être laissée à l’Homme.

Réagir