Table ronde 2 : la place de l’homme
Claude aufort
Collectif Confédéral Recherche, retraité CEA, FMNE-CGT
Les règles du marché sont dominantes. On sait qu’il y a un autre risque parce que si on peut supprimer certaines tâches, pourquoi ne pas toutes les supprimer, au moins un grand nombre. Tout un chacun sait que cette idée et ce risque sont dans la tête de tous ceux qui travaillent. C’est de ça que nous allons parler aujourd’hui. Certains nous disent, à propos de l’Intelligence Artificielle, que cette intelligence serait capable d’apprendre, voire de prendre des décisions comme s’il était possible que la conscience humaine n’ait pas à intervenir. C’est de cela dont nous allons parler. Au bout du compte, est-ce que bien gérée, avec l’opinion des salariés, l’Intelligence Artificielle peut être intéressante ? Est-ce que n’importe comment, c’est le pire et le désastre ? Est-ce qu’elle ne permettrait pas de réduire le temps de travail ? Si on peut remplacer des hommes, on peut réduire le temps de travail, et à ce moment-là, peut-être que les salariés auraient du temps pour développer leurs qualités qui sont aujourd’hui indispensables à l’Intelligence Artificielle ? Simplement, nous ne sommes pas dans le prolongement du passé. Nous sommes dans une rupture qu’il convient de co-construire avec tous ceux qui ont des contraintes à gérer. C’est cela que nous allons aborder cet après-midi. Le mieux est de donner la parole à Charles Lenay, philosophe à l’université de Compiègne. Il nous donnera quelques réflexions, me semble-t-il, très intéressantes sur ce qu’est l’intelligence humaine.
Charles Lenay
Professeur de philosophie et sciences cognitives, Département technologies et sciences de l’homme à l’UTC
Je suis de l’Université de Technologie de Compiègne. On tient beaucoup, à Compiègne, à dire que c’est une université de technologie parce que c’est une ambition extraordinaire que de faire un travail universitaire sur la technique. La question est énorme, si je la prends au pied de la lettre. Qu’est-ce que l’intelligence humaine ?
Pour essayer de répondre, il faut prendre un peu de recul. J’ai une espèce de formule que j’ai envie de dire pour annoncer mon, c’est que l’intelligence humaine, d’une certaine façon, est artificielle, mais l’Intelligence Artificielle n’est pas humaine. C’est ce que je vais vous expliquer. Ce qui fait notre intelligence humaine, c’est bien sûr une intelligence d’être vivant, c’est très important. Il y a un lien essentiel entre la pensée et le fait d’être vivant. On le partage avec tous les êtres vivants. C’est aussi être entouré d’outils. On est des êtres humains depuis deux millions d’années. Les Homo sapiens et les premiers hommes avaient déjà des outils autour d’eux. Notre évolution, notre humanité, notre façon de penser, est toujours entourée de techniques, entourée d’outils. Si on pense, c’est avec des outils qu’on nous a donnés, qu’on transforme et qu’on transmet à notre descendance. On pense non seulement avec tous ces systèmes techniques, mais surtout avec l’écriture, avec des calendriers qui nous permettent de penser le temps, que serions-nous sans calendrier, avec des cartes, toutes sortes d’outils qui toujours participent à notre façon d’être des humains et de penser. Sans ces outils on n’irait pas bien loin et sans tout ce que la société nous donne, notre pensée n’irait pas bien loin. Il y a quelque chose de toujours artificiel dans la pensée humaine, mais il faut bien voir que c’est toujours de la suppléance, de l’augmentation, de la transformation, mais jamais de la substitution. On pense, au départ, substitution. Très souvent, les chercheurs démarrent en disant qu’ils vont faire un système pour remplacer quelque chose. Les gens sont aveugles, on va faire une rétine artificielle. C’est un principe de recherche, on essaye de faire comme la nature, mais à chaque fois qu’on essaye de faire quelque chose comme cela, on produit de la différence. A peine on a commencé à faire une rétine artificielle, tout de suite, non seulement on ne réussit pas, mais dès qu’on a fait quelque chose de technique, d’artificiel, on produit des variations. On peut faire plein de choses. Si j’ai une rétine artificielle, pourquoi rester dans le spectre visible, pourquoi ne pas aller voir dans l’infrarouge ou l’ultraviolet pourquoi ne pas transmettre des informations. Ce que j’explique par cet exemple, c’est qu’au départ, dans un principe de recherche scientifique, on a une idée de substitution, mais la réalité est que l’on produit toujours de la suppléance, c’est-à-dire des choses qui transforment les possibles.
Quand on applique ce que je viens de dire, en prenant du recul, à l’Intelligence Artificielle, il faut la prendre pour ce qu’elle est. On l’a très bien dit au début de la journée, l’informatique avancée. Ce sont des systèmes de traitement de symboles, d’optimisation, de calculs qui permettent d’extraire des régularités dans des masses de données. C’est très important, c’est très intéressant, ça a des effets extraordinairement importants, mais c’était une grossière erreur que de penser que cela puisse être une substitution à notre intelligence. L’intelligence humaine est artificielle, mais l’Intelligence Artificielle n’est pas humaine parce que ce que fait l’Intelligence Artificielle, c’est produire des chaînes de symbole, mais il faudra toujours leur donner du sens. Il faut interpréter ces symboles. Qui peut interpréter ces symboles ? Bien sûr, ce sont des personnes humaines qui peuvent donner du sens. Pour donner du sens, ultimement. Il faut pouvoir s’engager. Le sens correspond à un engagement humain, à un risque qu’on prend, comme le sens de votre présence corporelle ici, par exemple. Ce qui engage le sens de ce que je dis, c’est ma présence corporelle. Il y a une différence par rapport à un enregistrement, un livre ou autre. On est là. C’est cet engagement corporel d’être vivant qui permet de donner du sens aux choses.
Si on veut comprendre ce qui nous arrive avec l’Intelligence Artificielle, il ne faut pas se tromper d’endroit où on regarde. Il ne faut pas croire qu’on a un système qui nous remplace en termes de substitution, qui ferait les opérations que font les êtres humains à notre place. Il faut voir que c’est quelque chose qui transforme nos activités. Ces transformations peuvent être violentes. Il ne faut pas se cacher le fait que beaucoup de choses peuvent être impactées par ces systèmes qu’on appelle Intelligence Artificielle, mais il faudrait dire système d’extraction de régularité ou de contrôle et d’adaptation. Ces outils vont transformer nos activités, notre façon d’être des êtres humains. Il faut en prendre la mesure, mais une mesure de transformation mais pas de substitution.
Dina Bacalexi
Conseil exécutif de la FMTS, FERC SNTRS-CGT
Il est très positif que les sciences de l’homme, et non pas les sciences humaines, parce qu’elles ne sont pas plus humaines ou plus inhumaines que les autres, soient invitées dans cette enceinte et à cette table ronde, à condition, je pense qu’on y est depuis ce matin, de ne pas juxtaposer ou opposer les deux intelligences, l’intelligence humaine et l’intelligence de la machine. Il faut se poser la question de l’Homme non pas en tant qu’allégorie, mais comme disait le sophiste grec de l’Antiquité, de l’Homme qui est la mesure de toute chose. Autrement dit, selon le philosophe Habermas, cette dualité entre l’homme qui est créateur, l’Homo Faber, l’humain créateur, et l’humain qui peut être créé, l’Homo Fabricatus.
Est-ce que l’homme fabriqué est capable de reproduire une structure telle que l’activité rationnelle ? C’est une question que nous traitons depuis ce matin. L’homme n’est pas une simple allégorie. Il est intégré dans un univers social. Il est intégré dans une société de classe. Il est intégré dans une société où le capitalisme part à l’assaut de la connaissance pour l’asservir au prof it. C’est dans ce contexte que se développe, ce qu’on appelle dans mon métier, les humanités numériques, c’est un néologisme qui est rentré aujourd’hui dans notre vocabulaire de recherche quand on étudie les Sciences de l’Homme, mais aussi que grandissent les revendications de l’ouverture de la science pour échapper à la domination du capital. Ces revendications grandissent dans tous les milieux. Je parlerai de l’accès ouvert, l’accès libre aux données et aux publications scientifiques, qui sont surtout prégnantes dans les populations du Sud où la privatisation de la connaissance est beaucoup plus agressive que chez nous.
Ce matin, Ivan Lavallée a commencé par la terminologie. Avec mon métier d’incorrigible philologue, je prolongerai la question terminologique en parlant de l’intelligence et de l’étymologie du mot intelligence. Je vous fais grâce de l’étymologie grecque qui est malheureusement bien meilleure, mais que personne ne comprendra ici. Intelligence provient du latin intellegere, un verbe qui signifie comprendre. Mais qu’est-ce que c’est comprendre ? Comprendre, c’est intégrer les mécanismes de la connaissance comme activité cognitive reproductible. Avec ou sans pensée, dans la lettre de l’Unesco que Claude Aufort m’a conseillé de lire – que je vous conseille à mon tour parce que la lettre de l’Unesco de septembre a comme thème l’Intelligence Artificielle et c’est une lecture édifiante, – le philosophe Michael Benassayag insiste sur la distinction entre intelligence et pensée. Une machine peut calculer. Elle peut produire des conclusions issues de ces calculs, mais elle ne peut pas donner le sens à ces conclusions. On pourrait tenter l’oxymore l’Intelligence Artificielle n’est pas intelligente. Dans la même lettre de l’Unesco notre collègue, Jean-Gabriel Ganascia, qui est spécialiste enIntelligence Artificielle et chercheur au laboratoire d’informatique de Paris VI, renie aux machines une volonté propre. On pourrait dire que l’Homo Fabricatus n’égaler jamais l’Homo Faber.
Les chercheurs dans mon domaine, les sciences de l’homme, font souvent figure de l’UDIT, ce mouvement ouvrier du dix-neuvième siècle qui cassait les machines sous prétexte qu’elles cassaient des emplois. Pour ne pas faire figure de l’UDIT, on fait donc des humanités numériques. On essaye de quantif ier, de mettre tout en données, de matérialiser, de modéliser, pour prouver la scientificité des humanités dont la matière doit être désormais disponible immédiatement et sans distance critique dans le monde numérique, pour être très fouillé par des algorithmes qui, dixit un collègue, à qui on pourrait laisser trouver des formes inconnues de science sous prétexte que les formes connues sont obsolètes. Dans le monde des recherches en sciences de l’homme, pas un projet sérieux, financé, qui n’ait pas son volet humanité numérique ou pas un projet d’Intelligence Artificielle, nous l’avons vu ce matin aussi, qui n’ait pas à son volet sciences de l’homme et de la société, un peu comme on met du ciel et du poivre pour rendre les mets plus savoureux.
Je commencerai par un de ces projets dont vous avez sûrement entendu parler qui est financé par la Commission européenne, le Human Brain Project, HBB. Il a été lancé pour dix ans, en 2013. Si mes renseignements sont bons, il est doté d’un milliard d’euros et il a six plates-formes. Parmi ces plates-formes, il y en a une qui doit être vouée à la reproduction sur ordinateur de l’architecture et de l’activité du cerveau. Il y en a une autre qui développe l’informatique inspirée du cerveau. Il y en a une autre qui développe la neurobotique. Ce projet a un volet social et éthique basé sur la neuro-éthique, où la philosophie doit faire le lien entre la preuve scientifique et le concept philosophique. Elle doit contribuer à la distance critique et elle doit écarter les attentes irréalistes créées par le développement des avancées scientifiques. Mais quand on fouille un peu le volet humanité et société de ce projet, on ne voit guère plus d’approfondissement qu’un discours tel qu’affectionne la Commission européenne sur la science et l’innovation responsable, un discours, somme toute, lénifiant qui essaye d’étudier l’identité humaine avec des entrées assez ambitieuses, voire trop ambitieuse, qui seront financées, tandis que plein d’autres laboratoires de recherche, on l’a entendu dans le panel précédent ce matin, qui font de la recherche fondamentale et qui essayent de fouiller le fond du problème, crient famine.
Je citerai bien d’autres exemples où l’Intelligence Artificielle est appelée à révolutionner les humanités. Vous avez sûrement entendu parler de la lecture à distance qui a été inventée par un historien de la littérature, Franco Moretti, pour analyser et étudier la littérature mondiale, que l’être humain est incapable d’étudier et d’analyser. Aucun être humain ne peut lire tous les textes littéraires écrits par toute l’humanité. La machine ne les lira pas et ne les étudiera pas, mais elle fera des corrélations et elle essaiera ensuite de faire des projections dans des graphiques et des schémas. C’est ça, l’étude de la littérature. L’analyse quantitative de la culture humaine a été soi-disant possible grâce à un outil inventé par des chercheurs de Google qui parcourt tous les livres numérisés dans Google Books qui sont censés être représentatifs de la production culturelle mondiale. Les chercheurs de Google, qui ont conçu cet outil, prétendent qu’il est utile pour dégager les lignes directrices de la culture mondiale et qu’il sera encore plus fiable après, quand Google aura intégré la production manuscrite, les oeuvres d’art et ainsi de suite, donc toute la production intellectuelle de toute l’humanité. Vous voyez à quoi peut servir l’Intelligence Artificielle. Ils ont inventé une nouvelle notion, la culture nomique, qui est le pendant, en sciences de l’homme, de la génomique.
Le projet de l’Université de Stanford, qui s’appelle République de l’être, prétend, grâce à de l’Intelligence Artificielle, analyser tous les échanges épistolaires des savants en Europe du dix-septième au dix-neuvième siècle, en les transformant en points sur une carte pour décrire la vie intellectuelle de l’époque. Mais ce projet, qu’est-ce qu’il montrera ? Il montrera des points sur une carte, ce qui est très limité. Ce n’est pas ça, l’analyse de la correspondance, et ce n’est pas ça, l’analyse d’une vie intellectuelle, parce que cela ne rend pas compte des interactions entre les intellectuels, cela ne rend pas compte du vrai parcours des lettres qui ne voyagent pas, comme des avions, d’un point à un autre. Il ne peut montrer qu’une centralité et une périphérie dans une carte, ce qui est très limité, vous en conviendrez, en tant qu’étude de la vie intellectuelle d’une région comme l’Europe pendant deux siècles entiers, voire trois.
Notre travail, en tant qu’éditeur de textes, a été beaucoup facilité grâce à des logiciels de transcription collaborative des écritures manuelles. L’un d’entre eux, qui s’appelle Transkribus, a le privilège d’être open source, libre et gratuit. Il permet, à la machine, de lire chaque ligne de texte dans tous les sens de la page, parce qu’il lit le texte comme les images. Ensuite, il peut les transcrire. C’est beaucoup mieux que ce que fait un ECR traditionnel. Oui, tout cela, c’est très bien. Le modèle peut s’entraîner grâce à des centaines de pages. La première centaine, c’est un modèle déposé sur un serveur. Pour l’instant, il n’y a que des modèles en anglais et en allemand, mais ce n’est pas ça qui nous fera nos éditions critiques. Cela nous permettra de travailler mieux, d’être plus précis et de dégager du temps. Le dernier projet dans la liste, avant de passer à autre chose, c’est le projet Biblissama, Bibliotheca bibliothecarum novissima. Ça prétend être un observatoire des données, un observatoire du patrimoine occidental écrit entre le huitième et le début du dix-neuvième siècle en Europe. J’en ai f ini avec les exemples.
Je vais passer à notre intervention pour l’accès ouvert aux données et aux publications de la recherche issues des financements publics. L’an dernier, le Conseil scientifique du CNRS a fait un séminaire où l’élu SNTRS-CGT est intervenu pour porter la parole syndicale. Il a souligné que cet accès ouvert aujourd’hui, l’accès ouvert pour être fouillé, pour être disponible dans la fouille de textes de données, c’est très bien. Nous le prenons tous parce que cela rend la connaissance accessible. Le biais dans tout cela, c’est qu’en même temps, cela nous rend disponible à la captation de valeur, la valeur qui est produite par le cerveau humain, financée par les deniers publics, qui ensuite peut faire générer du prof it dans les entreprises capitalistes. Les entreprises capitalistes, vous en connaissez tous, ce sont les grandes entreprises d’édition, tel que Elsevier, Springer, mais il y en a plein d’autres. C’est pour contrer ces grosses machines capitalistes que tout autant au niveau de l’international de l’éducation mais aussi de la fédération mondiale des travailleurs scientifiques, nous essayons de travailler sur l’accès ouvert justement pour ne pas tomber dans le prof it et ne pas se faire exploiter, et donner aux scientifiques l’usufruit de leur travail.
L’an dernier, à l’assemblée générale de la FMPS, à Dakar, on a eu l’intervention de beaucoup de nos collègues du Sud qui, tout en étant très favorables à l’accès ouvert, posaient le problème sur le financement de l’accès aux données, sur l’équipement aussi, parce que c’est ce qui leur manque, et d’autres sur les matières premières qui nous permettront de construire ces machines qui vont ensuite fouiller nos données. Dans la même veine, nous avons eu à la précédente conférence de l’International de l’éducation à Accra au Ghana, il y a trois ans, mais c’est aussi dans l’ordre du jour de la suivante conférence qui va bientôt commencer le 10 novembre à Taiwan, le sujet du libre accès au savoir et de la possibilité de le rendre disponible pour la fouille de textes de données. Nous l’avons sur la table, mais en même temps, nous sommes très attentifs au respect du droit de la propriété intellectuelle de chaque chercheur et de ne pas se faire piller.
Avant-dernier sujet, je vais parler de la précarité. On voit que tous ces grands projets des humanités numériques ou projets qui associent l’Intelligence Artificielle, la science scientifique et la science de l’homme, tous ces grands projets demandent du personnel hautement qualifié, de grands développeurs ou des chercheurs en sciences de l’homme compétents en développement informatique, mais tous les postes que nous voyons publier ou que nous voyons passer sur les professionnels, ce sont des postes non pérennes. Les projets de recherche subissent aussi les conséquences du fait qu’ils sont limités dans le temps. Ensuite, la production de bases de données et la production des éditions électroniques, si elles ne sont pas continuelles, si elles ne sont pas financées, s’il n’y a pas de personnel pérenne pour continuer à les rendre disponibles, cela ne sert à rien.
Je vais à la conclusion. C’est dans un tel contexte que se développe l’Intelligence Artificielle. Ce n’est pas un poncif, c’est un lieu commun. Tout le monde est d’accord ici que l’Intelligence Artificielle n’est ni bonne, ni mauvaise, mais c’est ce que nous en ferons bien sûr. La place de l’homme est dans la prise de conscience collective que la lutte pour une société inclusive et sûre. Ce n’est pas juste un enjeu sociétal imposé par quelqu’un de l’extérieur, en l’occurrence d’en haut, par les instances européennes ou par notre direction, c’est l’enjeu d’un présent et d’un futur pour tous où la bibliodiversité et la biodiversité seront contrôlées par l’humain et pas par le capital.
Jean -Baptiste Piacentino
Directeur Général Adjoint de Qwant
Après ces deux interventions qui sont directement dans le prof il académique, je vais essayer d’exemplifier ce dont on vient de parler. En premier lieu, vous dire un mot de la société dans laquelle je travaille et pourquoi il a semblé intéressant, aux organisateurs, de nous faire intervenir ici. Je travaille pour Qwant qui est le seul moteur de recherche français ou européen. Il est qualifié par la presse comme un concurrent aux grands moteurs de recherche américains. Pourquoi c’est important ? Parce que c’est un outil qui a une caractéristique particulière, celle de respecter la vie privée des utilisateurs. A la différence des grandes plateformes américaines, nous ne collectons aucune donnée sur personne. Nous ne profitons personne. Nous ne dressons aucun historique de vos recherches. En conséquence, nous sommes en mesure de livrer les mêmes résultats à tout le monde. Que vous ayez fait telle ou telle recherche auparavant, vous aurez les mêmes résultats sur Qwant que votre voisin de bureau, votre enfant ou votre mari. C’est très important dans la perspective de l’accès à l’information.
Chez Qwant, nous faisons de l’Intelligence Artificielle comme Monsieur Jourdain. Quelquefois, on le fait sans le savoir. Je vous donne quelques exemples. La capacité d’un moteur de recherche est de vous fournir des résultats qui vous semblent les plus pertinents pour la requête que vous avez formulée. Pour cela, il faut qu’on puisse « comprendre » ce dont on dispose en stock dans nos bases de données, qui sont les textes que nous avons pu indexer, et se dire que ce que vous avez tapé n’est pas forcément une correspondance exacte du mot-clé que vous avez tapé, mais que peut-être, le document que nous allons vous présenter aura une relation plus ou moins éloignée mais la plus rapprochée possible du texte que vous avez ou la requête que vous avez formulée. Pour cela, on fait appel à des algorithmes d’Intelligence Artificielle, évidemment, qui consistent à identifier, à catégoriser les documents disponibles sur Internet.
On l’applique, en particulier, dans le domaine de l’enfance puisqu’on a un moteur de recherche qui s’appelle Qwant junior à destination des enfants de six à douze ans. Il reprend les mêmes caractéristiques éthiques du moteur de recherche pour les grands, de respect de la vie privée, mais il ajoute une notion de filtrage, d’élimination des contenus qui sont inappropriés pour les enfants en collaboration et sous le contrôle du ministère de l’Éducation nationale, à savoir la pornographie, la violence, l’incitation à la consommation de drogue ou la haine. Pour pouvoir f iltrer ces contenus inappropriés dans un cadre pédagogique, essentiellement à l’école, nous appliquons des algorithmes d’Intelligence Artificielle qui nous permettent de détecter que dans une image, il y a beaucoup de chair humaine ou de peau en l’occurrence, ce qui donne un bon indice quant à la nature de l’image. Je ne vais pas vous faire une photo ou un dessin, vous comprenez bien de quoi je parle. De la même manière, lorsque l’on formule des phrases qui ont une tendance à la radicalisation ou qui font partie d’un registre violent, on peut appliquer les algorithmes de l’Intelligence Artificielle pour le formuler.
L’Intelligence Artificielle, ce n’est pas non plus le spectre démoniaque que l’on peut envisager au pire. C’est aussi quelque chose qui est utilisé au quotidien et que vous utilisez au quotidien. Si vous utilisez un autre moteur de recherche que le nôtre, vous êtes aussi confrontés à l’intelligence artifice au quotidien. Le corollaire est que si on s’amuse, comme le font les autres, à collecter les usages que vous faites du moteur de recherche, on finit par déterminer un prof il d’utilisateur, c’est-à-dire une image qu’un ordinateur a pu constituer de vos goûts, de vos tendances politiques, de vos tendances sexuelles, de vos affiliations religieuses, etc., donc orienter, grâce à des algorithmes d’Intelligence Artificielle à nouveau, les suggestions ou les contenus qu’on va vous proposer. De fait, cette fois-ci, dévoyer un petit peu, pourquoi pas, l’usage de neutralité auquel on s’attend d’un moteur de recherche et vous fournir des résultats qui seront adaptés à votre personnalité. Ce faisant, vous vous enfermez dans une bulle filtrante qui vous amènera à ne voir le monde qu’au travers de la facette que l’algorithme a pu calculer sur votre prof il. C’est, encore une fois, de l’Intelligence Artificielle.
Je voulais vous donner quelques exemples assez concrets de l’usage au quotidien et ce à quoi on est confronté. Je vais aussi rebondir sur les sujets de remplacement de substitution. Je ne suis pas philosophe et je ne vais pas m’aventurer dans des sujets pareils, mais malgré tout, on voit naître des situations de remplacement de travailleurs. On le voit bien dans le domaine bancaire en particulier, dans le domaine de la grande distribution où on remplace de plus en plus, ou Madame quand vous parliez de la relation avec les demandeurs d’emploi. On voit bien que les algorithmes d’Intelligence Artificielle peuvent amener, d’une part, à modifier la relation que nous pouvons avoir avec un service ou avec une entreprise, et d’autre part, à remplacer les intervenants qui, auparavant, étaient humains.
Je vais dresser un parallèle avec ce à quoi vous êtes régulièrement confrontés lorsque vous utilisez des services sur Internet. Bien souvent, on vous demande de vous identifier, ou en tout cas de vous assurer que vous êtes bien une personne humaine, que vous n’êtes pas un robot. Pour cela, on vous montre des images et on vous demande de cliquer sur toutes les images qui correspondent à une voiture ou toutes les images qui contiennent une enseigne. Vous l’avez déjà vu, mais je ne vais pas prononcer le nom du concurrent, il le fait très bien. Quelquefois, vous vous êtes aperçus que malgré votre certitude d’avoir bien rempli et d’avoir bien répondu à la question, on vous repose la même question à nouveau. Ce qui s’est passé, c’est qu’on a permis à l’algorithme de vous utiliser pour effectuer une tâche très subalterne qui est, encore l’apanage de l’être humain, c’est d’identifier des objets dans des images que l’algorithme n’est pas encore capable d’identifier. Sur des images sur lesquelles on a des doutes, un fer à repasser ou un feu rouge, on va vous demander de l’identifier et de la discerner d’une autre image. Pour cela, on se retrouve à faire des tâches, à produire du travail gratuitement pour enrichir un moteur de recherche, enrichir un algorithme d’Intelligence Artificielle qui, à ce stade, c’est important de le dire, ne fonctionne que sur la base de l’entraînement. Aujourd’hui, nous n’avons pas encore de moteur d’Intelligence Artificielle qui fonctionne ex nihilo. Nous avons besoin d’avoir des quantités de données absolument énormes pour pouvoir entraîner des algorithmes à la dissociation ou au discernement de suite de motifs qui vont permettre d’identifier tel ou tel sujet. Vous avez à la fois un outil d’Intelligence Artificielle qui vous permet de filtrer les documents et de les trouver de la meilleure façon, mais en même temps, en faisant cela, vous enrichissant l’algorithme en identifiant des images.
Le point que je voulais soulever en termes de conclusion, c’est la relation de l’Intelligence Artificielle avec le travail. Il est très possible, en tout cas envisageable, que de plus en plus d’emplois soient supprimés et remplacés par des algorithmes et des machines qui exécuteraient la tâche à la place de l’homme. Le Forum économique mondial nous dit qu’en Angleterre, dans les dix ans qui viennent, ce sont 250 000 emplois qui seront supprimés, mais ne vous inquiétez pas, 140 000 emplois seront créés dans le domaine des services en soutien aux algorithmes. Comme Monsieur le disait, le problème n’est pas tant le remplacement, c’est la vitesse à laquelle ça s’opère. Qu’est-ce qu’on fait des gens qui ont perdu leur emploi et qui vont devenir de ce fait, pardonnez-moi le mot un peu violent, obsolètes et qui n’auront plus la capacité de retrouver un emploi pertinent ou d’avoir une activité économique pertinente pour l’entreprise ou pour les services publics ? À réfléchir sur cette transformation importante que l’I.A. va nous apporter et les modèles sociaux qu’il faudra peut-être inventer pour faire face à ces changements radicaux extrêmement rapides.
Yacine Si Abdallah
Chargé de mission auprès de la Présidence de la Commission Nationale de l’Informatique et des Libertés
Quand nous avons été invités sur le sujet de la place de l’homme, nous avons été très vivement intéressés pour vous expliquer, en deux mots, comment nous nous positionnons par rapport à ce sujet de l’Intelligence Artificielle. Une mission nous a été assignée par la loi république numérique qui est de mener une réflexion sur les enjeux éthiques et sociétaux des nouvelles technologies. L’année dernière, nous avons choisi le thème de l’Intelligence Artificielle. Nous avons choisi d’organiser un débat public assez large, multi-acteurs. Une soixantaine de partenaires nous ont rejoints et ont contribué à cette réflexion, avec des organisations syndicales qui avaient aussi organisé une manifestation. Suite à ces différents évènements, nous avons reçu des contributions. Nous avons publié un rapport, disponible sur notre site, qui s’appelle Comment permettre à l’homme de garder la main. Je pense que nous sommes quand même de la table ronde. Cet enjeu de la place de l’homme est essentiel pour nos libertés et pour les choix que nous allons faire face à cette révolution de l’Intelligence Artificielle. Il est très important car inclure cette idée de la place de l’homme dans l’Intelligence Artificielle est la seule voie viable et pérenne.
À la CNIL, nous avons cette mission de protection des données personnelles. Cette année, vous avez entendu parler de ce nouveau Règlement Général la Protection des Données qui est une réponse à plusieurs années et plusieurs scandales. Cela a commencé par l’affaire Snowden, puis l’affaire Cambridge Analytica cette année. Nous avons enfin une réponse régulatoire à l’échelle de l’Europe pour plus de transparence des acteurs qui collectent des données et plus de maîtrise pour les utilisateurs du numérique. Avec le sujet de l’Intelligence Artificielle, dans le débat, il y a cette idée qu’il faut de la transparence, de l’explicabilité, de la redevabilité. Il y a tout un tas de notions autour de cette Intelligence Artificielle qui révèlent un certain malaise par rapport à cet outil, par rapport à cette boîte noire que serait l’Intelligence Artificielle. C’est pour cela que nous avons voulu mener cette réflexion sur les enjeux éthiques. Sans même se projeter à un horizon temporel très lointain à imaginer une conscience robotique, il y a des réflexions très intéressantes sur l’avenir de l’emploi, mais on n’arrive pas encore à prendre la mesure exacte de ce à quoi cela aboutira, mais ce que nous avons voulu mettre en avant les enjeux éthiques à très court terme que suscite l’Intelligence Artificielle.
Je commencerai par évoquer un enjeu, celui du risque de déresponsabilisation des décideurs. Comme nous l’avons pu le dire précédemment, nous avons des outils d’Intelligence Artificielle qui permettent, à des décideurs divers et variés, des médecins, des juges, des directeurs de ressources humaines, d’utiliser l’analyse de données pour prendre des décisions diverses et variées avec cette problématique assez récurrente dans les débats, celle de la substitution ou pas. Ce que nous avons voulu mettre en avant comme enjeu éthique, c’est que même si l’autorité décisionnelle de manière légale et juridique demeure le médecin ou le juge, il faut être très vigilant sur cette tentation de l’homme à s’en remettre entièrement à la machine, ce qui fait écho à ce qu’on disait précédemment, l’idée d’une machine qui serait infaillible. Cela peut paraître très commode de s’en remettre à la machine. Il ne faudrait pas qu’on arrive à une situation où les décideurs doivent faire preuve d’un courage et d’une audace particulièrement excessifs pour aller à l’encontre de ce que l’outil d’Intelligence Artificielle aura proposé. C’est cette question autour de l’intervention humaine. Je voudrais mettre en avant un principe qui existe dans la loi Informatique et Libertés qui encadre la protection des données personnelles depuis 1978, c’est l’idée de l’intervention humaine qui était présente dans son article dix. C’est assez intéressant de voir, lorsque l’on s’y replonge, que nous étions encore très loin de l’univers numérique actuel où nos données sont captées de part et d’autre, mais nous avions déjà, dans les réflexions parlementaires de la commission Tricot qui a préparé la création de la CNIL, des réflexions intéressantes. On disait que l’informatique pouvait être géniale, mais que ce serait une démission immense de s’en remettre entièrement à l’informatique. Nous n’en étions pas encore à cette capacité décisionnelle de l’Intelligence Artificielle, mais nous avions déjà senti cette préoccupation assez importante.
Cette obligation d’intervention humaine existe aujourd’hui dans les textes et dans le règlement européen de protection des données à son article 22 qui dit que quand une décision affecte significativement des tiers, il y a une obligation d’intervention humaine. Tout l’enjeu avec ces processus d’Intelligence Artificielle, c’est qu’ils permettent de fluidifier les pratiques et de rendre plus rapide des processus managériaux de décision. Comment utiliser cette ressource sans évacuer totalement l’homme, parce que le but est que ce soit plus rapide. Nous avons pu faire un état des lieux grâce à ce débat public. Il y a quand même des choses qui peuvent être faites de manière très remarquable avec l’Intelligence Artificielle. Au niveau de la reconnaissance d’images, j’ai un exemple très anecdotique. Pour discerner des chats-tigres, l’humain doit pouvoir dire sur une photo de chat que les oreilles sont comme ça, le nez est comme ça, etc. Alors que l’Intelligence Artificielle, on lui fournit tout un tas d’images et c’est elle qui arrive à déduire les caractéristiques qui lui permettent de dissocier les deux. Ça peut être très intéressant et très utile, mais on a vu qu’il peut y avoir des erreurs très préjudiciables. On a eu des exemples dans l’actualité. Une grande firme américaine avait utilisé un logiciel de reconnaissance d’images – ce n’était pas une volonté de sa part, c’était par rapport aux données qui avaient alimenté l’algorithme – avait confondu un couple d’Afro-Américains avec des gorilles parce que l’algorithme de l’Intelligence Artificielle avait été, vraisemblablement, entraînée avec des photographies de personnes blanches et n’arrivait pas à reconnaître. C’est un exemple sur la reconnaissance d’images mais quand on voit que ces outils d’Intelligence Artificielle peuvent être utilisés pour l’octroi d’un crédit, pour l’accès à un emploi, pour des choses très ancrées dans notre vie quotidienne, ça pose des questionnements assez importants.
Un autre enjeu éthique que je voudrais citer et que nous avons mis en avant dans ce rapport sur l’Intelligence Artificielle, comme Monsieur Piatencino l’expliquait, grâce aux données, on pouvait inférer sur nos goûts et nos centres d’intérêt. On a cette capacité, grâce aux données, d’inférer une espèce d’alter ego numérique qui pose des questions en termes d’enfermement. Avec ces outils d’Intelligence Artificielle, nous avons un potentiel de personnalisation des services qui peut susciter l’intérêt et qui peut avoir des conséquences en termes d’enfermement individuel. Ce que nous avons voulu mettre avant en allant encore un peu plus loin, c’est de dire que même si les individus, les consommateurs sont d’accord avec cette possibilité de ciblage et de personnalisation, est-ce qu’il n’y aurait pas des risques de dommages collatéraux trop importants à cette personnalisation. Lorsque l’on pense à l’évolution de l’espace politique en ligne avec les algorithmes, il y a cette capacité à nous fournir une information très ciblée qui correspond exactement à nos attentes. Est-ce que nous ne sommes pas enfermés dans une bulle qui nous ferme à la confrontation à des opinions autres ? Est-ce que cette confrontation à des opinions autres, n’est pas une condition essentielle de notre démocratie et du fonctionnement démocratique ? Dans quelle mesure on pourrait répondre à cet enjeu ?
Nous avons évoqué des recommandations opérationnelles sur lesquelles je ne vais pas entrer dans le détail parce que nous n’avons pas un temps illimité. Je voudrais terminer en évoquant deux grands principes que nous avons mis en avant suite à ce diagnostic des préoccupations éthiques établies. C’est d’abord un principe de loyauté de l’Intelligence Artificielle qui nous semble très important et qui fait écho à cet exemple de l’espace politique en ligne. Quand bien même l’algorithme Intelligence Artificielle réussirait « sa promesse » vis-à-vis des utilisateurs et des consommateurs, est-ce qu’il ne faut pas penser à un tas d’intérêt Collectif que l’Intelligence Artificielle serait susceptible d’éroder très subtilement, comme nos attentes pour une démocratie viable et pérenne. C’est un des principes que nous avons mis en avant. Un second grand principe que je voudrais évoquer est celui de la vigilance. Lors de débat public qui a impliqué des acteurs très divers, on a pu discuter avec des ingénieurs, des data scientists, des entreprises, des centres universitaires, nous avons évoqué l’idée d’une chaîne algorithmique, c’est-à-dire que répondre aux problèmes publics de l’Intelligence Artificielle, cela implique de prendre en considération cette composante, que cette chaîne algorithmique implique le développeur, celui qui va entraîner les algorithmes, celui qui va l’utiliser dans son contexte professionnel déterminé, le citoyen qui va utiliser les plateformes du web qui utilisent des algorithmes. C’est ce déploiement ultra-compartimenté de l’Intelligence Artificielle qui pourrait nécessiter une forme de vigilance collective dans le sens où chaque acteur doit prendre conscience de son appartenance, de son implication et de sa responsabilité pour un développement responsable et éthique de l’Intelligence Artificielle.
Voilà les quelques grandes idées que nous inspire, à la CNIL, ce sujet de la place de l’homme dans l’Intelligence Artificielle, essentiel en termes de concurrence internationale. Ça peut véritablement devenir un avantage concurrentiel d’avoir cette vision éthique dans l’Intelligence Artificielle. On le voit avec le règlement européen de protection des données. Il y a encore quelques années, personne n’y croyait. On réalise, de manière très claire maintenant, qu’en se déplaçant à l’étranger, même en Chine ou aux Etats-Unis, que les personnes sont de plus en plus intéressées et que la protection de la vie privée et des données personnelles est devenue une attente des consommateurs. Cet enjeu de confiance pour l’Intelligence Artificielle est un paramètre à prendre en considération.
Réagir