3 – Quel impact de l’IA sur la société ?
- 28 mars 2020
Quel impact de l’IA sur la société ?
3.1 – Transition social-écologique : ce que permettent les nouvelles technologies.
Empreinte carbone grandissante, extraction de métaux rares, consommation d’énergie, absence de réelle volonté de recyclage des terminaux, développement du commerce international, etc. L’exigence de bien-être sociétal et environnemental questionne sur la finalité du service et ses conditions de réalisation. Cette responsabilité renvoi aux implications sociales et environnementales de l’IA. Elle concerne l’organisation de l’auditabilité et de la traçabilité du système sur toute la chaîne allant de la conception à l’utilisation d’algorithmes afin de prévoir des alternatives et de miniminiser les incidences négatives. L’auditabilité des algorithmes ne doit pas trouver sur sa route « le secret des affaires » qui empêcherait, au nom de la propriété intellectuelle et industrielle, la transmission des informations pertinentes pour expliciter les choix qui prévalent dans la restitution des résultats. Cette explicabilité doit conditionner la conformité ou la certification du système IA aux enjeux socio-environnementaux.
Afin d’établir un cercle vertueux entre les entreprises soucieuses de connaître les conditions sociales et environnementales de fabrication sur l’ensemble du processus de fabrication et de la chaîne de valeur, et les entreprises qui s’approvisionnent dans de longues chaînes d’approvisionnement complexes et internationales et ne connaissent pas ou ne veulent pas connaître les conditions sociales et environnementales chez leurs fournisseurs il est nécessaire de générer ces informations de manière fiable, et de les transmettre le long de la chaîne de valeur. Ce cercle vertueux pour les entreprises évitera aussi la concurrence déloyale. Pour cela les nouvelles technologies, dont l’IA, doivent être mobilisées pour assurer la traçabilité des conditions sociales et environnementale de fabrication des services et des produits manufacturés. Le traçage et le suivi numérique du début du processus de fabrication (matière première) à la livraison au client ou à l’usager est possible en utilisant notamment la technologie Block Chain et les étiquettes RFID.
Témoignages illustratifs
« L’évolution du modèle doit aussi être pensée par rapport à l’environnement. Le flux tendu augmente le transport, et la multiplication des serveurs est mauvaise pour l’empreinte écologique. »
Antoine, chef projet informatique, secteur édition.
« La phase d’apprentissage client-e par le salarié-e pour se servir des automates nécessite du temps qui ne doit pas être sous-estimé et doit aussi tenir compte des évolutions aussi minimes soient-elles de ces outils. »
Valentin, cadre, secteur service.
« La logique de réduction des coûts conduit à ne pas stocker et à mettre au pilon et rééditer ensuite. »
Paul, responsable déploiement, secteur édition.
« Dans ce nouveau cadre de production, la gestion et le calcul de l’impression et des retirages des livres, pour gérer les flux des commandes en limitant au maximum le stockage et les retours est un nouveau métier à part entière. »
Paul, responsable déploiement, secteur édition.
3.2 – L’IA, solution pour davantage de mixité sociale et culturelle ?
L’exigence de diversité, de non-discrimination et d’équité nécessite d’avoir un résultat juste depuis la conception d’un service jusqu’à sa délivrance. Cela exige d’attendre des algorithmes davantage de neutralité et de rationalité par rapport aux humains. Cependant, le processus de création d’un algorithme dépend de son concepteur et il existe des biais inévitables : de type cognitif, liés au manque de diversité des développeurs, aujourd’hui très majoritairement masculins ; de type statistique, liés aux données ; de type économique, liés à l’objectif même du service ; de type culturel liés à l’environnement où est développé l’algorithme. La correction des biais est complexe car elle peut générer d’autres biais, notamment dans le domaine de la reconnaissance faciale. Cette exigence comprend aussi l’accessibilité universelle au service. Au final, elle repose sur des choix de l’équipe de conception qui doivent être assumés et explicités.
La mathématicienne américaine Cathy O’Neill a alerté face aux dangers des algorithmes obscurs déployés à grande échelle qui ont conduit à des scandales dans des domaines très variés tels que : le classement des universités dont les critères ont profondément dégradé la gestion des établissements scolaires, la prédiction de la récidive des prisonniers qui s’avère discriminatoire à l’égard de certaines minorités, ou encore les publicités ciblées couplées à des offres de prêt bancaires pour les personnes défavorisées.
L’exigence de responsabilité concerne l’organisation, par les acteurs impliqués dans la chaîne allant de la conception à l’utilisation d’algorithmes, de l’auditabilité et de la traçabilité du système afin de minimiser les incidences négatives et de prévoir des voies de recours. La détermination de la charge de la preuve en cas de problème est un point important qui peut orienter la conception d’un service basé sur de l’IA.
Afin de sortir de l’écueil de statistiques orientées et des prédictions discriminantes, les outils techniques doivent permettre de :
- maîtriser les jeux de données utilisés en amont : référencer, caractériser, évaluer, anonymiser ;
- expliquer les résultats par construction ou avec des outils d’explicabilité ;
- détecter, comprendre, corriger les erreurs produites, ou les biais obtenus ;
- assurer une performance dans le temps (robustesse et sécurité des systèmes) ;
- éclairer les choix de conception à faire.
Il s’agit de garantir l’effectivité de ces préconisations. Pour cela, les outils de gouvernance – regard sur la conception, contrôle a posteriori de l’intégrité des algorithmes – doivent permettre d’assurer l’éthique des usages de l’IA. Un tiers de confiance habilité, sous la forme d’une autorité indépendante de conformité des algorithmes, doit pouvoir veiller au respect de ces recommandations en assurant la transparence via l’Open source des algorithmes.
3.3 – IA et citoyenneté : comment préserver les libertés et la sécurité des individus ?
Smart city ou ville connectée, outils de géolocalisation, objets connectés, smartphones, etc. Les nouvelles technologies permettent de suivre nos activités à la trace.
Cette surveillance à outrance des citoyens soulève avec de plus en plus d’acuité des questions de démocratie. Nos libertés citoyennes sont-elles compatibles avec de tels instruments de domination ? Qui peut souhaiter d’être soumis à un contrôle dont les critères lui échappent ?
C’est pourtant ce que nous acceptons, en laissant s’installer partout la vidéosurveillance et la reconnaissance faciale. Derrière l’engouement pour la vidéosurveillance et la reconnaissance faciale, on voit une convergence d’intérêts entre un agenda politique qui joue volontiers sur la corde de la sécurité publique, et des entreprises qui cherchent à s’emparer de l’immense marché municipal qui s’ouvre à elles, en France d’abord, et dans le monde ensuite. La technique est installée aussi dans les centres commerciaux pour épier les réactions des passants : quelles images retiennent leur attention, quelles boutiques envisagent-ils de visiter, quels sont leurs déplacements, etc. Le but étant bien sûr d’offrir aux visiteurs « la meilleure expérience possible ». Chaque visage dans la rue porte un casier judiciaire, un nom, des relations, des opinions exprimées sur les réseaux sociaux, des habitudes de consommation, des engagements divers… On peut s’opposer à un prélèvement d’ADN. Mais comment s’opposer aux photos de soi ? Facebook applique un logiciel de reconnaissance faciale aux photos postées par ses utilisateurs. Si un « ami » n’est pas reconnu, le site invite même les utilisateurs à identifier leurs proches. Même en n’ayant jamais eu de compte Facebook, vous figurez peut-être dans cette immense base de données, et Facebook sait mettre votre nom sur votre visage, et vous reconnaître parmi toutes les nouvelles photos postées par vos amis…
Nous abandonnons chaque jour un peu plus notre vie privée à chacun de nos clics. Au risque d’y laisser notre liberté, en révélant notre identité numérique établie avec toutes les traces numériques que nous laissons qui permettent de nous connaître dans le moindre de nos actes. La surveillance de tous, partout, tout le temps, alimente à la fois les services de renseignement des États mais aussi un immense marché. Toutes ces données que nous divulguons ont une immense valeur parce qu’elles permettent à Google et Facebook de monnayer ces données aux publicitaires et à Netflix ou Amazon de prédire nos comportements et d’influencer nos désirs avec les recommandations.
La notion « d’acceptabilité » est souvent présentée comme une approche politiquement souhaitable. Or, les institutions étatiques disposent, tout comme les acteurs du privé, d’un arsenal de leviers psychologiques, de ruses du design, ou de chantages sur l’accès à un service pour forcer ce consentement. Ajouté le contexte d’application reposant sur des algorithmes opaques, biaisés et inefficaces pour traiter les données collectées par les caméras qui intègrent du tracking et de la reconnaissance de visage.
Les utilisations commerciales ou municipales de la reconnaissance faciale prospèrent dans une faille juridique : le phénomène est mal encadré, alors qu’il devrait faire l’objet d’un débat collectif. Mais la sécurité policière et la prospérité des entreprises commerciales sont devenues dans le monde entier l’alpha et l’oméga des politiques publiques. Des efforts comme le RGPD (le nouveau règlement européen sur les données personnelles) sont de bons signaux, mais cela ne concerne pas directement les algorithmes, seulement les données. La loi européenne est en retard sur ce qui se passe aujourd’hui. Il y a urgence à renforcer la protection des citoyens.
Témoignages illustratifs
« Le travail pour l’éducation nationale donne accès à des données personnelles (élèves et professeurs) qui font l’objet de déclaration à la CNIL. Il y a interdiction de transfert de ces données en utilisant des extractions, sous forme de tableau Excel par exemple. »
Antoine, chef projet informatique, secteur édition.
« Il y a un affaiblissement de la qualité de l’information. La production en quantité se fait au détriment de la qualité. Internet facilitant la recherche de source, la vérification sur le terrain est négligée. »
Jacques, journaliste.
« La réticence à utiliser les nouveaux outils dans le cadre professionnel est liée à l’usage potentiel qui pourrait en être fait au détriment de l’éthique professionnelle. »
Paul, responsable déploiement, secteur édition.
« La multiplication des points internet et des bornes multiservices pour que les clients procèdent eux-mêmes aux opérations transforme les personnels du front office en accompagnant, sauf qu’ils n’ont pas eux-mêmes forcément les ressources pour répondre à toutes les situations (personnes ayant des difficultés à lire, ne sachant pas utiliser les outils informatiques, etc.). »
Emma, référente technique, secteur service.
« Pouvoir être connecté de partout c’est un plus, mais il y a des règles à définir. »
Juliette, déléguée territoriale, secteur service.
3.4 – IA et activité professionnelle : pour le droit à la vie privée au travail.
Une attention particulière doit être accordée au risque de sur-surveillance qui n’est pas, de surcroît, nécessairement fiable. En effet, l’intelligence artificielle peut apporter la mise en corrélation des différentes données qui concernent une personne en situation de travail (envoi de courriels, accès et édition de fichiers, qui rencontre qui, heure des pauses, etc.), mais ces corrélations peuvent s’avérer fausses car basées sur des prédictions issus d’algorithmes conçus par des humains.
La position de l’Ugict-CGT : assurer l’encadrement des données personnelles
Chaque salarié·e a droit au respect de sa vie privée dans l’entreprise (par exemple : correspondance personnelle ou fichier informatique présent sur son poste de travail). Les données personnelles produites par le salarié-e en dehors du cadre de l’entreprise ne peuvent faire l’objet d’un traitement au titre de l’exécution du contrat de travail sans le consentement formel et préalable du salarié-e (par exemple activité sur les réseaux sociaux ou celles générées au titre de client de l’entreprise).
Chaque salarié·e dispose d’un droit d’accès à ses données personnelles qu’il peut corriger ou modifier pour des raisons légitimes.
Afin de garantir la non utilisation des données à des fins de contrôle et prévenir les pratiques intrusives des garanties de traitement et d’usage des données suivent les règles suivantes :
- la collecte est en adéquation avec la finalité du traitement et proportionnée au but recherché ;
- le traitement des données doit être loyal et licite la conservation des données est limitée à la durée nécessaire aux finalités poursuivies ;
- la sécurité de conservation et de traitement des données doit être assuré ainsi que leur non communication à des tiers non autorisés ;
- chaque salarié·e dispose d’un droit à l’information, d’un droit d’opposition, d’un droit d’accès, d’un droit de communication, de rectification et d’oubli.
Témoignages illustratifs
« Le changement a induit une personnalisation de l’outil de production (ordinateur personnel) où se mélangent facilement ce qui relève du personnel (photo, vidéo, fichiers et documents personnels) et ce qui relève de l’activité professionnelle. Des tolérances existent sur l’usage et la coexistence de ces deux dimensions, côté salarié et côté employeur. »
Paul, responsable déploiement, secteur édition.
« Le télétravail se développe et concerne de plus en plus de personnes. Il accompagne les réorganisations et a pour conséquence que le travail s’invite à la maison. »
Valentin, cadre, secteur services.
« Avec les outils connectés en permanence, le niveau d’exigence est augmenté sur la disponibilité et la réactivité. »
Béatrice, RRH, secteur services.
« L’utilisation des logiciels et le traçage sont fortement décriés, car ils constituent un flicage du niveau de la production. »
Valentin, cadre, secteur services.