Les impacts sociaux de l’IA

La fulgurante progression des outils d’intelligence artificielle (IA) de ces dernières années étonne et inquiète bien au delà des seules problématiques d’énergie indispensable à l’entraînement et au fonctionnement des algorithmes d’apprentissage profond (Deep Learning). L’objectif principal de cet article est d’ouvrir la réflexion aux différents risques indirects et autres qu’environnementaux (économiques, humains, sociétaux, politiques et individuels) qui se cachent derrière les promesses de l’Intelligence Artificielle.

Avant l’ascension de ces algorithmes d’apprentissage profond, les outils numériques ont déjà permis de faciliter un certain nombre d’usages « basiques » (bureautique, communication, lecture et manipulation de médias vidéos ou audios) mais aussi de construire une infrastructure planétaire d’échange (le réseau Internet). Pourtant, même avec des algorithmes simples, dès 1966, le programme ELIZA montrait déjà les limites du test de Turing en trompant certaines personnes. Depuis 2016 et l’impressionnante défaite de Lee Sedol face au logiciel Alpha Go, les « succès » médiatiques de l’intelligence artificielle font successivement rêver ou frémir. Les nouvelles capacités relevant habituellement du pré carré de l’intelligence humaine comme traduire correctement des textes, conduire des véhicules quasiment en autonomie, générer de la connaissance ou aider à la décision en repérant des liens insoupçonnés, comprendre les phénomènes à grande échelle par une approche holistique, prédire (pathologies, mouvements de populations, santé), reconnaître des visages, tenir une conversation quasiment indiscernable d’un humain, etc. posent la question à la fois de l’intelligence mais aussi celle de la conscience. Cette liste d’usages ou la vitesse d’exécution et la volumétrie des données traitées dépasse largement nos capacités est probablement sans fin et permet à l’IA d’aborder des domaines jusque là réservés aux humains (santé, justice, science, …)

On pressent avec cette évolution les impacts énormes que cette technologie peut entraîner dans son sillage. Exploitant (mais aussi fortement dépendant de) l’explosion des volumes de données à leur disposition, les acteurs privés et/ou étatiques se sont lancés dans une course à l’intelligence artificielle dont les applications peuvent bien sûr se montrer positives,  mais malheureusement, pas toujours. Nous allons voir quelques un de ces usages avant de conclure sur les pistes de réflexion qu’il faudra impérativement aborder pour continuer d’avancer dans cette voie délicate de la conception d’une « véritable » intelligence artificielle, avec le risque d’éveiller une conscience qui pourrait dépasser ses propres créateurs ?

Un peu d’histoire

L’histoire est jalonnée de tentatives de créer des êtres artificiels imitant le vivant. Au XVIIe et au XVIIIe siècle, de nombreux automates animaux et anthropomorphes tels que le canard digérateur ou le joueur de tambourin de Vaucanson popularise l’imitation du vivant et favorise aussi malheureusement le concept « d’animal machine » porté par Descartes.

Pourtant, depuis 2012, c’est avec l’émergence récente des algorithmes d’apprentissage profond (alors que les concepts des réseaux neuronaux datent des années 1950) et les machines capables de traiter d’immenses volumes de données que ces dernières années ont montré une véritable rupture dans les capacités des outils d’intelligence artificielle. Les capacités matérielles de traitement ont explosé principalement grâce aux calculs GPU et la parallélisation. Les algorithmes sur lesquels s’appuient les progrès de ces dernières années sont déjà depuis longtemps connus, mais la rupture technologique est extrêmement récente.

L’IA est en effet longtemps resté sur des approches symboliques avec ce qu’on a appelé les systèmes experts. Cette approche était limitée dans sa capacité à traiter les données erronées et seule la puissance de calcul brute permettait à ces systèmes de surpasser partiellement l’intelligence humaine. Cette approche a connu son heure de gloire malgré quelques controverses avec la victoire de Deep Blue sur le champion du monde d’échecs Gary Kasparov mais butait sur toutes les tâches « simples » qu’un humain réalise sans le moindre effort telles que la reconnaissance faciale ou le langage naturel. Les algorithmes d’aujourd’hui sont non seulement capables de performances très supérieures à ceux de cette époque, mais ils sont surtout capables d’apprendre par exemple les échecs en partant des règles du jeu en totale autonomie, simplement en jouant contre eux même par exemple. Les résultats étaient déjà  sans appel pour AlphaZero, qui aux échecs ou au Go a systématiquement remporté les victoires contre tout autre type d’algorithme.

C’est dans ces domaines que l’apprentissage profond a montré une immense supériorité. La disponibilité des jeux de données indispensables à l’entraînement des algorithmes et la puissance de calcul pour les manipuler ont permis cette révolution. Le problème principal face à ces résultats, c’est le fonctionnement en boîte noire de ces algorithmes alors qu’aujourd’hui, personne n’est véritablement en mesure d’expliquer pourquoi et comment ils fonctionnent. Cet aspect obscur participe évidement à créer une immense défiance vis-a-vis de l’IA, défiance abondamment nourrie par les pistes explorées par l’imaginaire écrit ou cinématographique de ces dernières années.

IA Forte, IA Faible

Avant de regarder les pistes imaginaires, il convient de préciser qu’il existe une distinction très nette entre les différentes catégories d’intelligence artificielle. Aussi étonnantes que soient les capacités des IA actuelles, elles restent cependant très loin de ce que les chercheurs appellent souvent l’IA forte ou générale (IAG), c’est-à-dire une IA centrée “sur la capacité à reproduire voire dépasser l’intelligence humaine dans toutes ses composantes”. Dès 1951 Alan Turing lançait cet avertissement sur les risques de prise de contrôle d’une IA Forte sur l’humanité tandis que plus récemment, de nombreux dirigeants et chercheurs (Elon Musk, Bill Gates, ou Stephen Hawking) continuent de nous alerter sur les risques pour l’humanité que représente le développement d’une IAG. On distinguera donc les résultats des algorithmes actuels, même s’ils sont déjà spectaculaires, qui sont la plupart du temps limités à une tâche spécifique (jeu de Go, échecs, reconnaissance de textes ou d’images, génération de visages, etc…), de la survenue encore improbable, mais chaque jour plus risquée, d’une IAG dont les objectifs et le contrôle pourraient ne pas être favorable à l’humanité dans son ensemble.

Le problème éthique que pose l’IA est particulièrement délicat et probablement critique pour l’humanité, et ce, même si les algorithmes « intelligents » d’aujourd’hui n’ont a priori ni intention, ni émotion, ni conscience. Leurs capacités nouvelles, aussi impressionnantes soient-elles, ne doivent pas occulter cette absence qui définit en partie l’intelligence humaine. Il existe donc encore un immense écart entre une machine autonome et ses propres intentions et les machines « intelligentes » d’aujourd’hui qui restent des algorithmes simulant des formes d’intelligence limitées, que l’on considère comme de l’IA faible.

L’intelligence Artificielle et l’imaginaire

La notion de machine intelligente a été particulièrement explorée par de nombreux écrivains de Science Fiction. Le mot robotique apparaît ainsi pour la première fois sous la plume de l’écrivain américain Isaac Asimov dans sa nouvelle Le cercle vicieux publiée en 1942. L’auteur y met en scène un robot soumis aux trois lois de la robotique (https://fr.wikipedia.org/wiki/Trois_lois_de_la_robotique) évoquant ainsi les réflexions de l’auteur sur ce que seraient nos rapports futurs avec les robots :

  • loi numéro 1 : un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger ;
  • loi numéro 2 : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  • loi numéro 3 : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Les œuvres suivantes d’Isaac Asimov ont permis également d’explorer les limites et les contradictions possibles de ces lois,  donnant naissance à la loi Zéro :

  • loi Zéro : Un robot ne peut pas porter atteinte à l’humanité, ni, par son inaction, permettre que l’humanité soit exposée au danger ;

De nombreuses autres œuvres cinématographiques (Terminator de James Cameron, 1984, Transcendance (de Wally Pfister, sorti en 2014), Ex Machina (en 2015), Eva (de Kike Maillo, en 2012), Her (de Spike Jonze, en 2013) et/ou littéraires (2001, Odyssée de l’espace (co écrit par Arthur C. Clarke et  Stanley Kubrick en 1968) ou encore le cycle de films Matrix (Les Wachowski, en 1999) explorent ce concept de machine intelligente, qui développe une forme de conscience et d’émotions montrant les limites et les dangers inhérents au développement d’une technologie pouvant potentiellement nous dépasser.

Législation et éthique

Une certaine prise de conscience est d’ailleurs (heureusement) en train d’émerger y compris au sein du monde politique. Des rapports sont publiés, et en janvier 2020, un député français a déposé une proposition de loi visant à promulguer une charte de l’intelligence artificielle et des algorithmes, et à en inscrire la référence dans le préambule de la Constitution, afin de se positionner dans la continuité de la Déclaration des droits de l’Homme et du citoyen de 1789. L’article 2 de cette charte est constitué par les trois lois de la robotique, dans leur version initiale. L’Europe n’est pas en reste et engage plus que des réflexions en fixant un cadre législatif et éthique sur ce sujet.

Du coté international, le Haut-Commissariat aux droits de l’homme de l’ONU a appelé la communauté internationale à imposer un moratoire sur son utilisation. Les 193 pays de l’Unesco ont signé un texte de recommandations qui s’il n’engage à rien concrètement fixe cependant un cadre éthique sur l’IA.

Il existe également un programme intitulé « Les 23 principes d’Asilomar » qui a pour objectif de fédérer les initiatives et les réflexions liées à l’IA autour d’un projet commun pour fixer les bases de l’éthique en la matière. À ce jour, plus de 800 scientifiques spécialisés dans l’intelligence artificielle ou la robotique et 1200 personnalités de l’univers de la Tech ont signé cette charte.

Les usages positifs de l’IA

L’intelligence artificielle et ses algorithmes ont déjà fait irruption dans nos vies quotidiennes sans que nous n’en ayons une totale conscience. On pourra ainsi citer parmi ces usages (où nous avons déjà oublié le niveau « d’intelligence » requis par ces applications) la recherche d’itinéraires effectués par nos GPS, la traduction automatique en temps réel, la reconnaissance vocale des assistants sur de « simples » smartphones, ou encore la reconnaissance d’images qui permet de classifier d’immenses banques d’images avec un taux d’erreur presque ridicule. Tous ces outils sont devenus exploitables au quotidien si l’on s’amuse de leurs « petites » erreurs d’interprétation, qui vont classifier un paysage marin dans les lacs ou mélanger quelques visages, et si l’on accepte parfois quelques détours liés à une optimisation de notre GPS légèrement déficiente ! Les algorithmes d’IA permettent également de créer des œuvres cinématographiques d’un réalisme saisissant autorisant une liberté créative sans autre limite que notre imaginaire. Les erreurs des algorithmes (peu nombreuses mais toujours existantes et probablement incontournables) dans ces domaines ne prêtent pas à conséquence.

Très récemment, l’utilisation de Deep Mind pour améliorer le contrôle de la géométrie des plasmas dans le cadre de la recherche en fusion nucléaire a également permis de faire de substantiels progrès dans la durée du maintien de la fusion ou encore cet exemple d’utilisation à la sensibilisation individuelle et particulièrement adapté au contexte du ressenti de l’urgence climatique.

On y verra également des applications en histoire où une IA a pu recréer des visages réalistes de personnages historiques tels que Napoléon Bonaparte et Jules César par exemple.

Il est cependant d’autres secteurs où l’erreur est beaucoup moins tolérable et peut avoir de lourdes conséquences : en matière de santé ou de justice, par exemple, l’IA permet ainsi d’accompagner les professionnels avec de nouveaux outils d’aides au diagnostic et à la décision. Ces outils se cantonnent aujourd’hui à ce rôle d’aide alors que la décision revient in fine au médecin ou au magistrat et on imagine plutôt un travail conjoint humain-machine qu’une délégation à la machine les yeux fermés. Mais combien de temps allons nous résister à cette délégation possible alors qu’en 2018, la FDA a déjà autorisé cet usage sur certaines pathologies ? Pourtant, il est possible de tromper ces réseaux notamment à l’aide de ce que l’on nomme « adversarial attacks » et leur faire rendre de fausses prédictions, en santé  ou même « simplement » les faire consommer plus d’électricité par des facteurs de 10 à 200.

Éthique et biais cognitifs

C’est la profusion des données et leur disponibilité qui reste une des clés fondamentales des ces progrès. Dès lors, et comme chez l’humain, de nombreux biais affectent l’usage de ces technologies par une utilisation trop partielle de ces données lors de l’apprentissage des réseaux neuronaux et on retrouve ainsi des algorithmes tenant des propos racistes, essayant de noter la beauté d’un visage, ou sélectionnant uniquement des personnes blanches ou encore, en 2015, en classifiant des personnes noires avec les gorilles ce qui a conduit Google à retirer en urgence le tag gorille de son application pour éviter tout nouveau dérapage! On retrouve ainsi parfois exacerbés les biais existants de nos sociétés, ou pire, des algorithmes qui en créent de nouveaux (exemple : la voiture Tesla qui n’a pas été capable de reconnaître un camion au milieu de la route). On retrouvera également la profonde problématique des choix à appliquer et apprendre à une IA lors d’un accident inévitable par exemple : Faudra-t-il choisir de sauver les habitants du véhicule ? l’enfant qui traverse la route ? le jeune couple et son bébé ou encore, le groupe de personnes âgées juste à coté ?

Un détournement des usages

Alors même que l’emprise des géants d’internet sur nos vies numériques mais surtout sur nos vies tout court ne cesse de croître, les outils d’intelligence artificielle déployés renforcent l’emprise de quelques acteurs mondialisés parfois sous l’emprise ou au service d’idéologies politiques ou de visions du monde pas forcément souhaitables pour le bien-être humain ou l’avenir de notre planète. De nombreuses menaces sont associées aux outils d’intelligence artificielle allant de la fausse information aux faux avis sur des produits, en passant par les robots militaires, le piratage et les cyberattaques ou la manipulation des systèmes financiers. De nombreuses applications beaucoup moins bénéfiques font ainsi leur apparition dans le sillage de cette technologie. Nous allons analyser quelques uns de ces usages avant de conclure notre article.

Deepfake

De nombreux outils accessibles à tous permettent notamment de manipuler l’information sur les réseaux sociaux (bots) ou de détourner une vidéo ou des images, voire de générer de fausses informations extrêmement réalistes.

C’est essentiellement la technique du GAN (Generative Advesarial Networks) inventée par le chercheur Ian Goodfellow en 2014 qui est à l’origine des deepfakes. Deux algorithmes s’entraînent mutuellement : l’un tente de fabriquer des vidéos aussi réalistes que possible tandis que l’autre algorithme tente de détecter les faux. La qualité du résultat est dépendante du nombre d’échantillons disponibles et de la quantité de données traitées. Le phénomène du deepfake est lui apparu à l’automne 2017 sur le site web Reddit avec des vidéos pornographiques mettant en scène des acteurs connus. Depuis 2017, le nombre de deepfakes augmente considérablement avec la sortie d’applications utilisables par quasiment n’importe qui (telles que FakeApp) et s’étendent à la politique, à l’art permettant de redonner vie à des acteurs ou des actrices et  de créer des scènes n’ayant jamais été tournées. Manipulation, désinformation, humiliation, diffamation… les dangers des deepfakes sont de plus en plus nombreux et les grands acteurs de la tech tentent de contrer ces dangers à l’aide … de l’IA ! Par ailleurs, depuis novembre 2019, la CNIL met en avant sa volonté de créer un véritable cadre législatif et réglementaire pour la reconnaissance faciale. Le respect de la vie privée et le droit à l’image semblent être remis en cause pour pouvoir répondre à des enjeux stratégiques, économiques et politiques. Entre temps, les progrès réalisés sur les visages artificiels générés par ces techniques inspirent plus de confiance que des visages réels, mettant potentiellement au service d’un usage de manipulation, des personnages virtuels plus convaincants que quiconque.

Surveillance de masse

D’autres usages que la création de fausses informations et ayant des impacts sociétaux importants  se dessinent aujourd’hui. En effet, une surveillance de masse, décrite dès 1949 dans le roman 1984 de Georges Orwell et son célèbre « Big Brother is watching you » se met en place notamment en Chine qui a déployé de nombreux outils de surveillance et de notation de masse devant lesquels le roman ferait presque figure de plaisanterie. La Chine est ainsi la première nation du monde à adopter un système de surveillance de masse de l’ensemble de sa population totalement connectée : avec plus de 200 millions de caméras (selon la chaîne australienne ABC News Australia, qui a réalisé un reportage sur ce sujet) le système de « crédit social chinois » qui est entré en fonction en 2020 est conçu comme un réseau numérique attribuant des « crédits sociaux » aux habitants. En fonction de leurs comportements, les citoyens et les entreprises vont se voir attribuer une note de confiance individuelle en croisant à l’aide des outils d’intelligence artificielle les données personnelles et les éventuelles infractions. La note attribuée au citoyen lui procurera (ou enlèvera à chaque infraction – fumer là où c’est interdit, traverser hors des passages piétons, etc…) des avantages tels que des délais réduits pour accéder à des soins ou des facilités pour obtenir un crédit, ou quand la note se dégradera, des amendes, une fermeture d’accès à Internet ou des restrictions de la liberté de déplacement.

L’occident n’est pas non plus en reste, déployant des  caméras et des technologies de reconnaissance faciale. La société américaine Clearview AI affirme pouvoir identifier presque tout le monde d’ici un an. Au delà de l’effet d’annonce, la technologie est factuellement quasiment prête. Qu’allons nous en faire ?

Les données personnelles confiées à des outils d’intelligence artificielle peuvent conduire à des situations délicates sans pour autant dériver vers la surveillance de masse mais en posant cependant de nombreux soucis éthiques. On pourra par exemple voir la mésaventure des joueurs de « AI Dungeon » jouant avec l’algorithme GPT-3 de la société Open AI.

On pourra également consulter la vidéo (en anglais) du mathématicien Thomas Strohmer sur ce qu’il nomme le capitalisme de masse, dont les méthodes pour alimenter les intelligences artificielles ne sont pas vraiment compatibles avec les données personnelles et la vie privée. Nous sommes de fait dans une situation qui réclame déjà une attention soutenue pour en limiter les dérives avant même les risques plus lointains de la prise de pouvoir sur l’humanité d’une IAG.

Usage militaire

La course aux armements « intelligents » et « autonomes » laisse planer le spectre d’une perte de contrôle sur ces machines conduisant à des affrontements entre IA ou humain et IA qui peuvent peut-être sembler pour certains de la science fiction mais qui demeure une potentialité inquiétante : drones armés et autonomes, chars sans pilotes.

Usage biologique : l’ectogenèse

Enfin, on pourra également s’interroger sur un dernier usage récent de l’IA pour permettre la conception d’êtres vivants via des utérus artificiels. On ne peut évidement pas s’empêcher de penser au roman d’Aldous Huxley (1894-1963) le  Meilleur des mondes (1932) qui avait exploré cette possibilité et ses dérives.

Conclusion

Les IA faibles soulèvent déjà des questions environnementales, économiques et sociales complexes, rien ne serait pire que de considérer ces transformations comme inéluctables, alors qu’elles relèvent de choix collectifs soumis à débat. L’irruption des outils d’intelligence artificielle et des algorithmes qui les sous tendent dans nos quotidiens n’a bien évidemment pas fini de bouleverser nos vies quotidiennes mais nous avons encore le pouvoir de décider dans quelle direction il est souhaitable de les orienter. Les algorithmes ne sont pas des êtres indépendants. Ils sont conçus par des entreprises, des hommes, des femmes, dans un but spécifique et sont aujourd’hui contrôlables. Il est indispensable de mettre en place des règles de fonctionnement éthiques pour éviter les débordements possibles de ces technologies, fonctionnant en partie en « boîtes noires », que sont les réseaux de neurones et l’apprentissage profond. Il n’est pas question ici de vouloir moins de sciences, mais au contraire, d’associer à la fois les sciences techniques et les sciences humaines pour avancer ensemble vers plus d’éthique et plus de responsabilité dans l’usage de ces technologies. Nous devons construire des technologies collaboratives et non pas concurrentielles pour se diriger vers une société respectueuse, plus juste, plus démocratique, plus digne de notre humanité afin d’éviter une concentration encore plus excessive des ressources et du pouvoir ou une technologie incontrôlable dans de mauvaises mains. Il ne faut clairement pas sous-estimer les risques de déstabilisation sociétale et de manipulation qu’il est possible de mettre en place en utilisant ces outils dont la puissance de traitement et l’usage dépassent déjà largement nos propres capacités d’analyse et de traitement.

La science fiction a pu librement explorer de nombreux futurs et certains auteurs se sont depuis longtemps posés la question de l’irruption de machines intelligentes au sein de nos sociétés. Sachons nous inspirer et poursuivre leurs réflexions pour éviter de tomber dans les pires scénarios que ce genre littéraire a pu imaginer.

Merci à Emmanuelle Frenoux, Julien Lefèvre, Laurent Lefèvre, Anne-Laure Ligozat, Anne-Cécile Orgerie et Denis Trystam, pour leurs relectures attentives !

Quelques lectures complémentaires

La Science Fiction regorge d’œuvres qui traitent de ce sujet et posent bien souvent les bonnes questions. Les romans d’Isaac Asimov font ici figure de références, notamment le Cycle des Robots.

On pourra suivre les travaux et les livres de Laurence Devillers:

Ou encore une série d’articles sur l’IA du CNRS :

Enfin, ces deux articles qui proposent quelques pistes de réflexions sur la place de l’éthique et de l’IA au sein de l’association Ingénieurs Engagés :

  • Billet et réflexions sur l’IA et l’éthique, partie 1
  • Billet de réflexion sur l’IA et l’éthique, partie 2

Quelques rapports de la CNIL et du gouvernement sur l’éthique et le Web