L’IA aura toutes sortes d’effets sur nos sociétés dans les années à venir. Nous ressentons déjà certains de ces effets – par exemple, l’utilisation de générateurs de textes ou d’images par l’IA dans le domaine de la création et ailleurs – mais nous ne pouvons qu’en deviner beaucoup d’autres, en particulier ceux qui sont plus fondamentaux. Ici, à EUvsDisinfo, nous nous intéressons principalement à l’interaction entre l’IA et la manipulation de l’information. Entretien avec le Dr Benjamin Lange, éthicien de l’IA, sur les menaces que l’IA fait peser sur la désinformation, mais aussi sur les solutions possibles qu’elle offre pour atténuer ces risques.
Source — EUvsDiSiNFO — 11 août 2023 —
EUvsDisinfo: Monsieur Lange, vous êtes éthicien et travaillez sur l’IA et la désinformation, entre autres. Qu’est-ce que cela signifie concrètement? Que fait un éthicien traitant de ces sujets?
Dr Benjamin Lange : En tant qu’éthicien, on pourrait dire que je porte deux chapeaux. Le premier est un chapeau d’universitaire. J’axe mes recherches en philosophie sur la désinformation et l’IA. J’examine par exemple les divers dommages que risque de causer la lutte contre la désinformation, d’un point de vue éthique. Même si tout le monde s’entend pour dire qu’il faut endiguer et réduire la désinformation, en particulier lorsqu’elle implique de grands acteurs tels que les états, il y a des méthodes plus ou moins appropriées pour le faire, au regard de l’éthique.
Dans une autre partie de mes recherches, je me penche sur la meilleure façon de conceptualiser ce qu’est la désinformation et je porte une attention particulière à la mise en œuvre de nos mécanismes de détection. L’analyse conceptuelle employée en philosophie peut s’avérer très utile dans ce contexte et contribuer à améliorer notre compréhension du phénomène.
Mon second chapeau a plutôt à voir avec l’application. Dans le cadre de mon rôle de conseiller en éthique, j’ai aidé des organisations dédiées à déboulonner, à endiguer et à combattre la désinformation à le faire de telle sorte que la lutte soit fondée sur des principes éthiques sains et que les analystes puissent plus facilement gérer les zones grises requérant une grande dose de jugement critique. Mon travail peut alors impliquer de mettre au point des cadres de référence et des boîtes à outils pour guider les décisions ou les délibérations dans les situations épineuses; d’aider autrui à conceptualiser la désinformation et à imbriquer le concept obtenu dans les chaînes de détection; ou de concevoir un processus pour nous aider à mieux évaluer la proportionnalité des mesures employées pour lutter contre la désinformation.
EUvsDisinfo: L’IA aura toutes sortes d’effets sur nos sociétés dans les années à venir. Nous en avons déjà vu certains — les générateurs de texte et d’image propulsés par l’IA sont notamment utilisés pour le travail créatif et ailleurs — mais nous ne pouvons que deviner ce qui nous attend, en particulier les changements plus fondamentaux. Chez EUvsDisinfo, nous nous intéressons surtout à l’influence de l’IA sur l’infox et de l’infox sur l’IA. Pourriez-vous expliquer en un éclair l’état actuel des réflexions à ce sujet à nos lecteurs et lectrices? Qu’est-ce qui devrait nous inquiéter? À quoi devrions-nous porter attention?
Dr Benjamin Lange : Comme vous le dites, je pense que tout le monde songe aux effets de l’IA générative cette année, que ce soit par rapport aux générateurs texte-texte ou texte-image. C’est un domaine émergent où il règne encore beaucoup d’incertitude, mais l’effet catalyseur que pourrait avoir l’IA sur la diffusion massive de mésinformation et de désinformation, sous forme de textes comme d’images, est assurément une préoccupation majeure.
Il est certain que c’est un domaine auquel nous devrons porter attention. J’inviterais tout le monde à faire l’effort de mieux comprendre le fonctionnement de certains de ces modèles, notamment; à s’informer sur la façon dont ils génèrent du texte ou des images; et à apprendre comment mieux détecter les produits de l’IA générative. Certains indices peuvent nous y aider, comme les schémas syntaxiques (c.-à-d. l’ordre acceptable des mots dans une phrase, les structures de phrase en tant que telles) ou les éléments graphiques que l’IA n’arrive pas encore à bien créer (p. ex., les mains, les proportions logiques, les proportions relatives entre certains éléments, des arrière-plans détaillés). En même temps, cela signifie que les techniques éprouvées de vérification des faits, comme consulter les sources, deviendront d’autant plus importantes.
Mais il y a aussi une bonne nouvelle: à mesure que nos capacités techniques augmentent, notre aptitude à détecter la désinformation à l’aide de l’IA en fait de même, par exemple pour la vidéotox — quoiqu’il y a des preuves alarmantes indiquant que les modèles actuels ont du mal à détecter la mésinformation générée par l’IA. Reste à voir si, au final, nous serons submergés par un flot de désinformation générée par l’IA. Impossible de le savoir pour l’instant.
EUvsDisinfo: À votre avis, quelles moyens immédiats s’offrent à nous pour pallier les menaces que fait peser l’IA sur l’écosystème de l’information? Aussi, avez-vous des idées audacieuses, possiblement coûteuses en temps et en argent, mais susceptibles de s’avérer très payantes à long terme?
Dr Benjamin Lange : Votre question s’inscrit dans un débat plus large sur la gouvernance responsable de l’IA. Dans tous les cas, nous avons besoin d’une réponse exhaustive, élaborée de concert par toutes les parties prenantes pertinentes, y compris par la politique, l’industrie, la recherche et la société en général. Si les dangers spécifiques de l’IA pour l’écosystème de l’information nous inquiètent, alors il faut nous assurer que des garde-fous adéquats sont en place pour encadrer l’usage de ces technologies, en recourant à la fois à l’autorégulation et à une législation contraignante. Dans ce contexte, il serait envisageable d’ajouter des garde-fous techniques allant des filigranes numériques à des interfaces de programmation d’applications (API) dans les logiciels propulsés par l’IA afin de réduire le risque d’abus et de manipulation de l’information.
Autre idée probablement audacieuse: nous pourrions nous éloigner de la gestion réactive des menaces, qui restera nécessaire, pour nous rapprocher de la prévention, en renforçant considérablement nos efforts de formation. C’est-à-dire en éduquant le public en général sur l’IA, sa relation avec notre façon de conformer l’information et nos habitudes de création, et ce, dès les bancs d’école. À l’ère de l’IA, il m’apparaît beaucoup plus judicieux de cultiver la résilience, la sagacité et l’esprit critique à grande échelle, pour que la population soit en mesure de s’y retrouver dans l’écosystème de l’information, que de nous fier à de seules mesures réactives.
EUvsDisinfo: Y a-t-il des cas d’utilisation positifs de l’IA pour déjouer l’infox?
Dr Benjamin Lange : Je pense que les cas d’utilisation positifs concernent la détection des cas simples de manipulation de l’information. Quoique, comme mentionné plus tôt, des recherches récentes indiquent que l’IA générative compliquerait vraiment les efforts de détection automatique. De tels cas pourraient comprendre: la détection de comptes usurpant l’identité et de faux comptes (comptes zombies) diffusant en masse certaines histoires, ou encore la détection automatisée de vidéos, textes et images déjà signalés comme contenant de la mésinformation ou de la désinformation, et qui ont seulement subi de légères modifications. Cela permettrait de repérer efficacement les légères modifications syntaxiques dans le schéma des textes déjà signalés comme étant de l’infox par un analyste humain ou une analyste humaine, par exemple. Des techniques similaires existent pour la vidéotox et les images fallacieuses, lesquelles représentent une grand nombre de cas d’infox. Citons à ce titre les infographies, photographies et images satellite manipulées. Les variations et modifications apportées à ce type de contenu se prêtent aussi à la détection automatique, dans une certaine mesure.
Voir également : « Disinformation-related Threats that AI Poses » – Interview with AI ethicist Dr. Benjamin Lange — (2023-0811)