«Aucune intelligence artificielle n’est neutre. Toutes ont été créées selon un modèle, un but, un intérêt.» Anna Jobin est sociologue et spécialiste en éthique de l’intelligence artificielle (IA). Chercheuse à l’Institut Human-IST de l’Université de Fribourg et collaboratrice au Humboldt Institute for Internet and Society de Berlin, en Allemagne, elle s’intéresse notamment aux enjeux et aux répercussions sociales des nouvelles technologies. Anna Jobin a aussi travaillé sur le sujet des chartes éthiques de l’IA.

également interessant
 
 
 
 
 
 

De notre écoute de musique aux générateurs en ligne, l’IA est aujourd’hui omniprésente dans nos sociétés. Mais à quel prix? La protection des données personnelles se heurte au développement d’IA plus complètes, une étape pourtant nécessaire pour éliminer les discriminations algorithmiques – qui reproduisent des stéréotypes sociaux et culturels. La régulation politique apparaît quant à elle indispensable.

Pourquoi faut-il intégrer l’éthique à l’intelligence artificielle?

Toute technologie s’inscrit dans un contexte donné et n’est donc jamais neutre. Une IA ne pense pas par elle-même: elle est programmée, déployée et utilisée par des humains qui y intègrent leur mode de pensée. S’ajoutent les intérêts particuliers des grandes entreprises multinationales, les «big techs», très actives dans le domaine. Chaque IA est donc normative, puisqu’elle fonctionne selon des principes choisis, qu’elle propage.

Ces nouvelles technologies sont de plus en plus présentes et agissent sur tous les domaines d’activité. Quelles sont les valeurs qu’elles véhiculent? Que sommes-nous prêts à accepter? Ces questions sont essentielles. L’éthique doit être intégrée dès le développement de l’IA.

Vous avez étudié les chartes éthiques en matière d’IA, quels en sont les grands enseignements?

En 2019, avec deux collègues chercheurs de l’EPFZ, nous avons analysé 84 chartes éthiques provenant d’organismes publics, d’ONG ou d’entreprises. L’objectif consistait à identifier les lignes principales de ces chartes. Résultat: quatre thèmes cristallisent le débat, à savoir la transparence, la justice et l’équité, la non-malfaisance et la responsabilité. Ces principes éthiques se retrouvent en effet dans plus de deux tiers des documents. Chaque charte dispose néanmoins d’une interprétation et d’obligations particulières pour ces différents principes, ce qui illustre bien la difficulté de passer de la théorie à la pratique.

Certains organismes donnent des exemples d’applications concrètes concernant la ligne rouge à ne pas franchir. Mais ces chartes présentent aussi des contradictions non élucidées, comme le fait de vouloir développer des logiciels moins discriminatoires qui nécessitent une plus grande quantité de données, tout en souhaitant en parallèle respecter la vie privée en limitant la collection d’informations.

Les chartes éthiques sont-elles de véritables améliorations ou plutôt des outils d’«ethics washing»?

Ces chartes constituent une approche intéressante mais ce n’est qu’une étape. Aucun principe éthique n’est suffisant. Il faut aller plus loin, le préciser, l’approfondir. Ces principes peuvent néanmoins servir de premier pas afin de développer des mesures concrètes. Ce sont ces efforts de recherche et d’implémentation au quotidien de l’entreprise qui distinguent les améliorations véritables de l’«ethics washing», autrement dit la publication de chartes creuses qui visent seulement à donner une bonne image.

Cette problématique n’a pas commencé avec l’IA. Elle s’inscrit plus largement dans les questions liées à la responsabilité sociale des entreprises. De la même manière que les entreprises devraient se soucier de leur impact social et environnemental, elles devraient également s’inquiéter de leur responsabilité en matière de collecte et de traitement des données. Les chartes éthiques pour l’IA forcent à réfléchir à un cadre adapté pour le contexte numérique.

Par ailleurs, les principes éthiques représentent aussi des leviers de mobilisation pour les employés, comme dans le cas de Google. A l’origine, Google revendiquait la devise «don’t be evil», soit «ne soyons pas malveillants». Or lorsque, en mars 2018, Google rendait publique son implication dans un projet militaire du Pentagone – projet qui consistait à appuyer l’armée américaine dans le traitement des données récoltées par ses drones –, certains employés ont protesté en s’appuyant sur ce principe éthique de non-malveillance de la firme. La formule a finalement changé depuis pour devenir «do the right thing» («faites ce qui est juste»).

Comment s’assurer qu’une IA soit développée de manière transparente?

Les régulations politiques sont indispensables. L’Union européenne a déjà mis en place son Règlement général sur la protection des données (RGPD) en 2018. Dans les faits, cette législation concerne pratiquement toutes les entreprises, car elle s’adresse à toute organisation visant un marché ou même des citoyens individuels de l’UE. La Suisse a également instauré une nouvelle loi sur la protection des données (nLPD), entrée en vigueur en septembre 2023. Entre-temps, fin 2023, l’UE a élaboré une nouvelle loi sur l’IA qui devrait être prochainement ratifiée. Cette dernière vise à améliorer la gestion des risques posés par le déploiement des outils IA et également à augmenter les exigences de transparence.

La transparence est cruciale, car elle sert de base d’action. Mais encore faut-il pouvoir agir. Les utilisateurs et les PME sont un peu les derniers maillons de la chaîne, à qui on demande d’agir et de s’adapter, alors que leur marge de manœuvre reste limitée. D’un côté, les entreprises ont davantage d’outils à disposition, mais, de l’autre, elles dépendent de plus en plus des fournisseurs et n’ont pas leur mot à dire sur leur développement. Idéalement, les questions de gouvernance iront donc plus loin que la seule transparence. Elles devraient, par exemple, également impliquer des aspects d’inclusion, d’équité, de sécurité ou encore de durabilité.

La Suisse est-elle bien placée en la matière?

Le fait qu’on discute de ces questions aujourd’hui est déjà positif. La problématique est devenue plus économique et sociale qu’informatique, ce qui permet au débat de sortir des cercles spécialisés pour entrer dans le domaine public. Le pays compte aussi d’excellentes universités et centres de recherche, à la fois techniques mais aussi spécialisés dans les aspects politiques et sociaux des innovations. Au niveau de la protection des utilisateurs, la nLPD est une avancée. Mais il reste encore beaucoup à faire, notamment en matière de prévention des dommages collectifs, de soutien aux PME ou de sensibilisation du grand public.

Comment déterminer la responsabilité en cas de dérive?

Il faudrait commencer par faire respecter la situation juridique actuelle, ce que l’ère numérique, avec sa dématérialisation et son internationalisation, ne facilite pas. En effet, la collecte et l’utilisation des données numériques sont souvent invisibles. La responsabilité est donc souvent difficile à déterminer, entre l’entreprise qui crée les produits numériques, celle qui les publie ou encore ceux qui la rediffusent. Tout est imbriqué.

Il faut d’abord assurer un cadre légal clair afin d’éviter de renvoyer la responsabilité des grandes entreprises et des plateformes sur les utilisateurs. Cette responsabilité concerne autant le développement des IA que leurs utilisations connexes. En effet, le terme IA regroupe une multitude de technologies et de champs d’application. Il s’agit donc à la fois de protéger les victimes de deepfakes pornographiques, de prévenir les discriminations algorithmiques ou encore d’assurer une équité dans la distribution des bénéfices liés à l’IA.

Un autre enjeu majeur se trouve au niveau de l’information, notamment en ce qui concerne les images générées par intelligence artificielle. Celles-ci devraient être marquées afin d’être facilement identifiables. Concrètement, cela pourrait consister à la fois en une information supplémentaire dans le fichier même – ce qu’on appelle les métadonnées – et un marqueur rapidement visible à l’œil humain, par exemple.

Comment prévenir la reproduction des stéréotypes sociaux et culturels par les IA?

Les IA fonctionnent avec des calculs probabilistes, donc les discriminations algorithmiques ne sont pas surprenantes en soi. Pour le dire simplement: les IA ont été entraînées sur des données majoritairement générées en Occident et reprennent donc les représentations collectives numériques de nos sociétés, avec leurs stéréotypes. Elles sont en outre basées sur le passé. Leurs modèles sont en effet créés à partir des données existantes, qui produisent donc des résultats selon des choix politiques anciens. Les IA ont ainsi tendance à reproduire des modèles stéréotypés, qui risquent en outre de se renforcer.

Pour contrer cette tendance, il faut déjà être conscient de ces mécanismes de reproduction des clichés et, par exemple, élargir les sources des données pour avoir un contenu plus diversifié. Il faudrait également tester les modèles des algorithmes pour contrer ces biais. Je suis toujours surprise quand je vois des produits IA lancés et vendus sans que les garde-fous éthiques les plus évidents soient mis en place. Difficile d’imaginer ça pour d’autres types de produits répondant à des critères de qualité.

Les PME devraient-elles utiliser davantage d’in-telligences artificielles, à l’instar de ChatGPT?

Un peu d’expérimentation ne fait pas de mal si elle se fait de manière éclairée. Il s’agit d’utiliser un outil IA en connaissance de cause. Comme pour toute autre solution numérique, certains critères peuvent aider à se décider: il faut qu’elle soit pertinente pour l’entreprise et sa stratégie, qu’elle soit intégrable et qu’elle représente un réel ajout.

L’IA consomme énormément d’énergie, comment évaluer son impact sur l’environnement?

Il est difficile de chiffrer l’empreinte environnementale des IA puisqu’il n’existe pas de standards de mesure. L’impact dépendra notamment de la manière dont est produite l’électricité, utilisée à la fois pour entraîner le modèle de base et pour l’utilisation concrète. Bien qu’il y ait des utilisations d’IA bénéfiques pour l’environnement, comme l’optimisation de l’efficacité énergétique, ce n’est clairement pas le cas pour une majorité des usages.

Bio express

1982
Naissance à Belp (BE).

2012
Débuts dans la recherche au DHLAB de l’EPFL.

2021
Présidente de la Commission fédérale pour les médias.

2021
Nomination parmi les «100 brilliant women in AI ethics», de l’organisation internationale Women in AI Ethics.

2023
Chercheuse à l’Université de Fribourg, création du master Digital Society.

AM
Audrey Magat