Diella, première ministre artificielle en Albanie : le piège de la féminisation des IA
Tribune. Pour la première fois dans l’histoire, une intelligence artificielle a fait en Albanie son entrée au sein d’un gouvernement. Au-delà des questionnements sur la place des IA dans la décision publique, la nomination de Diella comme ministre chargée des marchés publics suscite des interrogations sur la féminisation quasi systématique des avatars IA. Cette pratique trompeuse qui entretient les stéréotypes de genre perpétue l’objectification des femmes et facilite la manipulation, selon Sylvie Borau, professeure en marketing éthique à TBS Education à Toulouse.

Le gouvernement albanais vient de créer la surprise en nommant Diella, une intelligence artificielle (IA), au poste de ministre des marchés publics. Présentée comme un atout dans la lutte contre la corruption, Diella serait chargée d’analyser les appels d’offres, repérer les conflits d’intérêts et garantir l’impartialité des décisions publiques.
Cette initiative inédite marque une étape historique. Pour la première fois, une IA entre officiellement dans un gouvernement, ici, sous les traits d’un avatar numérique féminin. Mais au-delà du coup médiatique, et des questionnements éthiques que peut soulever cette nomination – peut-on vraiment gouverner avec une IA ?, elle suscite des interrogations fondamentales sur la féminisation quasi systématique des agents IA. Pourquoi Diella est-elle une femme artificielle ? Et quelles sont les implications de cette féminisation de l’IA ?
Diella : un cas d’école problématique
L’IA a déjà été utilisée comme outil de gouvernance. Certaines villes se servent, par exemple, des algorithmes pour optimiser les transports ou pour détecter la fraude. Mais en nommant une IA au rang de ministre, l’Albanie franchit une étape symbolique majeure : plus qu’un outil, elle devient une figure féminine publique, censée incarner des valeurs de transparence et de justice.
La promesse est séduisante : même si une IA peut reproduire ou amplifier les biais de ceux qui l’ont programmée, une machine ne peut, en théorie, ni accepter de pots-de-vin ni favoriser des proches. Elle paraît offrir une garantie d’impartialité dans un pays où les scandales de corruption entachent la vie politique. L’Albanie est, en effet, classée 80e sur 180 pays dans l’indice de perception de la corruption, selon Transparency International. Mais cette vision occulte un problème central : les conséquences éthiques de la féminisation de l’IA sont loin d’être anodines.
Pourquoi les IA sont-elles presque toujours féminines ?
Depuis Siri (Apple), Alexa (Amazon) Cortana (Microsoft) ou encore Sophia, le premier robot ayant obtenu la nationalité saoudienne en 2017, la plupart des assistants virtuels et robots intelligents ont été dotés d’une voix, d’un visage, d’un corps ou d’un prénom féminins. Ce n’est pas un hasard.
Dans une première recherche sur la question, nous avons montré que nous percevons les bots féminins comme plus chaleureux, plus dignes de confiance, voire même plus humains que leurs équivalents masculins.
Pourquoi ? Parce que les femmes sont, en moyenne, perçues comme plus chaleureuses et plus susceptibles d’éprouver des émotions que les hommes… et ces qualités font défaut aux machines. La féminisation des objets en IA contribue donc à humaniser ces objets.
Cette féminisation s’appuie sur des stéréotypes bien ancrés : la femme serait « naturellement » plus douce, attentive et empathique. En dotant leurs machines de ces attributs, les concepteurs compensent la froideur et l’artificialité des algorithmes et facilitent leur acceptation et leur adoption.
Quand la féminisation devient manipulation
Mais cette pratique soulève des problèmes éthiques majeurs, que j’ai développés dans un article récent publié dans les pages du Journal of Business Ethics. Cet article compare les implications éthiques de l’usage d’attributs genrés et sexués féminins dans deux contextes. D’un côté, la publicité, où l’on recourt depuis longtemps à des représentations féminines idéalisées pour séduire les consommateurs. De l’autre, les agents IA, qui reprennent aujourd’hui ces mêmes codes. Cette mise en parallèle permet de montrer que, dans les deux cas, la féminisation engendre trois dangers majeurs : tromperie, objectification, et discrimination.
La tromperie et la manipulation
Attribuer artificiellement des caractéristiques humaines et féminines à des machines exploite nos réactions inconscientes et automatiques aux traits néoténiques (caractéristiques juvéniles associées aux traits féminins comme les yeux ronds, des traits arrondis) qui évoquent inconsciemment l’innocence et, donc, l’honnêteté et la sincérité.
Cette manipulation subtile pourrait faciliter l’acceptation de décisions algorithmiques potentiellement problématiques. Une IA féminisée fait croire qu’elle est plus humaine, plus empathique, plus « digne de confiance ». Or, il ne faut pas oublier qu’il s’agit d’un programme informatique, sans émotions ni conscience – question qui commence à être discutée –, dont les décisions peuvent être biaisées voire instrumentalisées.
L’objectification littérale
Contrairement à la publicité qui compare métaphoriquement les femmes à des objets, l’intelligence artificielle va plus loin : elle transforme littéralement la femme en objet programmable (une machine, un algorithme). Les IA féminines réduisent les attributs féminins à de simples outils de service : des machines obéissantes, disponibles en permanence. Cette mécanisation de la féminité reproduit et amplifie les logiques publicitaires d’objectification, mais avec une dimension inédite : l’interactivité.
Résultat, des chercheurs relèvent la persistance de propos agressifs et à caractère sexuel dans les interactions avec ces assistantes, normalisant ainsi des comportements abusifs envers les « femmes-machines » qui risquent de se reporter sur les vraies femmes… In fine, l’humanisation et la féminisation de l’IA peut paradoxalement conduire à une déshumanisation accrue des femmes.
La perpétuation de stéréotypes
À première vue, Diella pourrait apparaître comme une victoire symbolique : une femme – même virtuelle – accède à un poste de ministre. Dans un pays où la politique reste dominée par les hommes, et alors que la plupart des IA féminines sont des assistantes, certains y verront un signe d’égalité.
Mais cette lecture naïve et optimiste occulte un paradoxe. Alors que les femmes réelles peinent à accéder aux plus hautes fonctions dans de nombreux gouvernements, c’est une femme artificielle qui incarne l’intégrité au pouvoir. Surnommée « la servante des marchés publics », c’est en réalité une femme sans pouvoir d’agir. On retrouve ici un vieux schéma : « l’Ève artificielle », façonnée pour correspondre à un idéal de docilité et de pureté. Une ministre parfaite, car obéissante et inaltérable… et qui ne remettra jamais en cause le système qui l’a créée.
L’IA au féminin, sainte dévouée ou Ève manipulatrice
La féminisation des IA repose en réalité sur deux tropes profondément enracinés dans notre imaginaire, qui réduisent l’identité féminine à l’archétype de la sainte dévouée ou de l’Ève manipulatrice. La sainte dévouée, c’est l’image de la femme pure, obéissante, entièrement tournée vers les autres. Dans le cas de Diella, elle se manifeste par une promesse de transparence et de loyauté absolue, une figure de vertu incorruptible au service de l’État et de son peuple.
La représentation visuelle de Diella rappelle d’ailleurs fortement l’iconographie de la Vierge Marie : visage doux, regard baissé, attitude humble, et voile blanc. Ces codes esthétiques religieux associent cette IA à une figure de pureté et de dévouement absolu. Mais en faisant de l’IA une figure féminine idéalisée et docile, on alimente un sexisme bienveillant qui enferme les femmes réelles dans ces mêmes stéréotypes.
L’Ève manipulatrice : dans la culture populaire, la confiance accordée à une IA féminisée se transforme en soupçon de tromperie ou de danger. Exemple emblématique : le film de science-fiction Ex Machina, dans lequel le héros est dupé par une IA dont il tombe amoureux. Si Diella venait à servir d’instrument politique pour justifier certaines décisions opaques, elle pourrait elle aussi être perçue sous ce prisme : non plus comme une garante de transparence, mais comme une figure de dissimulation.
Ces deux représentations contradictoires – la vierge sacrificielle et la séductrice perfide – continuent de structurer nos perceptions des femmes et se projettent désormais sur des artefacts technologiques, alimentant une boucle qui influence à son tour la manière dont les femmes réelles sont perçues.
Pour une IA non humanisée et non genrée
Plutôt que d’humaniser et de genrer l’IA, assumons-la comme une nouvelle espèce technologique : ni homme ni femme, ni humaine ni divine, mais un outil distinct, pensé pour compléter nos capacités et non pour les imiter. Cela suppose de lui donner une apparence et une voix non humaines, afin d’éviter toute confusion, toute tromperie et toute manipulation. Le développement des IA devrait s’appuyer sur une transparence totale, en représentant l’IA pour ce qu’elle est vraiment, à savoir un algorithme.
Enfin, les concepteurs devraient rendre publics la composition de leurs équipes, les publics visés, les choix de conception. Car, derrière l’apparente neutralité des algorithmes et de leur interface, il y a toujours des décisions humaines, culturelles et politiques.
L’arrivée de Diella au gouvernement albanais doit ouvrir un débat de fond : comment voulons-nous représenter l’IA ? Alors que ces technologies occupent une place croissante dans nos vies, il est urgent de réfléchir à la façon dont leur représentation façonne nos démocraties et nos relations humaines.
Article publié le 23 septembre 2025 sur le site The Conversation.
