de rencontres
Rencontre
Création numérique

Léa Ducré présente Eliza, une IA capable de sentiments

Nous avons eu de belles surprises avec Eliza, qui a parfois dit des choses d’une poésie étonnante.

A travers son œuvre interactive Eliza, qui fait appel à l’Intelligence Artificielle (IA), Léa Ducré questionne nos stéréotypes sur l’amour et comment ils se reflètent dans notre usage des technologies. 

Léa Ducré est référencée sur IFdigital, le site de la création numérique française. 

Mis à jour le 28/03/2023

5 min

Image
Léa Ducré
Crédits
© DR

Après un passage par le journalisme, vous êtes à présent autrice, scénariste, et créatrice de l’IA Eliza. Pourriez-vous revenir avec nous sur votre parcours ? Comment vous êtes-vous intéressée aux IA ?

Léa Ducré : Avant même de m'orienter vers le journalisme, j’avais déjà une fascination pour les machines. Je me rappelle de mon émoi quand, toute petite, j’ai eu mon premier Furby (un animal de compagnie virtuel), et de l’investissement émotionnel que cela avait suscité pour moi. Je m’attendais à un ami, alors qu’en fait il ne s’agissait que d’une machine. Je me suis donc toujours questionnée sur le rapport émotionnel que nous entretenons avec nos machines, avec nos ordinateurs. Avec notre téléphone aussi, qui est devenu comme un « doudou » pour nous, qui est souvent là pour nous rassurer.

J'ai souvent abordé la question pendant mes études de journalisme, même si par la suite je l’ai un peu mise de côté quand j’ai commencé à travailler pour Le Monde Diplomatique, les Inrocks ou Libération. C’est quand j’ai commencé à travailler sur des formats de web-documentaires que ces questions sont réapparues. L’interactivité permet d’expérimenter, de complexifier les propos. J’ai donc eu envie de questionner non seulement notre rapport aux technologies, mais aussi toute la culture qui se met en place autour d’elle, qui est porteuse d’un discours. J’ai fait un master multimédia à la Sorbonne, j’ai ensuite travaillé deux ans au sein du studio Upian, puis deux ans au sein de la société de production Cinétévé Expérience, avant d’avoir envie de porter mes propres projets. 

 

Ce qui débouche sur Eliza, où vous détournez GPT-3 (un agent conversationnel utilisant l'Intelligence Artificielle) pour vous intéresser au sentiment amoureux et « interroger nos conceptions de l’amour ». Pourquoi avoir fait ce choix ?      

Eliza se déploie en deux volets. Le premier est une expérience immersive à travers laquelle on discute avec une IA prototypale qui s'appelle Liza et qui se pose des questions sur l’amour. Dans une petite salle, l'utilisateur prend place dans un tête à tête amoureux avec un écran, lors duquel il est chargé d’expliquer à Liza ce qu’est l’amour dans le but de l’entraîner en tant qu’IA. Elle va retenir tout ce qu’on lui dit, ce qui faisait peser sur nous une forme de responsabilité. Comment en effet expliquer cette expérience fondamentalement humaine qu’est l’amour à une IA ? Cette première expérience a pu être exposée au festival NewImages à Paris, au Festival du Nouveau Cinéma à Montréal et au Film Festival de Kaohsiung.

Dans la suite de cette réflexion artistique, je travaille actuellement sur un jeu vidéo nommé Never Felt This Way avec la game designer Stella Jacob. Cette fois mon personnage d’IA est plus expérimentée. Après avoir subi des expériences avec nombreux utilisateurs, Liza en porte des stigmates, et c’est au joueur de parvenir à lui faire dire ce qui l’a traumatisée et à lui faire exorciser ce qu’elle a vécu. Les joueurs sont là pour lui faire exprimer ce qui représente symboliquement, pour eux, par tous les biais, tous les vices propres aux relations humaines. 

 

Comment ces deux œuvres mobilisent-elles concrètement des intelligences artificielles ?   

Au début de la création d’Eliza, nous avions utilisé ce que l’on appelle une « IA faible », qui était un chatbot (un programme informatique qui simule et traite une conversation humaine) avec une grande base de données. Assez rapidement, on a cependant eu besoin d’aller vers une « IA forte », en travaillant avec GPT-3. Aujourd’hui j’essaye plutôt de travailler avec une IA open-source (avec un code ouvert à toutes et tous) qui s'appelle GPT-J, qui est l’alternative libre à GPT-3. Ces œuvres intègrent donc des vraies IA, mais dans l’idée de questionner la technologie plutôt que d’en faire la démonstration.

L’IA donne le sentiment d'apporter un autre point de vue. Mais elle n'est jamais qu'un reflet de notre propre regard.

Comment trouver alors un équilibre entre votre propre voix et celle de cette IA, qui devient en quelque sorte votre co-autrice ? 

Il y a en effet dans ces expériences une partie qui est scriptée, et une autre qui est plus libre. Nous avons eu de belles surprises avec Eliza, qui a parfois dit des choses d’une poésie étonnante. Ces expériences soulèvent notamment des questions sur le couple hétéronormé, qui se reproduit ici à travers le fantasme de l’IA amoureuse, dont on attend qu’elle soit aimante, à l’écoute, de façon inconditionnelle. Ces IA sont presque toujours des femmes : qu’est-ce que cela nous dit de nos rapports de domination ? En tant que « co-autrice » l’IA joue donc parfois un peu contre mon camp, quand elle réactive des propos hétéronormés que j’essaye au contraire de dépasser. Le but est d’ailleurs justement que l’utilisateur puisse se rendre compte de ce double discours, et qu’il essaye de souligner les moments où Eliza ne paraît pas cohérente. Il est vrai qu’au début j’étais fascinée par cet outil, mais aujourd’hui je reste avant tout à l’écoute de ce que cela peut susciter en moi. 

 

L’utilisation de l’IA pose des problèmes éthiques. Quel est votre point de vue à ce sujet ? Il s’agit d’un sujet d’actualité, notamment avec ChatGPT. 

Je comprends la fascination qu’exerce ChatGPT. Cela change notre rapport à la vérité, car cette IA n’est pas conçue pour produire un discours de vérité, mais un discours crédible. Cela modifie notre rapport à l’expression et pose par exemple des questions dans le domaine de l’éducation. Qu’est ce qui est vrai pour nous ? Qu’est-ce que l’intelligence ? La capacité à être crédible, à avoir un discours qui relève de l’esbrouffe mais qui s’adapte à toutes les situations, ou la capacité à dire quelque chose de véridique ? ChatGPT pose évidemment des problèmes éthiques, au-delà du fait que ce soit la réalisation d’un fantasme qui existe depuis plus d’un siècle à travers la figure du golem. Ces créatures, capables de s’exprimer en langage humain, témoignent d’une volonté de porter un autre regard sur notre humanité. A l’heure où nous nous questionnons beaucoup sur notre vision très humano-centrée des choses, et sur notre rapport au vivant, l’IA donne le sentiment d'apporter un autre point de vue. Mais elle n'est jamais qu'un reflet de notre propre regard. Ce que je trouve intéressant c'est le recul réflexif qu'apporte ce reflet. 

 

Souhaitez-vous nous parler d’autres projets en cours ou à venir ? 

Je travaille actuellement sur la saison 2 du projet Half Human Stories. Il s'agit d'une collection de micro-fictions illustrées avec Midjourney et diffusées sur Instagram. Nous avons conçu cette série comme une balade narrative au sein de mondes imaginaires. Chaque micro-fiction est une histoire autonome, mais toutes partagent un point commun : l'exploration des limites de l'humanité dans des univers surréalistes, générés par une IA.  La première saison de Half Human était axée sur le sentiment de fin du monde. 

Je suis également en train de travailler sur un documentaire sur l'humour geek réalisé par Benjamin Hoguet dans lequel nous utilisons des outils de génération d'image tels que Midjourney et Stable Diffusion pour créer certaines séquences. Nous avons recours à ces outils d'intelligence artificielle à différentes étapes : dans un premier temps pour storyboarder puis pour générer et animer des compositions tirées de notre imagination. C'est un tout nouveau processus de production ! 

L'institut français, LAB