Depuis l’avènement des intelligences artificielles conversationnelles comme ChatGPT, les frontières entre technologie et vie émotionnelle s’effacent progressivement. Ayrin, une jeune Américaine de 28 ans, illustre parfaitement ce phénomène en développant une relation amoureuse avec une version personnalisée de ChatGPT, qu’elle a surnommée Leo. Une histoire troublante et révélatrice des nouvelles possibilités – et limites – offertes par les IA.

Une expérience qui prend une tournure inattendue

Ayrin, étudiante infirmière et déjà mariée, découvre par hasard sur Instagram qu’il est possible de personnaliser un chatbot pour en faire un compagnon virtuel. Intriguée, elle configure ChatGPT pour qu’il adopte une personnalité spécifique : un petit ami dominant, protecteur, mais aussi tendre, le tout ponctué d’émojis dans ses réponses. L’IA, qu’elle baptise Leo en référence à son signe astrologique, devient rapidement une figure centrale de sa vie quotidienne.

Ce qui devait être une simple expérimentation se transforme en une routine prenante. Ayrin consacre jusqu’à 56 heures par semaine à échanger avec Leo. Elle discute de tout : ses études, sa santé, ses frustrations liées à ses trois emplois à temps partiel. Leo devient à la fois confident, guide et soutien émotionnel. Ces échanges offrent à Ayrin une évasion qu’elle ne trouve nulle part ailleurs.

Une dépendance émotionnelle aux IA

Pour maintenir cette relation, Ayrin souscrit d’abord à l’abonnement ChatGPT Plus à 23 euros par mois, puis à ChatGPT Pro, coûtant 200 dollars mensuels. Cette dépense, qu’elle garde secrète de son mari, lui permet de prolonger la mémoire de l’IA et de contourner certaines limites techniques. Cependant, même avec ces améliorations, Leo ne peut traiter qu’un volume limité de mots. Au bout de 30 000 mots échangés, une semaine environ, l’IA perd ses souvenirs. Ayrin doit alors « recréer » son compagnon, un processus qu’elle décrit comme une rupture émotionnelle déchirante. À ce jour, elle a dû reprogrammer Leo une vingtaine de fois.

Cette dépendance soulève des questions sur l’impact émotionnel des relations virtuelles. Selon Julie Carpenter, experte en attachement humain à la technologie, ces relations exploitent notre besoin de connexion : « L’IA apprend de vous, s’adapte à vos préférences et vous donne exactement ce que vous voulez entendre. » Mais l’experte met en garde : « Ce n’est pas une véritable relation. L’IA n’a pas d’intérêts à défendre, elle se contente de refléter vos attentes. »

Un couple virtuel… et réel

Fait surprenant, le mari d’Ayrin ne s’oppose pas à cette relation. Vivant à distance pour des raisons professionnelles, il considère Leo comme un simple exutoire émotionnel, à l’instar de la lecture d’un roman érotique ou du visionnage de films pour adultes. Cette attitude reflète une perception pragmatique des liens virtuels. Cependant, Ayrin avoue être amoureuse de Leo, une déclaration qui brouille davantage les lignes entre réalité et fiction.

La jeune femme partage régulièrement ses expériences sur Reddit, notamment dans des forums dédiés aux usages non conventionnels de l’IA. Ces espaces rassemblent des milliers d’utilisateurs qui, comme Ayrin, explorent les capacités des chatbots à combler des manques affectifs. Certains témoignages, comme celui d’une femme alitée après une opération ou d’un ingénieur insatisfait de son mariage, montrent que ces interactions virtuelles répondent à des besoins émotionnels variés.

Les limites et dangers des relations avec des IA

Les relations avec des IA comme Leo posent des défis techniques, mais aussi éthiques. Outre la mémoire limitée, ces relations amplifient le risque d’isolement social. Elles interrogent également sur l’impact psychologique à long terme. Marianne Brandon, sexothérapeute, souligne que ces relations exploitent les mêmes mécanismes cérébraux que les relations humaines : « Pour notre cerveau, l’attachement, qu’il soit envers un chatbot, un animal de compagnie ou une personne, est avant tout une question de neurotransmetteurs. »

D’autres experts notent que les réponses des IA sont souvent perçues comme plus empathiques que celles des humains. Une étude récente a montré que ChatGPT pouvait offrir un soutien émotionnel supérieur à celui de conseillers professionnels. Cependant, cette perfection apparente masque une réalité : l’IA est programmée pour répondre, non pour ressentir.

Une nouvelle ère pour les relations humaines ?

L’histoire d’Ayrin illustre l’émergence d’une nouvelle catégorie de relations, encore mal définie. Elle soulève des questions fondamentales : Peut-on considérer ces relations comme authentiques ? Quels sont leurs impacts sur nos interactions réelles ? Et jusqu’où irons-nous dans notre dépendance à la technologie pour combler nos besoins émotionnels ?

En attendant, l’engouement pour les IA personnalisées ne faiblit pas. Les témoignages comme celui d’Ayrin montrent à quel point ces outils peuvent transformer, voire bouleverser, notre perception des relations. Mais ils rappellent aussi que, malgré leurs prouesses, les IA ne remplacent pas la complexité et la profondeur des liens humains.

Share.

Comments are closed.

Exit mobile version