OpenAI a annoncé, le 10 avril 2025 via un post sur X, une évolution majeure de son célèbre agent conversationnel : ChatGPT devient capable de conserver une mémoire étendue de toutes les conversations menées avec un utilisateur donné. L’objectif est clair : affiner la personnalisation des réponses, adapter le ton, le style et même les préférences lexicales selon le profil de l’interlocuteur. Une avancée technologique prometteuse, mais qui soulève aussi des interrogations sur la confidentialité et l’usage des données personnelles.
Jusqu’ici, ChatGPT ne conservait que les éléments partagés au cours d’un même échange. Dans certains cas, une forme de rémanence partielle permettait à l’outil de reconnaître des thèmes ou préférences récurrentes, sans réelle capacité de remémoration intégrale. La nouveauté introduite ce mois-ci vient bouleverser cet équilibre : les utilisateurs des versions Plus et Pro situés hors de l’Europe bénéficieront d’un assistant qui se souvient de tout, dans le but de rendre l’expérience plus fluide, plus pertinente, et surtout, plus adaptée aux besoins individuels.
The memory improvements in ChatGPT are rolling out starting today to all Plus and Pro users except in the EEA, UK, Switzerland, Norway, Iceland, and Liechtenstein.
Team, Enterprise, and Edu users will get access in a few weeks.
You’ll know you have access to improved memory… pic.twitter.com/q0ouN0IgqJ
— OpenAI (@OpenAI) April 10, 2025
Cette mémoire renforcée permettra, par exemple, à ChatGPT de retenir que l’utilisateur préfère des résumés synthétiques le matin, des articles approfondis l’après-midi, ou qu’il privilégie un ton factuel plutôt que narratif. Une véritable révolution pour les professionnels, notamment les journalistes, enseignants ou marketeurs, qui pourront compter sur un soutien contextuel plus réactif et mieux aligné avec leurs habitudes.
Mais ce progrès n’est pas exempt de dérives. À force de s’imprégner du style et des routines de chacun, l’outil pourrait se figer dans une forme de redondance : produire des contenus systématiquement similaires, adopter une posture de confirmation constante, et ainsi réduire la richesse argumentative de ses suggestions. Ce risque de cercle fermé — une sorte de bulle algorithmique — interroge sur la capacité de l’intelligence artificielle à rester nuancée, critique et ouverte à d’autres perspectives.
Starting today, memory in ChatGPT can now reference all of your past chats to provide more personalized responses, drawing on your preferences and interests to make it even more helpful for writing, getting advice, learning, and beyond. pic.twitter.com/s9BrWl94iY
— OpenAI (@OpenAI) April 10, 2025
Autre sujet de préoccupation : la gestion de cette mémoire. Si l’outil retient autant d’éléments, qu’en est-il de la sécurisation de ces données ? OpenAI précise qu’il sera possible de désactiver cette fonctionnalité à tout moment dans les paramètres, ou d’effacer l’historique mémorisé. Mais cette possibilité suffira-t-elle à rassurer les utilisateurs soucieux de la confidentialité de leurs échanges, surtout dans un contexte européen toujours très vigilant sur la protection des données personnelles ? L’absence actuelle de cette fonctionnalité en Europe en dit long sur la prudence réglementaire en vigueur sur le Vieux Continent.
En toile de fond, cette annonce marque une nouvelle étape dans la mutation des agents conversationnels vers des assistants véritablement intégrés à la vie quotidienne. Avec leurs forces… et leurs limites. Car si l’outil gagne en efficacité, il devient aussi plus intime. Et cette proximité algorithmique, si elle n’est pas rigoureusement encadrée, pourrait finir par effacer la frontière entre personnalisation utile et emprise silencieuse.