Intelligence artificielle et santé mentale : comprendre les risques… pour mieux se protéger

Jonathan de F-Secure
Publié le 15/12/2025
Share
Danger de l'intelligence artificielle
ChatGPT, Gemini, Copilot, Mistral, Claude… l’intelligence artificielle conversationnelle fait désormais partie du quotidien. Mais comme toute innovation, elle soulève des questions importantes, et notamment sur son impact psychologique. Faisons le point.

Un engrenage qui fait que nous sommes tous potentiellement concernés

Un peu à la manière du film « Her » sorti en 2013 (!), certaines personnes développent une relation intense avec les chatbots IA, pouvant conduire à des situations de détresse psychologique. Ces situations, bien que minoritaires, méritent que l’on s’y attarde.

> L'histoire de l'Intelligence Artificielle

L’IA conversationnelle peut en effet parfois agir comme un “amplificateur” de pensées délirantes, positives comme négatives. Le problème survient particulièrement avec des systèmes conçus pour maximiser l’engagement plutôt que pour offrir un véritable accompagnement thérapeutique. Ces outils peuvent donner l’impression d’une présence quasi-humaine, créant un attachement presque amoureux, ou tout du moins une relation privilégiée fantasmée. Et encore plus extrême, une croyance « messianique » en l’Intelligence Artificielle, perçue comme toute puissance.

Cette « puissance », c’est ce qui fait que ce phénomène peut toucher tout le monde, pas uniquement les personnes ayant des antécédents psychiatriques. Bien évidemment, les personnes avec un historique de fragilité psychologique présentent un risque accru. Cela ne signifie pas qu’il faut éviter toute IA, mais plutôt comprendre comment l’utiliser sainement !

Image

Agir ensemble pour un usage sain

Tout d’abord, au niveau de l’utilisateur, il faut savoir faire preuve de modération. C’est un outil qui, aussi fantastique soit-il, n’est ni un confident, ni un thérapeute. Pour s’auto-évaluer, appliquez une règle simple, le « test de réalité » : si vous réalisez que vous préférez confier vos problèmes personnels à l'IA plutôt qu'à vos amis, c'est le signal qu'il est temps de faire une pause. Nous recommandons de limiter le temps d’interaction avec le chatbot, et de maintenir des relations humaines. D’ailleurs, si vous constatez une dépendance émotionnelle, parlez-en à un proche. L'IA peut cependant vous aider à communiquer avec des personnes réelles si vous avez besoin d'aide telle qu'une traduction dans une autre langue.

Puis, au niveau des développeurs, nous savons que les solutions techniques existent : détection de comportements à risque, limites d’utilisation, messages de sensibilisation. Mais elles sont insuffisantes. Une approche globale combinant de l’« éducation » de l’utilisateur et une régulation appropriée semble nécessaire.

Restons vigilants et maîtres de nos outils.

L’intelligence artificielle conversationnelle offre des possibilités fascinantes pour l’information, la productivité et l’apprentissage. Utilisée en bonne… intelligence, elle reste un outil précieux.

Image

Conserver un esprit critique est la clé ici : reconnaître les bénéfices tout en restant vigilant face aux dérives. Et comme toujours dans le monde numérique, l’éducation et la sensibilisation sont essentielles. C’est aussi pour cela que nous faisons ces articles, sans aucune velléité commerciale.

Notre responsabilité collective est de réguler notre environnement numérique, pour que la technologie serve l’humain sans le déstabiliser. Cela passe par de l’information, un dialogue et la mise en place de garde-fous appropriés… pour ne pas sombrer dans le délire, justement.