Pour avoir la disponibilité des produits, sélectionnez un code postal de livraison ou de retrait
Un peu à la manière du film « Her » sorti en 2013 (!), certaines personnes développent une relation intense avec les chatbots IA, pouvant conduire à des situations de détresse psychologique. Ces situations, bien que minoritaires, méritent que l’on s’y attarde.
> L'histoire de l'Intelligence Artificielle
L’IA conversationnelle peut en effet parfois agir comme un “amplificateur” de pensées délirantes, positives comme négatives. Le problème survient particulièrement avec des systèmes conçus pour maximiser l’engagement plutôt que pour offrir un véritable accompagnement thérapeutique. Ces outils peuvent donner l’impression d’une présence quasi-humaine, créant un attachement presque amoureux, ou tout du moins une relation privilégiée fantasmée. Et encore plus extrême, une croyance « messianique » en l’Intelligence Artificielle, perçue comme toute puissance.
Cette « puissance », c’est ce qui fait que ce phénomène peut toucher tout le monde, pas uniquement les personnes ayant des antécédents psychiatriques. Bien évidemment, les personnes avec un historique de fragilité psychologique présentent un risque accru. Cela ne signifie pas qu’il faut éviter toute IA, mais plutôt comprendre comment l’utiliser sainement !
Tout d’abord, au niveau de l’utilisateur, il faut savoir faire preuve de modération. C’est un outil qui, aussi fantastique soit-il, n’est ni un confident, ni un thérapeute. Pour s’auto-évaluer, appliquez une règle simple, le « test de réalité » : si vous réalisez que vous préférez confier vos problèmes personnels à l'IA plutôt qu'à vos amis, c'est le signal qu'il est temps de faire une pause. Nous recommandons de limiter le temps d’interaction avec le chatbot, et de maintenir des relations humaines. D’ailleurs, si vous constatez une dépendance émotionnelle, parlez-en à un proche. L'IA peut cependant vous aider à communiquer avec des personnes réelles si vous avez besoin d'aide telle qu'une traduction dans une autre langue.
Puis, au niveau des développeurs, nous savons que les solutions techniques existent : détection de comportements à risque, limites d’utilisation, messages de sensibilisation. Mais elles sont insuffisantes. Une approche globale combinant de l’« éducation » de l’utilisateur et une régulation appropriée semble nécessaire.
L’intelligence artificielle conversationnelle offre des possibilités fascinantes pour l’information, la productivité et l’apprentissage. Utilisée en bonne… intelligence, elle reste un outil précieux.
Conserver un esprit critique est la clé ici : reconnaître les bénéfices tout en restant vigilant face aux dérives. Et comme toujours dans le monde numérique, l’éducation et la sensibilisation sont essentielles. C’est aussi pour cela que nous faisons ces articles, sans aucune velléité commerciale.
Notre responsabilité collective est de réguler notre environnement numérique, pour que la technologie serve l’humain sans le déstabiliser. Cela passe par de l’information, un dialogue et la mise en place de garde-fous appropriés… pour ne pas sombrer dans le délire, justement.