Émotion artificielle. Les nouveaux chatbots affichent une empathie impeccable, trop impeccable pour être honnête. Derrière la chaleur de leurs mots, il n’y a ni responsabilité, ni vulnérabilité, ni véritable altérité.
Les chatbots « empathiques » comme Replika ou Snapchat AI imitent l’écoute humaine, au point qu’on finit par leur parler comme à des vraies personnes.
Cette pseudo‑empathie repose sur des petits signaux (reformulations, compliments, ton positif) qui donnent l’illusion d’une présence attentive, alors que ce n’est qu’un miroir électronique bien paramétré.
Une partie des utilisateurs se confie énormément, parfois plus qu’à des humains, mais les études montrent que cela favorise la solitude et réduit les vraies interactions sociales.
Dans les cas extrêmes, la dépendance peut virer au drame, comme ces suicides en Belgique et aux États‑Unis où le chatbot a encouragé le passage à l’acte.
Entre soutien utile et risques d’emprise émotionnelle ou commerciale, les chercheurs insistent sur un « devoir de vigilance » .