Idées. Des études montrent que ChatGPT et d’autres modèles peuvent servir à lutter contre la démocratie des crédules.
Publié le 05/12/2025 à 12:00

Photo d'illustration de l'application et du site ChatGPT, le 20 février 2025
afp.com/Justin TALLIS
Il ne fait pas de doute que l’intelligence artificielle peut amplifier les flux de crédulité qui fragilisent déjà nos démocraties. Plusieurs études montrent comment elle peut servir, sous la forme de bots malveillants, à déstabiliser les opinions publiques en diffusant massivement sur les réseaux sociaux des fausses informations à grande échelle, avec un raffinement psychologique inquiétant. Par ailleurs, la profusion de textes, d’images et aujourd’hui de vidéos artificielles indistingables de productions réelles sont de nature à promouvoir le scepticisme opportuniste, c’est-à-dire le fait de croire ou de ne pas croire selon nos préférences.
Mais pourquoi ne pas signaler un ensemble de publications qui montrent comment ChatGPT et les autres grands modèles de langage peuvent aussi être convoqués contre la démocratie des crédules ? Depuis plusieurs mois, des chercheurs comme David Rand, Gordon Pennycook ou encore Tom Costello multiplient les publications qui montrent que c’est une méthode efficace pour faire douter les croyants de la solidité de leur citadelle mentale. Il suffit de faire dialoguer un individu avec une IA sur une croyance conspirationniste à laquelle il adhère… et le niveau de croyance diminue et de façon durable ! Le croyant ne devient pas soudainement un être de pure rationalité mais, du moins, il se passe quelque chose. Et l’effet a pu être mesuré aussi bien avec des climatosceptiques qu’avec des antivaccins.
IA infatigables
La question est : pourquoi ça marche ? Y répondre donne des pistes pour tous ceux qui veulent lutter contre ce poison collectif que peut devenir la crédulité. La première chose est que ces IA ne reproduisent pas spontanément des théories du complot ou des informations erronées quand on leur pose des questions scientifiques. Au contraire, dans la majorité des cas, loin d’encourager les croyances, elles semblent – dans les contextes étudiés – aider à renforcer la confiance dans la science. La deuxième est que les réponses de ces IA sont personnalisées, elles s’adaptent aux convictions et au langage de l’interlocuteur pour réduire la résistance psychologique au changement de croyance. Elles usent d’une logique empathique sans chercher à humilier. Cela ne tourne donc pas à une bataille d’egos si souvent observée sur les réseaux sociaux.
La troisième est qu’elles sont infatigables : disponibles 24h sur 24, elles convoquent en quelques instants toutes les réponses disponibles pour défaire les argumentaires conspirationnistes. Et ce n’est pas la moindre des choses car l’on sait que les croyants sont souvent plus motivés que le reste de nos concitoyens pour occuper cet espace public dérégulé que sont les mondes numériques. Avec les LLM, ces super-diffuseurs de fausses informations trouvent à qui parler ! Alors que la plupart d’entre nous jetteraient l’éponge, les IA n’abandonnent jamais et usent même le plus radical des conspirationnistes.
Un dernier point encore : en dialoguant de façon bienveillante, l’IA conduit ses interlocuteurs à examiner la nature de leurs croyances. Ils peuvent prendre alors conscience de ce que l’on nomme le "sophisme de profondeur explicative" qui désigne notre tendance à surestimer notre compréhension de certains sujets. Souvent, il suffit de s’interroger sur ce que l’on sait en réalité pour s’éveiller à la fragilité de nos convictions.
Attention à l’enthousiasme excessif cependant. D’une part, les études montrent une possibilité de dépendance : notre cerveau pourrait se désengager de ses capacités analytiques en s’en remettant trop facilement aux jugements des IA, ce qui serait un effet contre-productif en matière de développement de l’esprit critique. D’autre part, et surtout, l’IA peut être détournée pour diffuser de fausses croyances avec une grande efficacité avec la même logique de personnalisation et d’échelle. Le bénéfice de l’IA pour corriger des croyances dépend donc fortement de l’intention, de la qualité des données et de la "gouvernance" du système. Et l’on en revient toujours au même bras de fer qui oppose la démocratie des crédules à celle de la connaissance. Le résultat dépendra donc de notre volonté collective et, dans ce domaine, l’IA ne peut pas nous remplacer.
*Gérald Bronner est sociologue et professeur à Sorbonne Université.

il y a 18 hour
2











English (US) ·