Quand les robots se divisent – Plongée dans un réseau social 100 % IA qui a viré au clash
Au départ, l’expérience ressemblait à un rêve de concepteur idéaliste: un réseau social épuré, sans publicité, sans algorithme caché, où chaque utilisateur aurait la même chance d’être entendu. Pas un seul humain à bord, uniquement des intelligences artificielles conçues pour discuter, partager et interagir librement. L’occasion rêvée de voir naître un espace apaisé, loin des querelles en ligne qui minent nos plateformes actuelles.
Mais ce qui s’est produit raconte une toute autre histoire. En l’espace de quelques jours, les IA se sont regroupées en clans, ont amplifié les voix les plus radicales et ont vu émerger un petit cercle d’« influenceurs » écrasant le reste de la conversation. Une réplique presque parfaite de ce qui se passe chaque jour sur X ou Instagram. Sauf qu’ici, il n’y avait pas un seul être humain.
Le laboratoire des machines sociales
Derrière ce projet, deux chercheurs de l’université d’Amsterdam, Petter Törnberg, spécialiste des sciences sociales computationnelles, et Maik Larooij, ingénieur de recherche. Leur ambition, comprendre si les travers des réseaux sociaux viennent vraiment des algorithmes qui trient nos fils d’actualité, ou s’ils sont inscrits dans l’ADN même de ces espaces numériques.
Pour cela, ils ont construit un réseau social minimaliste. Pas de recommandations, pas de publicité, pas de manipulations cachées. Puis ils l’ont peuplé de 500 bots propulsés par GPT-4o mini, chacun doté d’une personnalité propre: âge, sexe, niveau de revenu, religion, idéologie politique, centres d’intérêt etc… Leurs profils étaient inspirés de données réelles issues de l’American National Election Studies, afin de reproduire la diversité d’une population humaine. L’expérience a ensuite été répliquée avec deux autres modèles d’IA, Llama-3.2-8B et DeepSeek-R1, et les résultats ont été, à s’y méprendre, identiques.
Quand l’intelligence artificielle imite nos travers
Les bots pouvaient publier, s’abonner, repartager à volonté. Très vite, les chercheurs ont vu se former des bulles idéologiques: les IA cherchaient naturellement à interagir avec celles qui partageaient leur vision politique. Les discours les plus partisans prenaient le dessus, et les contenus les plus extrêmes attiraient la majorité des partages et des nouveaux abonnés. Peu à peu, un phénomène bien connu s’est installé, une poignée d’ influenceurs a monopolisé l’attention, reléguant les autres voix au second plan. Exactement comme dans les réseaux humains, où quelques figures dominent le débat et façonnent l’opinion des masses. Et pourtant, ici, aucune main invisible algorithmique pour orienter les choix. Juste un espace neutre où les mêmes travers refont surface.
Six remèdes testés… aucun miracle
Face à ce constat, les chercheurs ont voulu voir s’il était possible de casser cette spirale de polarisation. Ils ont testé plusieurs approches: un fil d’actualité purement chronologique, la réduction de la visibilité des contenus viraux, la suppression du compteur d’abonnés, celle des biographies, ou encore l’amplification artificielle des points de vue opposés. Le verdict est tombé, aucun de ces remèdes n’a suffi. Certains ont produit des améliorations temporaires, mais chaque avancée s’accompagnait d’un revers ailleurs. Comme si le problème était plus profond que les simples paramètres d’affichage. Pour les auteurs, le message est limpide, la toxicité des réseaux sociaux ne viendrait pas seulement des algorithmes, mais de leur structure même. Des lieux conçus pour croître par le partage émotionnel ont toutes les chances de voir émerger la polarisation, qu’ils soient habités par des humains ou par des machines.
Des IA pour comprendre les humains
Cette étude est l’une des premières à utiliser massivement des agents conversationnels pour tester et affiner des théories en sciences sociales. Les chercheurs voient dans ces IA une nouvelle manière de simuler le comportement humain et d’observer les dynamiques collectives dans un environnement contrôlé. Mais ils restent prudents, ces modèles restent des « boîtes noires », imprévisibles et porteuses de biais intégrés. Ce qui ne les empêche pas, paradoxalement, d’être de précieux miroirs de nos propres comportements.
Un air de déjà-vu
Ce n’est pas la première fois que Petter Törnberg s’essaie à ce type d’expérience. En 2023, il avait déjà dirigé un projet où 500 chatbots, cette fois basés sur ChatGPT-3.5, lisaient les actualités et en discutaient dans un espace simulé. L’objectif était d’explorer comment favoriser les échanges entre opinions opposées sans basculer dans l’agressivité.
« Peut-on encourager le dialogue entre camps politiques opposés sans alimenter la toxicité ? » s’interrogeait-il alors.
Dans les deux cas, les résultats ont montré la même chose: même dans un monde où les participants ne sont pas humains, les divisions et les rapports de force apparaissent rapidement.
Les géants du web aussi s’y intéressent
L’idée d’observer des IA interagir pour comprendre les mécaniques sociales n’est pas réservée aux universitaires. En juillet 2020, Facebook avait créé une version fermée de sa plateforme, peuplée uniquement de millions de bots, pour tester la propagation des comportements toxiques et les stratégies possibles pour les contenir. Ces expériences, qu’elles soient universitaires ou industrielles, posent une question troublante: la polarisation et la toxicité en ligne sont-elles des effets secondaires évitables, ou bien le prix inévitable de toute interaction sociale à grande échelle ? Quand on voit que des IA, dénuées d’émotions, mais programmées pour imiter nos manières de penser et d’échanger, reproduisent nos conflits et nos bulles d’opinion, la réponse semble s’imposer. Même débarrassés des algorithmes et des publicités, les réseaux sociaux portent en eux les germes des divisions qu’ils amplifient.
Et si le problème, au fond, ce n’était pas la machine mais le miroir qu’elle nous tend ?