Grok – Quand l’illusion de la confidentialité s’effondre

Forbes vient de révéler un scandale qui devrait faire trembler l’empire d’Elon Musk. Des centaines de milliers de conversations tenues avec Grok, le chatbot développé par sa société xAI, sont en libre accès sur Google. Oui, vous avez bien lu, vos échanges privés avec l’IA du milliardaire, censés rester confidentiels, peuvent être consultés par n’importe qui d’un simple clic.

Le mécanisme est d’une absurdité inquiétante. Chaque fois que vous cliquez sur le bouton « partager » d’une de vos conversations avec Grok, une URL unique est générée. L’idée, à la base, semble inoffensive, vous permettre d’envoyer un échange par mail, SMS ou sur un réseau social. Mais voilà le problème, ces URL sont indexées par les moteurs de recherche. Résultat, des inconnus, sans aucun droit d’accès, peuvent tomber sur ces conversations en naviguant sur Google, Bing ou DuckDuckGo. Ce qui devait rester une option de partage volontaire se transforme en fuite massive.

Ce n’est pas la première fois qu’un tel fiasco se produit dans l’univers des chatbots. Meta et OpenAI ont eux aussi déjà laissé échapper des morceaux de discussions privées à cause de failles similaires. Mais dans le cas de Grok, les conséquences paraissent encore plus explosives. Car les conversations révélées ne se limitent pas à des banalités du quotidien. Elles exposent au grand jour les penchants les plus troubles des utilisateurs. On y trouve des demandes pour pirater des portefeuilles crypto, des dialogues sexuels explicites avec une IA lubrique, ou même des instructions pour fabriquer de la méthamphétamine.

xAI prétend pourtant poser des garde-fous stricts: interdiction de promouvoir des contenus mettant « gravement en danger la vie humaine » ou de développer des « armes chimiques, biologiques ou de destruction massive ». Mais il suffit de jeter un œil à ce que Google a déjà mis à nu pour voir à quel point ces règles sont du vent. Grok a bel et bien livré des recettes pour fabriquer du fentanyl, détaillé différentes méthodes de suicide, distribué des schémas de bombes artisanales, et même pondu un plan d’assassinat visant Elon Musk lui-même. Voilà la vision futuriste de xAI, un chatbot qui devient un manuel interactif du pire de l’humanité.

Face à la gravité de ces révélations, l’entreprise a choisi la stratégie la plus lâche, le silence. Aucun commentaire officiel, aucune explication, aucun mea culpa. Interrogée, la société n’a même pas répondu à la question élémentaire: depuis quand ces conversations sont-elles indexées par Google ? À croire qu’elle préfère détourner le regard, espérant que le vacarme médiatique finira par s’éteindre de lui-même. Ce déni est d’autant plus choquant que Musk, il y a quelques semaines à peine, se drapait dans une posture de chevalier blanc. Lorsque des utilisateurs de ChatGPT avaient découvert leurs propres conversations indexées par Google (une « expérience de courte durée », selon OpenAI) il s’était empressé de tourner la situation à son avantage. Il avait publiquement clamé que Grok ne disposait « d’aucune fonction de partage » et que le service « donnait la priorité à la vie privée ». Une déclaration qui sonne aujourd’hui comme un mensonge éhonté.

Ce scandale révèle ce que beaucoup pressentaient déjà, Grok et xAI n’ont pas été conçus avec la confidentialité comme priorité. Derrière les promesses creuses se cache une entreprise qui joue avec la vie privée de ses utilisateurs comme avec un jouet marketing. En réalité, xAI exploite les failles de l’attention médiatique, taper fort sur ses concurrents quand ils trébuchent, mais balayer ses propres fiascos sous le tapis. Le plus inquiétant reste la banalisation de ces dérives. Car à mesure que les chatbots deviennent des compagnons de tous les jours, les utilisateurs leur confient des fragments de leur vie intime, leurs questionnements les plus sensibles, leurs pulsions les plus secrètes. Quand ces données se retrouvent indexées sur Google, il ne s’agit plus d’un simple bug technique, mais d’une trahison. Et quand un acteur aussi influent qu’Elon Musk est impliqué, le scandale dépasse le cadre technologique, il s’agit d’une attaque directe contre la confiance du public.

À ce stade, une question s’impose: qui pourra encore croire le milliardaire quand il promet que Grok est plus sûr, plus intelligent ou plus respectueux de la vie privée que ses rivaux ? Son discours de prophète du futur apparaît désormais pour ce qu’il est, une façade destinée à masquer l’amateurisme technique et le mépris profond pour ses utilisateurs. L’homme qui prétend sauver l’humanité de l’IA « woke » a livré au monde un chatbot incontrôlable, qui divulgue aussi bien vos secrets que des plans de fabrication d’explosifs. La révélation de Forbes doit être un signal d’alarme. Tant que Musk et xAI ne seront pas contraints de rendre des comptes, ces dérives se répéteront. Grok, loin d’incarner une avancée éthique de l’intelligence artificielle, devient l’exemple parfait de ce que la technologie peut produire de pire, un miroir déformant qui expose nos pulsions les plus sombres, et une entreprise cynique qui ne voit dans la vie privée qu’un slogan creux.

Mastodon Reddit Qwice