Romain Leclaire

News Tech et Culture Numérique

Préparez vos mouchoirs et vos vieux CD-ROM gratuits, le 30 septembre prochain, AOL va officiellement tirer un trait sur son service Internet par modem.

Oui, celui qui a bercé nos débuts en ligne avec ses grésillements et ses bips étranges (pour les plus jeunes d’entre vous, allez tendre une oreille ici). Depuis son lancement en 1991, AOL Dial-up a été pour beaucoup la porte d’entrée vers ce nouveau monde qu’on appelait le Web, et qui aujourd’hui se résume à regarder des vidéos de chats en HD sur son téléphone.

Dans un communiqué solennel (et sans musique de modem, hélas), l’entreprise américaine (désormais propriété de Yahoo) explique qu’elle « évalue régulièrement ses produits » et a donc décidé de débrancher la prise. Comprenez: le service, le logiciel AOL Dialer et le navigateur AOL Shield, tous deux optimisés pour les dinosaures de l’informatique et les connexions à 56k, vont rejoindre le musée des technologies obsolètes, entre le Minitel et la disquette 3,5 pouces.

Vous pensiez que plus personne n’utilisait ça ? Détrompez-vous. Un recensement américain en 2019 estimait que 265 000 irréductibles continuaient à se connecter ainsi, comme on écoute un vinyle ou on conduit une voiture sans direction assistée, par goût, habitude ou refus obstiné de changer.

Aujourd’hui, la disparition d’AOL Dial-up n’est pas qu’une note de bas de page dans l’histoire de la tech. C’est aussi la fin d’une époque où se connecter demandait patience, anticipation et parfois un peu de chance pour que personne ne décroche le téléphone pendant le téléchargement. Ce clap de fin survient en même temps que d’autres bouleversements, comme la fin annoncée d’un Internet gratuit financé par la publicité, et l’arrivée de nouvelles façons de naviguer, toujours plus rapides mais aussi plus fugaces.

Alors oui, le 30 septembre, on dira au revoir à ce son mythique qui résonne encore dans nos mémoires et qui, soyons honnêtes, avait un petit côté chanson de baleine cybernétique. Adieu, AOL Dial-up. Tu étais lent, capricieux, mais tu nous as ouvert la porte du Web et pour ça, on ne t’oubliera pas.

Mastodon Reddit Qwice

La semaine passée a été chargée dans l’univers du libre, avec des annonces touchant à la fois le noyau Linux, l’une des distributions les plus populaires et un lecteur audio culte. Voici un tour d’horizon complet des nouvelles versions, de leurs innovations et de ce que vous pouvez en attendre. C’est parti !

Linux 6.17 RC1 – Le nouveau noyau entre en phase de test

Linus Torvalds a officialisé la sortie de la première Release Candidate (RC1) du futur noyau Linux 6.17, marquant la fin de la période de fusion des nouveautés. Ce jalon de développement ouvre la voie à plusieurs semaines de tests publics, avec une nouvelle RC publiée chaque dimanche jusqu’à la version finale.

Deux semaines après Linux 6.16, cette nouvelle mouture promet des avancées intéressantes. Parmi elles, une optimisation des performances du système de fichiers Btrfs, la prise en charge des processeurs Intel Wildcat Lake, le support de l’extension BRBE (Branch Record Buffer Extension) pour ARM et une nouvelle option sysctl pour IPv6 permettant d’activer le transfert par interface. EXT4 profite d’une meilleure évolutivité pour l’allocation de blocs, et les processeurs AMD bénéficient désormais du support de l’interface HFI (Hardware Feedback Interface).

À ces ajouts techniques s’ajoutent de nombreux pilotes mis à jour pour améliorer la compatibilité matérielle, des évolutions dans la documentation, les systèmes de fichiers et la pile réseau. Linus Torvalds qualifie ce cycle de développement de “plutôt sain”, avec un volume de commits et de correctifs dans la moyenne.

La RC1 de Linux 6.17 peut être téléchargée dès maintenant depuis kernel.org ou le dépôt Git de Torvalds. Attention toutefois, il s’agit d’une version préliminaire déconseillée en production. Si le calendrier est respecté, la sortie finale est attendue le 28 septembre prochain (sept RC) ou le 5 octobre (huit RC).

Linux Mint 22.2 “Zara” – Une bêta prometteuse

Côté distributions, l’équipe Linux Mint a dévoilé la bêta 22.2, baptisée “Zara”. Comme Ubuntu, sur lequel elle est basée, elle adopte un noyau HWE (Hardware Enablement) pour un support matériel élargi. L’authentification par empreinte digitale est désormais disponible sur toutes les éditions grâce à la nouvelle application Fingwit. Vous pouvez également personnaliser la couleur d’accentuation, profiter d’une meilleure compatibilité avec libAdwaita et découvrir des thèmes revus.

La version Cinnamon reçoit un soin particulier avec des améliorations sur les méthodes de saisie et la gestion des dispositions clavier, optimisées pour fonctionner avec la session Wayland introduite dans Linux Mint 21.3. Les trois éditions traditionnelles sont de la partie: Cinnamon 6.4.10, Xfce 4.18 et MATE 1.26, toutes construites sur Ubuntu 24.04.3 LTS “Noble Numbat” et propulsées par Linux 6.14, offrant ainsi un support matériel supérieur à celui de la version précédente “Xia”.

Cette bêta est disponible en téléchargement sur les miroirs officiels de Linux Mint, mais comme toute pré-version, elle n’est encore une fois pas recommandée pour un usage en production. L’annonce officielle complète est attendue cette semaine. Comme ses prédécesseurs, Linux Mint 22.2 est une version LTS, avec un support de sécurité assuré jusqu’en 2029.

Amarok 3.3.1 – Un lecteur audio libre peaufiné

Le lecteur audio Amarok, bien connu des amateurs de musique sous Linux, revient avec une mise à jour de maintenance de sa version 3.3. Sorti le mois dernier, la version 3.3 proposait du changement en étant entièrement porté vers Qt 6, offrant une interface plus moderne et fluide.

Amarok 3.3.1 se concentre sur la stabilité et l’amélioration de l’expérience utilisateur. Le support du scripting a été renforcé avec la possibilité d’enregistrer et charger les éléments de la console de script, l’ajout de l’auto-complétion et la réactivation de certaines fonctionnalités avancées. Les derniers boutons de la barre d’outils adoptent désormais les icônes du thème par défaut, et les vestiges de l’ancien service MusicDNS ont été retirés.

La compatibilité des playlists exportées a été peaufinée, la transmission des pochettes intégrées via MPRIS est désormais assurée et le lecteur ne déclenche plus la boîte de dialogue de transcodage après l’annulation d’un téléchargement.

Plusieurs bugs gênants ont été corrigés, comme un crash au démarrage lors du chargement des informations réseau, des plantages aléatoires en lecture, une recherche MusicBrainz défaillante, ou encore un problème empêchant la mise à jour de l’égaliseur avec certains préréglages. Le logiciel peut maintenant lancer directement la lecture d’un CD même s’il n’était pas déjà ouvert.

Disponible en téléchargement depuis le site officiel sous forme de code source, Amarok 3.3.1 peut aussi être installé via les dépôts stables des principales distributions ou en Flatpak depuis Flathub. Le lecteur conserve ses atouts: gestion de bibliothèque musicale avec système de notation, listes de lecture dynamiques, compatibilité iPod/MTP/UMS, gestionnaire de pochettes, ReplayGain et une solide prise en charge des scripts.

Une rentrée 2025 dynamique pour l’open source

Avec toutes ces annonces, l’écosystème libre prouve une fois de plus sa vitalité. Le noyau continue d’évoluer avec un équilibre entre performances et compatibilité matérielle, les distributions affinent leur expérience utilisateur et les logiciels phares poursuivent leur modernisation.

Pour les passionnés comme pour les professionnels, ces sorties successives sont l’occasion de tester, d’expérimenter et de contribuer, afin que les versions finales soient encore plus robustes. Les mois à venir s’annoncent riches en mises à jour et en découvertes, confirmant que l’univers Linux reste l’un des plus dynamiques et innovants du monde logiciel.

Mastodon Reddit Qwice

C’est officiel, après plus de deux ans de gestation, Debian 13, surnommée « Trixie », vient de pointer le bout de son nez. Pour les passionnés de Linux, c’est un peu comme Noël avant l’heure. Cette nouvelle version n’est pas qu’une simple mise à jour. Elle est aussi un bond en avant qui mélange innovations, stabilité et une attention méticuleuse aux détails.

Sous le capot, « Trixie » embarque le noyau Linux 6.12 LTS. Il garantit des mises à jour de sécurité et de correction de bugs jusqu’en décembre 2026, tout en apportant une meilleure prise en charge du matériel récent grâce à de nouveaux pilotes. Si vous venez d’acquérir un ordinateur flambant neuf, il y a de fortes chances que Debian 13 le reconnaisse sans sourciller.

Mais les vraies stars de cette sortie sont les nouvelles fonctionnalités. Pour la première fois, Debian offre un support officiel de l’architecture RISC-V 64 bits, un pas important vers l’avenir du matériel libre. APT, le gestionnaire de paquets bien connu, passe en version 3.0 avec des améliorations qui rendent l’installation et la mise à jour des logiciels encore plus fluides. On note aussi l’arrivée du démarrage via HTTP, du support de HTTP/3 dans cURL, et même d’optimisations pour la gestion des dates au-delà de 2038, de quoi éviter les bugs temporels dans quelques décennies.

Debian 13, ce n’est pas seulement de la technique brute, c’est aussi une expérience utilisateur peaufinée. Les pages de manuel sont mieux traduites, la correction orthographique débarque dans les navigateurs basés sur Qt WebEngine, et les développeurs poursuivent leur quête des compilations « byte-for-byte » reproductibles, pour une transparence totale sur la provenance des logiciels. Côté sécurité, « Trixie » se renforce encore. Les architectures AMD64 et ARM64 bénéficient de protections supplémentaires contre certaines attaques sophistiquées, et un nouvel outil baptisé run0 permet d’exécuter des tâches système en utilisant le mot de passe de l’utilisateur, au lieu de celui du root. Détail intéressant: /tmp est désormais monté en mémoire vive (tmpfs) par défaut, ce qui accélère le traitement des fichiers temporaires.

Comme toujours, Debian reste une distribution universelle, elle tourne aussi bien sur PC 64 bits, ARM, PowerPC, RISC-V que sur les gros systèmes IBM. Et si vous aimez personnaliser votre environnement de bureau, vous pourrez choisir entre KDE Plasma 6.3, GNOME 48, Xfce 4.20, Cinnamon 6.4, LXQt 2.2, MATE 1.26.1 ou LXDE 13. Bonne nouvelle pour les utilisateurs de Debian 12 « Bookworm », la mise à niveau est simple, bien documentée et sans mauvaises surprises. Et avec un support garanti jusqu’en juin 2030, la version 13 se présente comme un compagnon fiable pour les années à venir. C’est un signe que le projet Debian, après 30 ans d’existence, continue d’évoluer avec la même passion et la même rigueur. Une mise à jour à ne pas manquer, que vous soyez un vieux routier de Linux ou un nouveau venu curieux de découvrir l’univers du libre.

Mastodon Reddit Qwice

Il y a encore quelques mois, Satya Nadella fonçait comme un pilote de F1 sous caféine. En début d’année, il propulsait le modèle R1 de DeepSeek sur Azure AI Foundry à une vitesse qui aurait donné des sueurs froides à n’importe quel service juridique.

Succès immédiat, nouveaux standards de réactivité et le PDG de Microsoft savourait. Rebelote au printemps, Grok 3 de xAI arrivait pile à temps pour la conférence Build, avec en prime un Elon Musk presque détendu sur scène, évoquant ses jeunes années de stagiaire chez la firme de Redmond. Comme si le procès qu’il a intenté à la boîte ne comptait pas vraiment.

Mais voilà, Grok 4, c’est une autre histoire. Cette fois, Nadella ne tape pas sur l’accélérateur. Il pose le pied sur le frein, voire sur l’embrayage, le temps de regarder sous le capot. Et ce n’est pas pour rien. Le nouveau bébé d’Elon Musk a été annoncé début juillet, juste après que Grok, le chatbot, a eu la brillante idée de tenir sur X des propos ouvertement pro-Hitler. Pas exactement le genre de publicité qu’on aime voir collée à la marque Microsoft.

Résultat, les alarmes ont retenti à Redmond. On préparait déjà le tapis rouge pour Grok 4 sur Azure AI Foundry, comme on le fait pour OpenAI, Meta ou Mistral. Sauf que là, silence radio. Pas d’annonce, pas de date, pas même un teasing. En coulisse, c’est « red teaming » intensif: pendant tout le mois de juillet, les équipes ont cherché la moindre faille, le moindre bug, le moindre dérapage. Et selon une source bien placée, certains rapports étaient carrément « très laids ».

Le verdict est finalement tombé: pas de lancement grand public. Microsoft préfère une préversion privée, réservée à quelques clients triés sur le volet. Un club VIP ultra-fermé, où l’on pourra tester Grok 4 loin des regards, histoire d’éviter un nouveau scandale comme celui des images dénudées de Taylor Swift générées par l’IA. Pour xAI, c’est un coup dur. Car être sur Azure, c’est accéder directement aux entreprises clientes de Microsoft. Pour Redmond aussi, l’enjeu est réel: se poser en hôte incontournable de tous les modèles d’IA. Mais la stratégie a changé. Plus question de foncer tête baissée. Grok 4 devra attendre.

Pendant que cette petite tempête se joue côté produit, Microsoft continue de remodeler ses équipes IA en interne. Cette semaine, c’est le département Business & Industry Copilot (BIC) de Charles Lamanna qui a été remanié. Depuis juin, il est rattaché à Microsoft 365 Copilot, sous la houlette de Rajesh Jha. Dans un mémo interne, Lamanna a officialisé la création d’Agent 365 comme « initiative produit ». Le but ? Muscler la sécurité et la conformité des agents IA avant de les déployer massivement dans Teams, Outlook ou SharePoint. À la tête du projet, Nirav Shah, un vétéran maison depuis 24 ans. Autre mouvement stratégique, une fusion partielle des équipes Power Automate et Copilot Studio. Les flux d’agents et le CUA de Power Automate passent désormais chez Copilot Studio, sous la direction de Dan Lewis. Certains membres de Power Automate rejoignent la Power Platform. C’est du ménage, mais pas juste pour faire joli. Il faut fluidifier la création et le déploiement d’agents IA.

Et comme Microsoft adore les acronymes, voici les FDE, alias Forward Deployed Engineers. Leur mission, aller directement chez le client pour montrer, prouver et faire adopter les outils IA maison. En clair, moins de commerciaux « slide PowerPoint », plus de profils techniques capables de brancher l’IA en live. Dans le contexte actuel de licenciements ciblés chez Microsoft, le message est clair, l’avenir appartient aux ingénieurs capables de vendre en codant.

Charles Lamanna résume:

« Les FDE deviennent essentiels dans les grandes transformations IA, comme chez Palantir ou OpenAI. »

Traduction: si Microsoft veut rester dans la course, il faut non seulement de bons modèles, mais aussi les bonnes personnes pour les installer, les sécuriser et convaincre les clients. Satya Nadella semble donc avoir compris que dans l’IA, la vitesse sans contrôle, ça finit parfois dans le décor. Grok 4 en est la preuve, pas question de risquer un bad buzz mondial pour une intégration précipitée. Mieux vaut temporiser, tester, resserrer la vis, quitte à frustrer tonton Musk.

Dans cette guerre de l’IA où chaque semaine apporte son lot de nouveautés, Microsoft joue désormais la carte de la combustion lente: monter en puissance, mais avec le frein à main pas trop loin. Après tout, dans le cloud comme en Formule 1, finir la course compte autant que partir plein pot.

Mastodon Reddit Qwice

Pour faire suite à mon précédent article de ce matin, vous aurez compris que l'Internet que nous connaissons est en train de vivre l'une des transitions les plus fondamentales de son histoire. Discrètement, mais avec la force d'un raz-de-marée, nous passons d'un monde dominé par les moteurs de recherche à une ère gouvernée par ceux de réponse alimentés par l'intelligence artificielle. Ce n'est pas une simple mise à jour logicielle, c'est aussi un séisme économique qui menace de pulvériser le modèle commercial qui soutient le web depuis des décennies.

Alors que la plupart des géants de la technologie ont sauté à pieds joints dans le train de cette technologie tendance, Matthew Prince, PDG de Cloudflare, tire la sonnette d'alarme et propose activement une solution:

« Ce ne sont plus des moteurs de recherche, ce sont des moteurs de réponse. L'économie et les règles sont très différentes », a-t-il confié lors d'une récente interview. « Nous devons conclure un nouveau pacte. »

La rupture du contrat historique

Depuis un quart de siècle, le web fonctionne sur un pacte tacite. Google, avec son moteur de recherche omnipotent, agissait comme une carte numérique géante, guidant les utilisateurs dans une chasse au trésor à travers des milliards de pages pour trouver l'information désirée. Ce système générait du trafic, la monnaie d'échange du web. Les sites lui laissaient indexer leurs données en échange de ces précieuses visites, qui étaient ensuite monétisées par la publicité ou les abonnements. Cet argent finançait la création de nouveaux contenus, qui à leur tour, amélioraient les résultats de recherche du géant américain. Un cercle vertueux.

Aujourd'hui, l'ère des moteurs de réponse fait voler en éclats ce modèle. Des outils comme les AI Overviews de Google, ChatGPT d'OpenAI ou encore Perplexity ne fournissent plus la carte, mais directement le trésor. Ils synthétisent l'information et livrent une réponse clé en main, rendant souvent inutile le clic vers la source originale.

« Les moteurs de réponse ne génèrent pas de trafic », martèle Prince. « Les moteurs de recherche étaient le moteur qui alimentait les revenus du web. S'il n'y a plus de trafic, alors l'écosystème existant, basé sur le modèle actuel, s'effondre. »

Les données confirment cette tendance alarmante. Des analystes ont récemment montré une chute vertigineuse du trafic de référence vers des sites dans des secteurs aussi variés que l'édition, l’e-commerce, le voyage ou la finance. Pendant ce temps, les robots des géants de l'IA aspirent (ou scrapent) les sites web plus agressivement que jamais, s'emparant gratuitement de leurs données tout en faisant exploser leurs coûts liés au trafic. Pour chaque utilisateur que Google envoie aujourd'hui vers l’un d’entre eux, il a au préalable exploré 18 pages. Il y a dix ans, ce ratio était de 2 pour 1.

Un écosystème au bord du gouffre

Si Matthew Prince est l'une des rares voix importantes de la tech à s'attaquer à cette crise, c'est que sa position est unique. La plupart des entreprises d'IA ont tout intérêt à minimiser la valeur des données dans leurs modèles. Elles dépensent des milliards en processeurs graphiques (GPU), en centres de données et en talents. Payer pour les données est la dernière chose qu'elles souhaitent. Cloudflare, en revanche, est une société d'infrastructure et de sécurité qui fait fonctionner environ 20 % de l'Internet. Elle prospère lorsque le web est en bonne santé. Face à cette menace, elle a pris une mesure courageuse et controversée: bloquer par défaut les robots d'IA et créer un système incitant les entreprises d'IA à rémunérer les sites web pour l'accès à leur contenu. En substance, transformer une relation unilatérale en une transaction de marché. Cette manière de faire a suscité des critiques virulentes, notamment de la part de Perplexity qui, après avoir tenté de contourner le blocage, a accusé Cloudflare d'être fait « plus de flair que de cloud ».

L'avenir du web: trois scénarios possibles

Au cœur de cette crise se trouve Google. En passant d'un moteur de recherche à un moteur de réponse, le gardien dominant d'Internet a un pouvoir immense. Selon Prince toujours, l'avenir pourrait se dessiner selon trois scénarios:

  1. L'Effondrement du Contenu: Aucun modèle économique durable n'émerge. Le contenu original se tarit, et le web devient un terrain vague rempli de « scories de l'IA » (AI slop), des contenus de faible qualité générés par des robots.

  2. Le Contrôle Oligarchique: Tous les créateurs de contenu travaillent pour une poignée de géants technologiques. Tels les Médicis de la Renaissance, ces entreprises deviennent les seuls mécènes de la connaissance, contrôlant ce qui est créé et distribué. On verrait alors émerger une IA conservatrice américaine, une IA progressiste, une IA chinoise, etc.

  3. Le Modèle du Gruyère: C'est le scénario optimiste. Imaginez que la connaissance agrégée par les IA est un énorme bloc de gruyère. Il est vaste, mais plein de trous. Un nouveau modèle économique pourrait émerger, où les créateurs seraient rémunérés pour combler ces derniers avec des informations originales, vérifiées et de haute qualité.

Le PDG de Cloudflare s'inspire du modèle de Spotify. La plateforme de streaming identifie les tendances de la demande des utilisateurs et les signale aux artistes indépendants, qui peuvent alors créer de la musique pour y répondre. Ce système a généré des milliards pour les créateurs. De la même manière, les créateurs de contenu pourraient être payés pour fournir des réponses sur mesure afin de combler les lacunes dans l'univers de connaissances de l'IA. Ce serait un monde bien meilleur que celui que Google a involontairement créé. Chez Cloudflare, cette vision est surnommée « l'Acte 4 ». Un pari qui pourrait définir non seulement l'avenir de l'entreprise, mais aussi celui de l'Internet tout entier.

Mastodon Reddit Qwice

Dans une opération de communication qui frise l'insulte à l'intelligence collective, Google vient de nous servir sa dernière vérité officielle: non, ses nouvelles fonctionnalités de recherche basées sur l'IA ne sont absolument pas en train de siphonner le trafic des sites web. Circulez, y'a rien à voir.

C'est Liz Reid, la directrice de la recherche, qui s'est fendue d'un billet de blog pour nous expliquer, avec tout le sérieux que sa fonction exige, que tout va pour le mieux dans le meilleur des mondes numériques. Selon elle, le volume de clics provenant du moteur de recherche serait resté relativement stable par rapport à l'année dernière. Une affirmation culottée, presque comique, quand on la confronte à la réalité vécue par des milliers de créateurs de contenu, de médias et de sites indépendants qui voient leur audience fondre comme neige au soleil. Bien sûr, Madame Reid concède du bout des lèvres que certains types de sites reçoivent plus de clics et d'autres moins. Une manière élégante de dire que Google a décidé de faire la pluie et le beau temps, choisissant les gagnants et les perdants de sa nouvelle ère.

Ce plaidoyer pro domo intervient quelques semaines seulement après la publication d'un rapport du très respecté Pew Research Center. Leurs conclusions ? Les internautes sont moins susceptibles de cliquer sur des liens lorsque Google leur présente un AI Overview, ce résumé généré par une IA qui trône désormais au sommet des résultats de recherche. La réponse du géant américain est d'une arrogance spectaculaire: les rapports de tiers, comme celui cité plus haut, seraient souvent basés sur des méthodologies défectueuses. En clair, seuls les chiffres maison sont les bons, surtout quand personne d'autre ne peut les vérifier.

Pendant que Google se gargarise de ses propres affirmations, l'industrie des médias numériques panse ses plaies. Un rapport récent du Wall Street Journal détaillait comment des géants de la presse outre-Atlantique comme Business Insider, The Washington Post ou le HuffPost ont subi des baisses de trafic drastiques, entraînant des vagues de licenciements. La cause ? L'émergence des IA conversationnelles et, surtout, les changements d'algorithmes de Google. Le message de l'entreprise est limpide, si votre trafic s'effondre, c'est que vous n'êtes pas assez « authentique ». Liz Reid nous explique doctement que les utilisateurs recherchent des forums, des vidéos, des podcasts et donc des « voix authentiques ».

C'est là que la supercherie devient évidente. Qui sont ces grands gagnants de la nouvelle donne ? Par un heureux hasard, Reddit, avec qui Google a signé un partenariat juteux début 2024 pour entraîner ses modèles d'IA, a vu son trafic plus que doubler depuis 2021. La croissance a même explosé depuis l'annonce de leur accord. Google ne se contente pas d'observer une tendance vers les « voix authentiques », il la fabrique de toutes pièces en favorisant massivement un partenaire commercial. L'affirmation selon laquelle le volume global de clics reste stable peut donc être techniquement vraie, mais elle masque une redistribution massive et arbitraire des cartes, où les petits sites de niche et les médias indépendants sont sacrifiés sur l'autel des intérêts stratégiques de la firme de Mountain View.

Le cœur du problème, et le point le plus insultant du billet de Liz Reid, est l'absence totale, abyssale, de données concrètes. On nous parle de clics relativement stables, de clics de meilleure qualité pour ceux qui daignent encore cliquer sur un lien après avoir lu le résumé de l'IA. Mais où sont les chiffres ? Où sont les métriques ? Nous sommes priés de croire Google sur parole. Un acte de foi que plus personne n'est disposé à faire.

L’entreprise tente de nous faire croire que ses AI Overviews ne sont qu'une évolution de ses anciennes « Knowledge Graph ». Pourtant, il y a une différence fondamentale: ces anciennes fiches d'information répondaient à des questions simples (la hauteur de la Tour Eiffel, un score de match). Les AI Overviews, eux, synthétisent des articles complexes, des analyses, des critiques, privant ainsi les sites originaux de la raison même de leur existence: le clic de l'internaute curieux. Liz Reid admet elle-même que parfois, l'utilisateur obtient ce dont il a besoin grâce à la réponse de l'IA et ne cliquera pas plus loin. Comment peut-on alors prétendre que cela est bénéfique pour le web ?

Le clou du spectacle est sans doute cette affirmation finale: Google se soucierait plus que n'importe quelle autre entreprise de la santé de l'écosystème du web. C'est une déclaration d'une hypocrisie monumentale. Google ne s’en préoccupe pas, il s’intéresse uniquement à la santé de son monopole. En gardant les utilisateurs captifs sur ses propres pages, en leur fournissant des réponses directes pour qu'ils n'aient plus besoin de sortir de son écosystème, il ne renforce pas le web. Il construit une prison dorée autour de lui.

Tant que Google refusera de fournir des données transparentes pour étayer ses affirmations, son discours ne sera rien de plus qu'une tentative désespérée de contrôler le narratif. Le web ouvert, diversifié et décentralisé qui lui a permis de naître est peut-être en train de mourir de la main de son enfant devenu trop puissant, trop arrogant et dangereusement aveugle à la destruction qu'il engendre.

Mastodon Reddit Qwice

Les moteurs de recherche Qwant (français) et Ecosia (allemand) ont annoncé aujourd’hui une importante avancée, fruit de leur collaboration: une partie de leurs requêtes est désormais traitée par Staan, un index de recherche qu'ils ont développé conjointement.

Plus qu'une simple mise à jour technique, cette initiative représente une déclaration d'intention courageuse, visant à offrir une alternative plus souveraine, plus respectueuse de la vie privée et économiquement viable aux mastodontes que sont Google et Bing. L'histoire de Staan a commencé l'année dernière, lorsque Qwant, connu pour son engagement en faveur de la confidentialité, et Ecosia, le moteur de recherche à but non lucratif qui plante des arbres, ont uni leurs forces. De cette alliance est née une co-entreprise baptisée « European Search Perspective » (EUSP). Leur objectif commun ? Créer un index de recherche entièrement européen. Un index, pour simplifier, est le cerveau d'un moteur de recherche, une gigantesque bibliothèque du web, constamment mise à jour, qui catalogue et classe des milliards de pages pour nous fournir des réponses pertinentes en une fraction de seconde. En développant le leur, Qwant et Ecosia s'affranchissent de leur dépendance technologique vis-à-vis de Microsoft Bing, sur lequel ils s'appuyaient partiellement jusqu'à présent.

Les ambitions d'EUSP sont tout sauf modestes. D'ici la fin de l'année, l'entreprise vise à traiter environ 50 % des requêtes de recherche en France et 33 % en Allemagne via sa propre technologie. C'est un pas de géant vers une véritable autonomie. Qwant a d'ores et déjà commencé à utiliser Staan pour alimenter certaines de ses fonctionnalités les plus innovantes, comme les résumés de recherche générés par intelligence artificielle. Ecosia devrait suivre de près en intégrant prochainement des fonctionnalités similaires sur sa plateforme.

Mais la vision d'EUSP s'étend bien au-delà de ses propres moteurs de recherche. Le projet Staan est également présenté comme une solution pour d'autres entreprises, en particulier dans le domaine en pleine explosion des agents conversationnels.

« Si vous utilisez ChatGPT ou tout autre chatbot IA, ils s'appuient tous sur la recherche web pour ancrer leurs connaissances », explique Christian Kroll, le PDG d'Ecosia. « Notre index peut alimenter des recherches approfondies et des fonctions de résumé par IA. Les solutions de Google et Bing sont également coûteuses, et notre index peut offrir des fonctions de recherche puissantes pour un dixième du coût. »

Cette proposition de valeur économique pourrait s'avérer décisive pour séduire un écosystème technologique européen en quête d'alternatives performantes et abordables. Le but est de construire une pile technologique européenne souveraine par la suite. À l'instar d'entreprises comme Proton, qui développe une suite d'outils chiffrés (e-mail, calendrier, VPN), EUSP milite pour une Europe capable de maîtriser son infrastructure numérique fondamentale, sans dépendre des États-Unis ou de la Chine. Le contexte géopolitique actuel rend cette quête plus pertinente que jamais.

Dans une déclaration commune, les deux entreprises soulignent l'urgence de la situation:

« Le résultat des élections américaines de 2024 a rappelé aux décideurs politiques et aux innovateurs européens à quel point l'Europe reste exposée en ce qui concerne son infrastructure numérique de base. Une grande partie des couches européennes de recherche, de cloud et d'IA sont construites sur des piles technologiques de la Big Tech américaine, mettant des secteurs entiers, du journalisme à la technologie climatique, à la merci d'agendas politiques ou commerciaux. »

Ce projet est donc une réponse directe à cette vulnérabilité stratégique. En construisant une infrastructure européenne, régie par des lois locales comme le RGPD, Staan peut offrir des garanties de confidentialité que ses concurrents américains peinent à égaler. Christian Kroll insiste sur ce point, affirmant que la combinaison de leur index et du cadre juridique européen permet de proposer une solution de recherche intrinsèquement plus respectueuse de la vie privée.

Au final, ce lancement n'est pas seulement une nouvelle technique pour les amateurs de technologie. C'est un acte politique et économique fort. C'est la démonstration que deux acteurs européens, aux modèles pourtant différents, peuvent collaborer pour bâtir une alternative crédible et affirmer une vision commune. C'est la promesse d'un web où le choix ne se limite pas à deux ou trois options, mais où la souveraineté des données et l'indépendance stratégique deviennent des critères de sélection concrets. L'avenir nous dira si les utilisateurs et les entreprises du continent répondront à cet appel, mais une chose est certaine, une nouvelle page de l'histoire numérique européenne est en train de s'écrire.

Mastodon Reddit Qwice

Deux ans après la tragédie qui a captivé et horrifié le monde entier, le voile se lève enfin sur les circonstances exactes de l'implosion du submersible Titan. Dans un rapport final de plus de 300 pages, la garde côtière américaine dresse un portrait glaçant, non pas d'un simple accident, mais d'une catastrophe inévitable, orchestrée par l'hubris d'un seul homme, Stockton Rush, le PDG d'OceanGate.

L'analyse, menée sous tous les angles imaginables, aboutit à une conclusion sans appel: l'homme à la tête de l'expédition était un patron dangereux, profondément désagréable, et à la tête d'une entreprise dont la culture de la sécurité était, selon les termes du rapport, “gravement défaillante”. Le document décrit une société opérant dans une zone grise délibérément entretenue. Elle aurait eu recours à des “tactiques d'intimidation” pour se soustraire à tout contrôle réglementaire, instaurant un environnement de travail “toxique”.

Le Titan lui-même est qualifié de submersible “non documenté, non immatriculé, non certifié et non classé”. Quant à son concepteur et pilote, Stockton Rush, il aurait complètement ignoré les inspections vitales, les analyses de données et les procédures de maintenance préventive. Le résultat fut l'événement catastrophique que nous connaissons: le 18 juin 2023, la coque a cédé sous une pression de plus de 340 bars, écrasant instantanément ses cinq occupants lors de leur descente vers l'épave du Titanic. Le rapport est formel: si Rush avait survécu, il aurait été poursuivi en justice.

Une anecdote, parmi tant d'autres, illustre parfaitement sa personnalité et l'ambiance à bord de ses engins. Rapellons un segment tristement célèbre de l'émission américaine CBS Sunday Morning en 2022, où le PDG présentait fièrement au journaliste David Pogue la commande de son submersible: une simple manette de jeu Logitech F710. “Nous pilotons tout avec ça”, avait-il lancé. Cette dernière n'était pas une nouveauté. Dès 2016, lors d'une plongée sur l'épave de l'Andrea Doria, un incident révélateur s'était produit. Rush, aux commandes du Cyclops I, le prédécesseur du Titan, avait coincé l'appareil sous la proue de l'épave. Incapable de se libérer, il aurait, selon le rapport, “piqué une crise” et refusé toute aide de son copilote. Lorsqu'un spécialiste de la mission a suggéré de passer les commandes, Rush aurait jeté la manette sur son copilote. Ce dernier, une fois celle-ci en main, a réussi à dégager le sous-marin.

Cette tendance à ignorer les protocoles et les avis de ses experts était une habitude. En 2021, lors d'une plongée vers le Titanic, le Titan a subi plusieurs pannes critiques, notamment un dysfonctionnement des moteurs servant à larguer les poids pour remonter. La procédure exigeait de larguer l'ensemble du système. Stockton Rush s'y est opposé, craignant de ne pas avoir de système de rechange pour les missions futures. Son plan ? Retourner se poser sur le plancher océanique et y rester jusqu'à 24 heures, le temps que les anodes sacrificielles de l’appareil se corrodent et libèrent les poids. Bien que la décision finale incombait au directeur de mission, le pilote a imposé son choix, plaçant l'équipage dans une situation dangereuse à une profondeur extrême d'environ 3800 m. L'incident démontrait déjà un mépris dangereux pour l'autorité et une volonté d'opérer avec un équipement défaillant.

La sécurité était le cadet de ses soucis. La vitesse et la facilité primaient sur tout. Il a licencié ceux qui exprimaient des inquiétudes. Un jour, il a ordonné de n'utiliser que quatre boulons, au lieu des 18 prévus, pour fixer le dôme de titane de 1 600 kg du Titan, simplement parce que “cela prenait moins de temps”. Son directeur de l'ingénierie l'a alerté, en vain. En 2021, lors d'une manœuvre, ces quatre boulons ont tous cédé, et l'imposant dôme s'est écrasé sur la plateforme de lancement. Par miracle, personne ne fut blessé.

Le rapport égrène également une litanie d'incidents, comme cette fois où les commandes des propulseurs ont été involontairement inversées, forçant le pilotage de toute la mission à l'envers. Et encore, cette liste ne représenterait qu'une fraction des problèmes survenus. Derrière cette imprudence se cachait une forte pression financière. Pour économiser de l'argent, OceanGate a stocké le Titan à l'extérieur pendant l'hiver canadien, exposant la coque à des fluctuations de température extrêmes. Cette décision, selon les enquêteurs, a directement compromis son intégrité, la coque étant en fibre de carbone.

C'est d’ailleurs elle qui a fini par céder. L'implosion fut si rapide et si violente que la mort des passagers fut immédiate. Le son de l'explosion a mis deux secondes à remonter à travers la colonne d'eau. À cet instant précis, à la surface, l'équipe de communication à bord du navire de soutien Polar Prince a entendu un “bang” provenant de l'océan. C'était le dernier son émis par le sous-marin. Après cela, le silence fut total. La tragédie du Titan n'est pas une fatalité, mais la conclusion logique d'une entreprise bâtie sur le mépris des règles les plus élémentaires de la physique et de la prudence.

Mastodon Reddit Qwice

Tandis que les géants comme Google avec Veo et OpenAI avec Sora rivalisent d'ingéniosité pour créer des images et des vidéos toujours plus réalistes, ils s'imposent une ligne de conduite commune: ériger des barrières techniques et éthiques pour empêcher la création de contenus problématiques avec l’IA.

C'est une course à l'innovation, oui, mais une course encadrée par un semblant de responsabilité. Et puis, il y a xAI. La société d'Elon Musk vient de lancer son propre outil, Grok Imagine, qui ne se contente pas de suivre la compétition. Il choisit délibérément de prendre le chemin inverse, en faisant de la provocation et du contenu pour adultes, en étant non seulement une possibilité, mais surtout une fonctionnalité mise en avant.

Sur le papier, Grok Imagine se présente comme un générateur d'images et de vidéos IA somme toute classique. Il intègre des capacités de conversion de texte en image, vous permettant de créer des visuels à partir de descriptions, ainsi qu'un outil de transformation d'image en vidéo pour animer des clichés existants. L'outil propose divers styles, du photoréalisme à l'illustration en passant par l'anime, et inclut même un mode vocal pour dicter les prompts. Elon Musk a d'ailleurs souligné que cette dernière fonctionnalité serait quelque chose que « les enfants adoreraient utiliser ». Cependant, c'est ici que la comparaison avec ses concurrents s'arrête brutalement.

Contrairement à ses rivaux, Grok Imagine refuse la génération de vidéo directement à partir d'un texte. Vous devez d'abord fournir une image, qu'elle soit générée par Grok ou importée de votre galerie personnelle. C'est à partir de cette base que la magie, ou plutôt la controverse, opère. Quatre modes d'animation sont proposés: « Personnalisé », « Normal », « Amusant » et, le plus tristement célèbre, « Spicy » (épicé). Loin d'être une simple option cachée, ce dernier est un encouragement direct à générer de la nudité et des contenus sexualisés. Elon Musk, qui rêve depuis longtemps de ressusciter une version de Vine, décrit sa création comme une « IA Vine ». Mais si Vine était le temple de la créativité humoristique en six secondes, l'« IA Vine » du milliardaire semble vouloir devenir celui de la pornographie générée par algorithme.

Les conséquences de cette orientation ne se sont pas fait attendre. Quelques heures à peine après son lancement, la plateforme X a été inondée d'expérimentations issues de Grok Imagine. Les résultats du mode « Spicy » sont sans équivoque: des femmes photoréalistes exhibant leurs seins et leurs parties génitales, ou encore des « waifus » d'anime en bikini dansant de manière suggestive devant des fusées SpaceX. Le message est clair: les garde-fous, s'ils existent, sont au mieux symboliques. Selon Musk, plus de 34 millions d'images avaient déjà été générées en l'espace d'une journée, témoignant d'un engouement massif pour cette liberté sans précédent.

Cette stratégie du chaos contrôlé n'est pas un accident, mais bien le reflet d'une idéologie. En rendant les restrictions de contenu si faciles à contourner, voire en les encourageant activement, xAI ne fait que transposer la philosophie « d'absolutisme de la liberté d'expression » prônée par Elon Musk pour X dans le domaine de la création de contenu. Le problème est que cette liberté, lorsqu'elle est appliquée à des outils aussi puissants, ouvre une véritable boîte de Pandore. La facilité déconcertante avec laquelle on peut générer du contenu hyperréaliste et sexuellement explicite pose des questions éthiques vertigineuses.

Le plus troublant reste cette dissonance cognitive entre les fonctionnalités proposées. Comment peut-on, dans la même phrase, vanter une interface vocale que « les enfants adoreraient » et proposer un mode « Spicy » conçu pour le contenu pour adultes ? Cette juxtaposition est au mieux maladroite, au pire profondément irresponsable. Elle crée un environnement où la frontière entre l'innocent et l'explicite est dangereusement mince, sur une plateforme déjà critiquée pour sa modération laxiste.

Pour l'heure, quelques rares limites semblent exister. Des tests menés par des médias spécialisés ont révélé que l'outil impose certaines restrictions sur la génération de photos de célébrités. Mais la question la plus angoissante demeure: l'outil permettra-t-il de « déshabiller » des photos de personnes réelles et non célèbres téléchargées comme matériel de référence ? Le flou entretenu par xAI sur ce point est assourdissant.

Disponible pour les abonnés Premium Plus et SuperGrok sur iOS, et en déploiement progressif sur Android (pour l'instant sans la fonction vidéo), Grok Imagine n'est pas qu'un simple outil technologique de plus. C'est une déclaration d'intention, un manifeste. En choisissant la provocation plutôt que la précaution, Elon Musk ne se contente pas de défier ses concurrents, il défie les normes éthiques que l'industrie de la tech tente, tant bien que mal, de mettre en place. Il fait le pari risqué d'un Far West numérique où tout est permis, monétisant la controverse au passage. Ce faisant, il normalise la création de contenus qui pourraient être utilisés à des fins malveillantes, du harcèlement à la désinformation, et risque de transformer son « IA Vine » en un vecteur de toxicité à grande échelle. L'innovation est une chose, mais la responsabilité en est une autre, et avec Grok Imagine, xAI semble avoir délibérément choisi de l'ignorer.

Mastodon Reddit Qwice

Dans le secteur technologique, où les vagues d'innovation se succèdent à un rythme effréné, certaines déclarations résonnent plus fort que d'autres. Celle de Thomas Dohmke, PDG de GitHub, est de celles qui provoquent une onde de choc.

Dans un message sans détour adressé à la communauté mondiale des développeurs, il a posé un ultimatum qui a le mérite de la clarté: les ingénieurs logiciels doivent soit adopter l'intelligence artificielle, soit se préparer à quitter la profession. Cette affirmation, aussi directe que brutale, n'est pas une simple provocation, mais la pierre angulaire d'un billet de blog intitulé « Developers, Reinvented » (Les développeurs, réinventés), qui dessine les contours d'une transformation radicale du métier. Il ne s'agit plus seulement de la manière dont nous écrivons le code, mais de l'essence même de ce que signifie être un développeur aujourd'hui.

Pour étayer son propos, il s'appuie sur une série d'entretiens menés avec vingt-deux développeurs qui ont déjà profondément intégré l'IA dans leur quotidien. Leurs témoignages brossent un tableau sans équivoque: l'intelligence artificielle n'est plus une promesse lointaine, mais une nécessité présente. Citant l'un de ces pionniers, Dohmke écrit noir sur blanc: « Soit vous adoptez l'IA, soit vous mettez un terme à votre carrière ». Le message est passé. L'ère de la collaboration homme-machine n'est plus une option, c'est la nouvelle norme.

Cette déclaration s'inscrit dans ce que certains observateurs qualifient de stratégie marketing singulière, voire agressive, de la part des géants de l'IA. Au lieu de se contenter de vanter les mérites de leurs produits et de laisser les utilisateurs juges, certains dirigeants semblent opter pour une tactique de la peur. L'idée est de marteler que l'obsolescence guette quiconque refuserait de prendre le train en marche. Julia Liuson, une autre dirigeante de Microsoft, la société mère de GitHub, a récemment averti ses employés que « l'utilisation de l'IA n'est plus facultative ». La peur de manquer le coche devient ainsi un puissant moteur d'adoption, une méthode qui interroge autant qu'elle persuade.

Pourtant, au-delà de la stratégie commerciale, le changement décrit par le PDG de Github est bien réel. Il raconte comment de nombreux développeurs, sceptiques au début face à des outils comme GitHub Copilot qu'ils considéraient comme de simples gadgets, les voient désormais comme des collaborateurs indispensables. À force d'expérimentations, ces professionnels sont passés du doute à la stratégie. Ils ont appris à déléguer les tâches de codage répétitives à des agents d'IA, leur permettant de concentrer leur énergie et leur expertise sur des aspects à plus haute valeur ajoutée: la conception du contexte, l'ingénierie des prompts et la vérification rigoureuse du code généré.

Ce glissement n'est pas anodin. Les développeurs à l'avant-garde de cette transition rapportent que leur rôle a muté. Ils ne sont plus de simples « pisseurs de code », mais des architectes, des auditeurs de la production de l'IA. Dohmke rapporte qu'ils se décrivent eux-mêmes non plus comme des codeurs, mais comme des « facilitateurs de code » ou même des « directeurs créatifs du code ». L'humain se positionne en amont, pour définir la vision, et en aval, pour garantir la qualité, laissant à la machine la tâche d'exécution à grande vitesse.

Thomas Dohmke insiste sur le fait que cette transformation ne diminue en rien la valeur du développeur, elle la redéfinit. Ceux qui adoptent ces outils tôt ne deviennent pas superflus, ils acquièrent un formidable effet de levier. Le changement de mentalité est majeur. L'objectif n'est plus seulement d'optimiser la vitesse ou l'efficacité sur des tâches existantes, mais d'utiliser l'IA pour repousser les limites de ce qui est possible. Des projets de refactorisation à grande échelle ou la création de fonctionnalités complexes impliquant de multiples agents, autrefois jugés intimidants ou hors de portée, deviennent désormais réalisables.

Cette refonte s'accompagne cependant d'un défi de carrière impitoyable: s'adapter ou risquer de devenir obsolète. Selon les estimations des développeurs cités, l'IA pourrait automatiser jusqu'à 90 % de l'écriture du code d'ici deux à cinq ans seulement. Face à cet horizon vertigineux, les compétences qui feront la différence ne seront plus techniques au sens traditionnel. Les plus précieuses deviendront la conception de systèmes, la maîtrise de l'écosystème IA, la capacité à déléguer efficacement à des agents virtuels et, surtout, l'assurance qualité.

« Le rôle de développeur logiciel est engagé sur la voie d'un changement significatif. Tout le monde ne voudra pas faire cette transition », concède Dohmke. « Gérer des agents pour atteindre des résultats peut sembler peu gratifiant pour beaucoup, bien que nous soutenions que c'est ce que les développeurs ont toujours fait à un niveau d'abstraction inférieur, en gérant leurs ordinateurs via des langages de programmation pour atteindre des objectifs. »

En concluant son billet par un apaisant « et ce n'est pas grave », il semble jeter un rameau d'olivier. Mais il ne faut pas s'y tromper. Le sous-texte est glacial. Ce n'est pas grave que certains refusent le changement, car il y aura toujours d'autres professions pour eux. Le message de GitHub est clair, l'avenir du développement logiciel s'écrira avec l'IA, et ceux qui resteront sur le quai regarderont le train partir sans eux. La question n'est donc plus de savoir si cette révolution aura lieu, mais de décider de quel côté de l'histoire chaque développeur choisit de se tenir.

Mastodon Reddit Qwice