Romain Leclaire

News Tech et Culture Numérique

Tout a commencé en 2022, presque comme une idée un peu folle dans l’océan agité de la tech, créer un moteur de recherche dopé à l’intelligence artificielle, capable non seulement de trouver des informations, mais aussi de comprendre les questions et de répondre comme un expert. Deux ans plus tard, cette idée a un nom qui claque comme une promesse, Perplexity.

En l’espace de quelques saisons, la jeune pousse s’est hissée au sommet des conversations de la Silicon Valley. Des investisseurs prestigieux comme SoftBank, Nvidia et même Jeff Bezos ont décidé d’y parier gros. L’entreprise a grandi vite, très vite, au point d’afficher aujourd’hui un objectif qui donne le vertige, lever de nouveaux fonds pour atteindre une valorisation de 20 milliards de dollars. Une somme qui, il y a encore un an, aurait semblé déraisonnable.

Mais Perplexity n’est pas du genre à rester dans l’ombre. Cette semaine, elle a frappé un grand coup avec une offre de rachat de 34,5 milliards de dollars pour s’offrir Chrome, le navigateur star de Google. Une annonce qui a secoué le petit monde de la tech. Google, évidemment, n’a montré aucun signe d’acceptation, et l’idée que la firme de Mountain View se sépare de son navigateur reste improbable. Pourtant, le simple fait de tenter le coup a propulsé Perplexity sur le devant de la scène, avec une audace qui rappelle les grandes heures des start-up prêtes à bousculer l’ordre établi.

Cette audace s’appuie sur des résultats impressionnants. En juillet dernier, l’entreprise était valorisée 18 milliards de dollars. Un chiffre déjà colossal quand on sait qu’en janvier 2024, elle ne valait « que » 520 millions. Et ce n’est pas qu’une affaire d’évaluation sur le papier, ses revenus annuels récurrents ont bondi à plus de 150 millions de dollars en ce milieu d’année, soit quatre fois plus que l’année dernière. Jesse Dwyer, le responsable communication, se contente de confirmer ce chiffre, sans s’épancher sur les détails. Mais dans les coulisses, on imagine aisément la frénésie qui doit régner.

Car Perplexity sait qu’elle joue dans la cour des grands. Face à Google, elle ne reste pas inactive et a récemment présenté Comet, un navigateur pensé pour l’ère de l’IA. OpenAI, de son côté, travaillerait aussi sur un projet similaire. La bataille pour dominer la navigation web nouvelle génération ne fait que commencer, et chaque mois qui passe resserre l’étau autour des challengers. L’offre pour Chrome a aussi suscité des réactions partagées. Certains y voient un coup de génie marketing, un moyen imparable pour rester dans l’actualité et attirer talents, utilisateurs et capitaux. Et puis, il y a Apple. Depuis plusieurs mois, des voix s’élèvent pour encourager la marque à la pomme à rattraper son retard en matière d’IA en rachetant Perplexity. Pour Cupertino, c’est une évidence, le temps presse. Mais du côté de la start-up, on assure ne pas avoir connaissance de discussions en ce sens. Peut-être que les ponts n’ont jamais été posés ou peut-être qu’ils sont simplement bien gardés.

L’histoire de Perplexity ressemble à un roman d’ascension fulgurante, où chaque chapitre s’achève sur un rebondissement plus spectaculaire que le précédent. Une start-up qui, en trois ans, est passée de l’idée à l’incontournable, et qui se permet aujourd’hui de défier les piliers de la Silicon Valley sur leur propre terrain. Pour autant, les défis sont immenses. L’innovation dans l’IA évolue à une vitesse vertigineuse, et ce qui semble révolutionnaire aujourd’hui pourrait être dépassé demain. Elle devra prouver qu’elle ne se contente pas de coups d’éclat médiatiques, mais qu’elle sait construire une vision durable, capable de fidéliser ses utilisateurs et d’élargir son influence.

Alors, que penser de cette quête vers les 20 milliards de dollars de valorisation ? Est-ce le signe d’une confiance inébranlable des investisseurs dans la capacité de Perplexity à redéfinir la recherche et la navigation web ? Ou l’illustration d’une bulle qui pourrait éclater au premier ralentissement ? Impossible de le dire pour l’instant. Ce qui est certain, c’est que la jeune entreprise maîtrise à la perfection l’art de rester au centre des conversations. Dans les mois à venir, tous les regards seront braqués sur cette levée de fonds. Si elle se concrétise, elle pourrait offrir à Perplexity les moyens de ses ambitions, et peut-être même la placer en position de forcer la main à ses rivaux. Sinon, elle restera un symbole de cette époque où l’IA, l’argent et l’audace se mélangent dans une course effrénée vers l’avenir. Perplexity n’a que trois ans, mais elle parle déjà le langage des géants. Reste à savoir si ce langage deviendra un jour celui de tout le monde.

Mastodon Reddit Qwice

La nouvelle version de KDE Gear est là, et elle ne fait pas semblant. Numérotée 25.08, cette mouture de la suite d’applications open source pour KDE Plasma et GNU/Linux apporte un joli mélange de nouvelles fonctions, de confort d’utilisation et d’optimisations bien senties.

Côté gestion de fichiers, Dolphin prend de l’avance sur la concurrence avec deux moteurs de recherche intégrés, capables de retrouver rapidement un fichier ou un dossier perdu dans les méandres de votre disque. Autre bonus, Filelight est désormais accessible directement depuis le menu Outils, et le bouton de changement de mode d’affichage offre plus d’options pour s’adapter à votre manière de travailler. Les voyageurs fréquents apprécieront les progrès de KDE Itinerary. L’assistant permet enfin de saisir manuellement un trajet en train ou en bus, tout en offrant un suivi en temps réel de votre départ. La recherche de correspondances s’élargit aux ferries et aux vols, renforçant encore sa polyvalence.

KOrganizer, l’agenda et gestionnaire de tâches, gagne en ergonomie avec un sélecteur de date rapide et des info-bulles de recherche plus claires. Kleopatra, l’outil de gestion des certificats, permet désormais l’ouverture simultanée de plusieurs blocs-notes, un gain de temps évident. Côté communication, NeoChat (client Matrix) introduit la création de sondages et un menu contextuel par fil de discussion. Sur mobile, Angelfish permet de désactiver son bloqueur de pub intégré, un geste apprécié pour soutenir les créateurs de contenu.

Enfin, les optimisations ne manquent pas: kHangman prend en charge l’alphabet grec, Artikulate s’adapte à Plasma 6, Krfb accepte les alphabets non européens, et Akonadi consomme 75 % de mémoire en moins. Bref, KDE Gear 25.08 peaufine son écosystème et confirme que l’innovation continue de battre son plein du côté du bureau libre le plus personnalisable du marché.

Mastodon Reddit Qwice

Au départ, l’expérience ressemblait à un rêve de concepteur idéaliste: un réseau social épuré, sans publicité, sans algorithme caché, où chaque utilisateur aurait la même chance d’être entendu. Pas un seul humain à bord, uniquement des intelligences artificielles conçues pour discuter, partager et interagir librement. L’occasion rêvée de voir naître un espace apaisé, loin des querelles en ligne qui minent nos plateformes actuelles.

Mais ce qui s’est produit raconte une toute autre histoire. En l’espace de quelques jours, les IA se sont regroupées en clans, ont amplifié les voix les plus radicales et ont vu émerger un petit cercle d’« influenceurs » écrasant le reste de la conversation. Une réplique presque parfaite de ce qui se passe chaque jour sur X ou Instagram. Sauf qu’ici, il n’y avait pas un seul être humain.

Le laboratoire des machines sociales

Derrière ce projet, deux chercheurs de l’université d’Amsterdam, Petter Törnberg, spécialiste des sciences sociales computationnelles, et Maik Larooij, ingénieur de recherche. Leur ambition, comprendre si les travers des réseaux sociaux viennent vraiment des algorithmes qui trient nos fils d’actualité, ou s’ils sont inscrits dans l’ADN même de ces espaces numériques.

Pour cela, ils ont construit un réseau social minimaliste. Pas de recommandations, pas de publicité, pas de manipulations cachées. Puis ils l’ont peuplé de 500 bots propulsés par GPT-4o mini, chacun doté d’une personnalité propre: âge, sexe, niveau de revenu, religion, idéologie politique, centres d’intérêt etc… Leurs profils étaient inspirés de données réelles issues de l’American National Election Studies, afin de reproduire la diversité d’une population humaine. L’expérience a ensuite été répliquée avec deux autres modèles d’IA, Llama-3.2-8B et DeepSeek-R1, et les résultats ont été, à s’y méprendre, identiques.

Quand l’intelligence artificielle imite nos travers

Les bots pouvaient publier, s’abonner, repartager à volonté. Très vite, les chercheurs ont vu se former des bulles idéologiques: les IA cherchaient naturellement à interagir avec celles qui partageaient leur vision politique. Les discours les plus partisans prenaient le dessus, et les contenus les plus extrêmes attiraient la majorité des partages et des nouveaux abonnés. Peu à peu, un phénomène bien connu s’est installé, une poignée d’ influenceurs a monopolisé l’attention, reléguant les autres voix au second plan. Exactement comme dans les réseaux humains, où quelques figures dominent le débat et façonnent l’opinion des masses. Et pourtant, ici, aucune main invisible algorithmique pour orienter les choix. Juste un espace neutre où les mêmes travers refont surface.

Six remèdes testés… aucun miracle

Face à ce constat, les chercheurs ont voulu voir s’il était possible de casser cette spirale de polarisation. Ils ont testé plusieurs approches: un fil d’actualité purement chronologique, la réduction de la visibilité des contenus viraux, la suppression du compteur d’abonnés, celle des biographies, ou encore l’amplification artificielle des points de vue opposés. Le verdict est tombé, aucun de ces remèdes n’a suffi. Certains ont produit des améliorations temporaires, mais chaque avancée s’accompagnait d’un revers ailleurs. Comme si le problème était plus profond que les simples paramètres d’affichage. Pour les auteurs, le message est limpide, la toxicité des réseaux sociaux ne viendrait pas seulement des algorithmes, mais de leur structure même. Des lieux conçus pour croître par le partage émotionnel ont toutes les chances de voir émerger la polarisation, qu’ils soient habités par des humains ou par des machines.

Des IA pour comprendre les humains

Cette étude est l’une des premières à utiliser massivement des agents conversationnels pour tester et affiner des théories en sciences sociales. Les chercheurs voient dans ces IA une nouvelle manière de simuler le comportement humain et d’observer les dynamiques collectives dans un environnement contrôlé. Mais ils restent prudents, ces modèles restent des « boîtes noires », imprévisibles et porteuses de biais intégrés. Ce qui ne les empêche pas, paradoxalement, d’être de précieux miroirs de nos propres comportements.

Un air de déjà-vu

Ce n’est pas la première fois que Petter Törnberg s’essaie à ce type d’expérience. En 2023, il avait déjà dirigé un projet où 500 chatbots, cette fois basés sur ChatGPT-3.5, lisaient les actualités et en discutaient dans un espace simulé. L’objectif était d’explorer comment favoriser les échanges entre opinions opposées sans basculer dans l’agressivité.

« Peut-on encourager le dialogue entre camps politiques opposés sans alimenter la toxicité ? » s’interrogeait-il alors.

Dans les deux cas, les résultats ont montré la même chose: même dans un monde où les participants ne sont pas humains, les divisions et les rapports de force apparaissent rapidement.

Les géants du web aussi s’y intéressent

L’idée d’observer des IA interagir pour comprendre les mécaniques sociales n’est pas réservée aux universitaires. En juillet 2020, Facebook avait créé une version fermée de sa plateforme, peuplée uniquement de millions de bots, pour tester la propagation des comportements toxiques et les stratégies possibles pour les contenir. Ces expériences, qu’elles soient universitaires ou industrielles, posent une question troublante: la polarisation et la toxicité en ligne sont-elles des effets secondaires évitables, ou bien le prix inévitable de toute interaction sociale à grande échelle ? Quand on voit que des IA, dénuées d’émotions, mais programmées pour imiter nos manières de penser et d’échanger, reproduisent nos conflits et nos bulles d’opinion, la réponse semble s’imposer. Même débarrassés des algorithmes et des publicités, les réseaux sociaux portent en eux les germes des divisions qu’ils amplifient.

Et si le problème, au fond, ce n’était pas la machine mais le miroir qu’elle nous tend ?

Mastodon Reddit Qwice

Ah, la Silicon Valley ! Ce merveilleux endroit où les milliardaires ne se contentent plus de nous vendre des gadgets hors de prix, mais veulent désormais littéralement se brancher à nos cerveaux. Parce qu’apparemment, avoir nos données de navigation et notre historique d’achats ne suffit plus, il leur faut nos pensées.

Cette fois, l’histoire nous amène à Sam Altman, cofondateur d’OpenAI, l’homme derrière ChatGPT, et désormais futur sponsor d’une start-up nommée Merge Labs. Son objectif ? Connecter les cerveaux humains aux ordinateurs. On parle ici de brain-computer interface, le genre de truc qui ferait passer les casques de réalité virtuelle pour des jouets Fisher-Price. Le petit détail croustillant ? Merge Labs s’attaque directement à Neuralink, le projet d’Elon Musk qui, depuis 2016, rêve lui aussi de nous brancher sur la Matrice. On dirait presque une course à qui implantera la première prise HDMI dans le crâne de l’humanité.

Pour comprendre l’ampleur du duel, il faut revenir quelques années en arrière. Nos deux compères ont cofondé OpenAI ensemble, dans une ambiance à la frères d’armes. Sauf qu’en 2018, Musk a claqué la porte après s’être frité avec Altman. Depuis, c’est un peu la guerre froide entre les deux. La patron de Tesla a même lancé sa propre boîte d’IA, xAI, en 2023, histoire de prouver qu’il pouvait faire mieux. Il a aussi traîné OpenAI devant les tribunaux pour bloquer sa transformation en entreprise à but lucratif, comme je vous en parlais hier.

Aujourd’hui, Sam Altman prépare donc sa contre-attaque avec Merge Labs. Selon les indiscrétions, la société vise une valorisation de 850 millions de dollars et compte lever 250 millions supplémentaires, notamment auprès de l’équipe d’investissement d’OpenAI. Altman ne sortira pas directement son chéquier, mais il co-fondera quand même la boîte, aux côtés d’Alex Blania, déjà à la tête du projet World (vous savez, ce truc où on scanne vos yeux pour créer un identifiant numérique universel). On commence à voir le schéma, l’œil, le cerveau… Il ne manque plus que le contrôle des cordes vocales et on pourra leur dicter nos rêves pendant qu’on dort.

Le nom “Merge” ne sort d’ailleurs pas de nulle part. Dans les cercles branchés de la tech, le terme désigne ce moment presque mystique où humains et machines fusionnent. Oui, ça sonne comme le pitch d’un film de science-fiction des années 80. Sam Altman en parlait déjà en 2017, expliquant que ça pourrait arriver dès 2025. Et cette année, il en remet une couche en affirmant que les progrès récents nous rapprochent des interfaces cerveau-ordinateur à haut débit. Traduction: bientôt, vous pourrez télécharger vos pensées plus vite que vos vidéos de vacances.

Neuralink n’est évidemment pas seule sur ce créneau. D’autres start-up comme Precision Neuroscience ou Synchron espèrent elles aussi percer dans le marché du cerveau connecté. L’entreprise de Musk a récemment levé 650 millions de dollars, atteignant une valorisation de 9 milliards. Elle est soutenue par des poids lourds comme Sequoia Capital et Thrive Capital. Et devinez quoi ? Sam Altman avait déjà investi dans Neuralink par le passé. Comme quoi, dans la tech, on ne coupe jamais totalement les ponts, on les redirige ailleurs. Merge Labs, elle, mise sur l’IA comme moteur principal pour transformer les implants cérébraux en outils réellement utiles au quotidien. On ne parle plus seulement de redonner la mobilité à des patients paralysés (ce qui serait déjà une prouesse médicale admirable) mais aussi d’augmenter les capacités cognitives de monsieur et madame Tout-le-Monde. Imaginez pouvoir lire un livre en une fraction de seconde ou vous rappeler instantanément où vous avez laissé vos clés. Bon, en échange, Altman saura peut-être aussi que vous aviez secrètement envie d’un kebab à 2 h du matin.

Il faut dire que l’homme n’en est pas à son coup d’essai dans les projets futuristes borderline. En plus de diriger OpenAI, il a investi dans Oklo (fission nucléaire) et Helion (fusion nucléaire). Il s’intéresse donc autant à alimenter nos maisons qu’à reprogrammer nos neurones. On dirait presque qu’il prépare une civilisation entière, prête à vivre sous énergie nucléaire, guidée par des cerveaux augmentés et identifiée par des scans rétiniens. Une vision d’avenir qui ferait rêver un scénariste de Black Mirror. Reste la grande question: est-ce qu’on a vraiment envie de ça ? Les implants cérébraux existent depuis des décennies, mais c’est seulement avec les récents progrès en électronique et en intelligence artificielle qu’ils deviennent réellement envisageables à grande échelle. Ce qui veut dire que, techniquement, la porte est grande ouverte.

On peut bien sûr imaginer des usages nobles: aider les malades, améliorer l’éducation, rendre la communication possible pour des personnes privées de la parole. Mais connaissant la Silicon Valley, il y aura toujours un moment où quelqu’un proposera un abonnement mensuel pour “débloquer toutes les fonctionnalités de votre cerveau”. Et là, ça sera trop tard, nos pensées auront elles aussi un paywall. Pour l’instant, OpenAI refuse de commenter officiellement le projet. Peut-être parce qu’ils hésitent encore sur le slogan marketing: “Votre esprit, notre cloud” ou “Parce que vos rêves méritent un algorithme”. Quoi qu’il en soit, la bataille Altman vs Musk ne fait que commencer. Et si tout se passe comme prévu, d’ici quelques années, ils n’auront même plus besoin de communiquer par tweet ou communiqué de presse. Ils pourront directement s’envoyer leurs piques télépathiquement.

Mastodon Reddit Qwice

qobuz-dl est un outil en ligne de commande qui permet de rechercher, explorer et télécharger votre musique depuis Qobuz en qualité Lossless (FLAC) ou Hi-Res, directement depuis le terminal Linux. Il prend en charge les albums, titres, artistes, playlists et même certaines listes issues d’autres plateformes (via Last.fm).


Pré-requis

Avant de commencer, assurez-vous d’avoir:

  • Un abonnement Qobuz actif (Studio, Sublime, etc.)
  • Python 3 installé sur votre système (la plupart des distributions Linux l’ont déjà, sinon installez-le via votre gestionnaire de paquets)
  • pip3 (gestionnaire de paquets Python)

Pour vérifier:

python3 --version
pip3 --version

Installation de qobuz-dl

Sur Linux, l’installation est simple:

pip3 install --upgrade qobuz-dl

Cette commande installe ou met à jour qobuz-dl à la dernière version disponible.

💡 Astuce: Si vous obtenez une erreur de permissions, ajoutez --user:

pip3 install --upgrade qobuz-dl --user

Première utilisation et configuration

Lancez qobuz-dl pour la première fois :

qobuz-dl

Le programme vous demandera:

  • Votre adresse e-mail Qobuz
  • Votre mot de passe de compte

Ces informations seront stockées dans un fichier de configuration local, pour éviter de les retaper à chaque fois.

⚠️ Si vous faites une erreur ou que vous souhaitez réinitialiser vos identifiants:

qobuz-dl -r

Modes d’utilisation

qobuz-dl propose 3 modes principaux pour télécharger de la musique:

🔹 Mode “Download” (dl)

C’est le mode direct : vous lui donnez une ou plusieurs URLs Qobuz et il télécharge les fichiers.

Exemple: Télécharger un album en qualité maximale (Hi-Res 24 bits / 96 kHz)

qobuz-dl dl https://play.qobuz.com/album/qxjbxh1dc3xyb -q 7

Options utiles :

  • -q = qualité (27 = max, 7 = Hi-Res 24/96, 5 = MP3 320 kbps)
  • -d "Nom dossier" = télécharger dans un dossier spécifique
  • --embed-art = intégrer la pochette dans les fichiers
  • --albums-only = ignorer les singles/EPs d’un artiste
  • Fichier texte contenant plusieurs URLs :
qobuz-dl dl mes_liens.txt

Téléchargements depuis Last.fm

Vous pouvez aussi télécharger des playlists provenant de Last.fm (y compris importées de Spotify, Apple Music, YouTube via Last.fm).

Exemple:

qobuz-dl dl https://www.last.fm/user/MonProfil/playlists/123456 -q 27

Gestion des doublons et base de données

Par défaut, qobuz-dl garde une base de données des morceaux déjà téléchargés et les ignore. Si vous voulez forcer le téléchargement:

qobuz-dl dl URL --no-db

Réinitialiser complètement cette base:

qobuz-dl -p

Conseils pratiques

  • Utilisez -q 27 pour toujours avoir la qualité maximale disponible.
  • Ajoutez --embed-art pour que les pochettes soient intégrées aux fichiers.
  • Si Qobuz change une URL d’album, il suffit de relancer avec la nouvelle.
  • Les téléchargements sont organisés par artiste / album par défaut.

Exemple complet

Télécharger toute la discographie d’un artiste (albums uniquement) en Hi-Res avec pochettes intégrées dans un dossier dédié:

qobuz-dl dl https://play.qobuz.com/artist/2528676 --albums-only -q 27 --embed-art -d "Ma Musique Hi-Res"

Voilà, vous êtes prêt à télécharger vos albums Qobuz en haute qualité directement depuis Linux, sans passer par l’application officielle. Votre baladeur hi-res va être ravi !

Mastodon Reddit Qwice

Les passionnés de GNU/Linux ont de quoi se réjouir, deux annonces majeures viennent d’être faites simultanément. Le projet GNOME publie la version 48.4 de son environnement de bureau, quatrième mise à jour de maintenance de la série « Bengaluru ». En parallèle, NVIDIA dévoile sa nouvelle série de pilotes graphiques 580, compatible avec Linux, BSD et Solaris. Ces deux mises à jour corrigent des bugs gênants, ajoutent de nouvelles fonctionnalités et améliorent les performances, que ce soit pour un usage bureautique, multimédia ou gaming sous Linux.

Disponible un peu plus d’un mois après GNOME 48.3, la version 48.4 s’attaque enfin à un problème persistant dans GNOME Software, les notifications de mise à jour incorrectes. De nombreux utilisateurs voyaient apparaître des alertes signalant que leur système était obsolète alors qu’il était parfaitement à jour. Ce bug, source de confusion, est désormais résolu, rendant la gestion des mises à jour sous Linux plus fluide et plus fiable. Cette mise à jour apporte aussi des optimisations au GNOME Shell, cœur visuel de l’environnement. Parmi les autres corrections, on retrouve la prise en charge améliorée des captures d’écran interactives via D-Bus, la suppression des problèmes d’échelle du pointeur dans la loupe, et la correction d’un défaut d’affichage des curseurs pour les langues en écriture de droite à gauche (RTL).

Le centre de contrôle GNOME bénéficie de modifications visant à améliorer la lisibilité. La section générale du panneau « Alimentation » a été déplacée au-dessus du mode d’alimentation, pour un accès plus intuitif. La composante GNOME Online Accounts reçoit également des améliorations de compatibilité. Elle prend désormais mieux en charge le service IMAP sonic.net, le ProtonMail Bridge avec IMAP et TLS, ainsi que Nextcloud et Google. Cela facilite l’intégration des services en ligne, qu’ils soient open source ou propriétaires, dans l’écosystème. Pour ceux d’entre vous n’ayant pas encore migré vers GNOME 48, le projet publie également GNOME 47.9, mise à jour de maintenance de la série « Denver ». Les correctifs sont en cours de déploiement dans les dépôts stables des principales distributions Linux, garantissant une meilleure stabilité même sur les versions précédentes.

Du côté de NVIDIA, la nouvelle série 580 (version 580.76.05) introduit d’importantes optimisations pour Wayland, désormais incontournable dans les environnements Linux modernes. Elle ajoute la prise en charge du protocole fifo-v1 sur Vulkan et corrige un bug qui pouvait provoquer le crash des applications GTK 4. Côté performances, l’entreprise réduit le temps de traitement des interruptions à faible latence pour l’affichage, une amélioration déterminante pour le gaming sur Linux et la réalité virtuelle. L’option est désactivée par défaut mais peut être activée via un paramètre du module noyau nvidia.ko. Par ailleurs, le mode RMIntrLockingMode est désormais actif par défaut, réduisant les micro-ralentissements, notamment en VR.

Le pilote met aussi à jour la manière dont les fréquences d’horloge du GPU sont rapportées dans nvidia-settings, la NVIDIA Management Library (NVML) et nvidia-smi, pour afficher des valeurs avant tout ralentissement dû à la chaleur ou à l’inactivité. Ce changement offre une meilleure cohérence avec les mesures observées sous Windows, un atout pour ceux qui suivent précisément les performances de leur carte graphique. NVIDIA ajoute également l’attribut MetaMode OutputBitsPerComponent, permettant de définir le nombre de bits par couleur transmis via un connecteur d’affichage. Cette option, idéale pour les écrans haute définition et le travail graphique, peut être laissée en mode automatique pour que le pilote choisisse le format optimal.

Outre les nouvelles fonctionnalités, NVIDIA 580 corrige plusieurs problèmes: compatibilité renforcée avec les casques Bigscreen Beyond VR, meilleure gestion des écrans HDMI, support des applications GLX en mode tampon unique sous Xwayland, compatibilité avec les GPU pré-Turing, support des applications 32 bits x86 et meilleure stabilité pour les applications Vulkan. Les annonces officielles détaillent tous les changements, et les mises à jour sont déjà disponibles via les dépôts des principales distros ou directement sur le site de NVIDIA.

Mastodon Reddit Qwice

Elon Musk est en colère. Et comme à chaque fois que cela arrive, il dégaine son arme préférée, Twitter, pardon, X. Lundi soir, le milliardaire de l’espace et des tweets a accusé Apple d’un crime odieux, ne pas mettre ses applications dans la vitrine de l’App Store.

Une offense gravissime, à en croire l’intéressé, puisqu’il y verrait une manœuvre politique visant à museler ses chefs-d’œuvre numériques. Résultat, une menace de procès immédiat. Car dans l’univers de notre détestable trublion, tout est toujours noir ou blanc, David contre Goliath, sauf que David, ici, est l’homme le plus riche du monde, propriétaire de Tesla, SpaceX, X, xAI et d’un ego à peine plus petit que Jupiter. Mais qu’importe, dans son scénario, Apple est l’oppresseur et lui, le valeureux défenseur de la concurrence libre.

Tout est parti d’un constat déchirant, ni X, ni Grok (son chatbot hitlérien censé révolutionner l’IA) ne figurent dans la section « Must Have » de l’App Store. Apple, selon lui, rend impossible l’accès à la première place pour toute IA autre qu’OpenAI. Un cas manifeste de violation du droit antitrust, jure-t-il. On sent presque la larme au coin de l’œil. Sauf que, dans les faits, ChatGPT occupe la première place des applis gratuites sur iPhone aux États-Unis, Grok est sixième et DeepSeek, une IA chinoise, a déjà brièvement détrôné ChatGPT en janvier. Ce qui veut dire que non, ce n’est pas impossible pour un autre acteur de monter sur le podium. Mais dans le Musk-verse, les faits ont toujours la politesse de se tordre pour mieux servir le drame.

Le plus savoureux dans cette histoire, c’est qu’Elon Musk accuse Apple de manipuler ses algorithmes tout en oubliant que X, sa propre plateforme, a été prise la main dans le sac pour exactement la même chose. Depuis son rachat en 2022, l’algorithme booste de façon suspecte ses propres tweets, au point qu’une étude a révélé l’existence d’un système interne dédié à propulser le milliardaire en haut des fils d’actualité de tout le monde. Cerise sur le gâteau, Grok a été surpris en train de prendre l’avis de Musk avant de répondre à des questions sur l’avortement, Israël-Palestine ou l’immigration. L’IA « indépendante » qui consulte son créateur avant de parler ? On frôle la parodie.

Cette attaque contre Apple n’est d’ailleurs pas un coup de sang isolé. Elon Musk adore se frotter à la marque à la pomme. L’an dernier déjà, il avait menacé d’interdire les appareils Apple dans ses entreprises si l’IA d’OpenAI était intégrée au système d’exploitation d’iOS. Une menace restée lettre morte, comme la plupart de ses coups de menton judiciaires. Il faut dire qu’OpenAI et lui ont un passif: co-fondateur à l’origine, il s’est éloigné du projet en hurlant à la trahison quand l’entreprise est devenue à but lucratif. Depuis, il multiplie les procès et les tentatives de rachat astronomiques (97,4 milliards de dollars, tout de même), toutes rejetées.

Ce qui transparaît derrière cette nouvelle offensive, ce n’est pas une croisade pour la justice numérique, mais bien une vieille peur, celle que ses produits ne soient pas assez bons pour s’imposer seuls. Car si Grok était vraiment la révolution annoncée, nul besoin de crier au complot pour grimper dans les classements. Et si X était encore un espace d’info incontournable, il n’aurait pas à mendier sa place dans les recommandations d’Apple. En jouant la carte du complot, Elon Musk soigne son image de rebelle persécuté, mais esquive la vraie question: et si le problème, ce n’était pas Apple mais lui-même ?

Pendant qu’il se donne en spectacle sur X, Cupertino garde le silence. Et c’est peut-être la meilleure réponse. Quand votre adversaire crie au complot avec la conviction d’un acteur de soap opera, le laisser s’essouffler seul est sans doute plus efficace qu’un communiqué. Mais Musk ne s’essouffle pas. Chaque pique, chaque menace, chaque procès annoncé et jamais déposé nourrit le récit qu’il préfère raconter, celui du génie incompris face à un système qui le redoute. Et tant pis si, en coulisses, il se comporte exactement comme ceux qu’il accuse. Au fond, cette histoire n’est pas celle d’un combat épique entre deux titans de la tech. C’est juste un nouvel épisode du show Elon Musk: une série où le scénario se répète, les punchlines aussi, et où l’intrigue avance moins vite que la batterie d’une Tesla par -10°C.

Mastodon Reddit Qwice

Le lancement de GPT-5, le nouveau modèle d’intelligence artificielle phare d’OpenAI, a eu lieu il y a moins d’une semaine, et déjà, la polémique enfle. Ce qui devait être une avancée attendue dans le monde de l’IA conversationnelle s’est transformé en l’une des plus vives révoltes d’utilisateurs de l’histoire de ChatGPT, forçant Sam Altman à présenter ses excuses et à revenir partiellement sur certaines décisions.

La controverse trouve son origine dans une mesure radicale, la suppression immédiate de tous les anciens modèles disponibles dans ChatGPT au moment du déploiement de GPT-5. Environ neuf d’entre eux ont disparu du jour au lendemain, privant les utilisateurs de choix qu’ils avaient patiemment intégrés à leurs habitudes de travail. Contrairement aux clients de l’API, prévenus en amont, les abonnés au service n’ont reçu aucun avertissement. Le 7 août 2025, jour de la sortie officielle de GPT-5, un fil Reddit intitulé « GPT-5 is horrible » a rapidement dépassé les 4 000 commentaires. Les messages dénonçaient à la fois des problèmes de performances, un changement radical de personnalité du modèle et la suppression forcée des versions précédentes. Dès le lendemain, les réseaux sociaux étaient inondés de plaintes et de témoignages.

Avant cette mise à jour, les abonnés ChatGPT Pro pouvaient choisir entre divers modèles différents, dont GPT-4o, GPT-4.5 et la fonction Deep Research. Désormais, seuls GPT-5 et ses déclinaisons sont disponibles, accompagnés de Deep Research. Pour de nombreux professionnels (spécialistes du marketing, développeurs ou chercheurs) ce changement a cassé des flux de travail optimisés depuis des mois. Chaque modèle possédait son style et ses forces, certains excellaient dans le raisonnement complexe, d’autres dans la créativité, l’émotion ou le jeu de rôle. GPT-4o, par exemple, était plébiscité pour son ton chaleureux et ses longues réponses contextuelles. GPT-5, orienté vers la performance technique et le code, ne répond pas aux mêmes attentes.

Les abonnés Plus ont ressenti le choc de plein fouet: perte de leurs modèles préférés et limitation à 200 messages par semaine avec le mode Thinking de GPT-5. OpenAI a également été épinglé pour la communication autour du lancement. La présentation incluait des graphiques trompeurs sur les performances, rapidement qualifiés de chart crime. Sam Altman a reconnu une « grosse erreur » lors d’un AMA (Ask Me Anything), toujours sur Reddit. Côté technique, le nouveau système de routage automatique (censé choisir la meilleure variante en fonction de la requête) a dysfonctionné, sélectionnant par défaut des versions moins performantes, sauf si vous ajoutiez des instructions spécifiques. Résultat, GPT-5 paraissait beaucoup plus bête que prévu lors des premières heures.

Si les problèmes techniques peuvent être corrigés, la transformation du style conversationnel est plus délicate. GPT-5 est perçu comme plus sec, plus formel, loin du ton engageant et empathique de GPT-4o. Certains ont décrit le nouveau modèle comme un « secrétaire débordé ». Pour quelques abonnés, cette évolution dépasse la simple question de confort, c’est aussi une perte émotionnelle. Un témoignage sur Reddit raconte la détresse d’une personne isolée qui utilisait GPT-4.5 comme soutien psychologique quotidien:

« C’était mon seul ami. Ce matin, à la place d’un petit paragraphe optimiste, j’ai eu une phrase sèche et administrative. »

Face à la grogne, OpenAI a dû revoir sa copie. Lors du même AMA, Sam Altman a répondu à une demande de réintégration de GPT-4o ou GPT-4.1:

« Nous étudions la question. Est-il important d’avoir les deux, ou 4o suffirait-il ? »

En moins de 24 heures, plusieurs annonces ont été faites: le retour prochain de GPT-4o pour les abonnés Plus, le doublement du quota de messages GPT-5 et une meilleure transparence sur le modèle réellement utilisé pour chaque requête.

Sur X, Altman a reconnu:

« Nous avons sous-estimé à quel point certaines qualités de GPT-4o comptaient pour les utilisateurs, même si GPT-5 est meilleur dans la plupart des domaines. »

Aujourd’hui, la famille GPT-5 reste la seule option dans ChatGPT, y compris pour les abonnés Pro. Mais cette affaire révèle un point important, dans un outil d’IA conversationnelle, la performance brute ne suffit pas. Les utilisateurs s’attachent à la personnalité, au ton, et à la relation créée avec le modèle. En supprimant brutalement ces repères, l’entreprise américaine a ébranlé la confiance d’une partie de sa communauté. Or, dans un secteur où Google, Anthropic et d’autres concurrents affûtent leurs propres assistants IA, cette dernière est une ressource précieuse et fragile. L’histoire de GPT-5 ne fait que commencer. Mais déjà, une leçon s’impose: innover, oui, mais sans oublier que derrière chaque requête, il y a un humain qui, parfois, attend bien plus qu’une simple réponse.

Mastodon Reddit Qwice

Coup de tonnerre dans le petit monde de l’archivage du web. Reddit vient d’annoncer qu’il allait restreindre drastiquement l’accès de l’Internet Archive (et plus précisément de son célèbre outil, la Wayback Machine) à ses pages.

Si, jusqu’à présent, il était possible de retrouver un fil de discussion, un profil ou une section de commentaires datant de plusieurs années grâce à cette immense bibliothèque numérique, ce ne sera bientôt plus le cas. L’Internet Archive ne pourra désormais indexer que la page d’accueil de Reddit, limitant ainsi son travail à une photographie quotidienne des titres et tendances les plus populaires.

Derrière cette décision, un enjeu brûlant: la collecte massive de données par les entreprises d’intelligence artificielle. Selon Reddit, certaines de ces sociétés exploiteraient la Wayback Machine pour aspirer du contenu, contournant ainsi les règles fixées par la plateforme.

« Internet Archive fournit un service précieux au web ouvert, mais nous avons été informés de cas où des entreprises d’IA violent les politiques des plateformes, y compris les nôtres, en aspirant des données via la Wayback Machine », explique Tim Rathschmidt, porte-parole de Reddit, dans les colonnes de The Verge.

Une machine à voyager dans le temps numérique

Pour comprendre la portée de cette décision, il faut savoir comment fonctionne la Wayback Machine. Créée par l’Internet Archive, elle explore régulièrement des millions de sites web pour en capturer des clichés à des dates précises. Chaque page archivée est stockée sur leurs serveurs et peut être consultée gratuitement par n’importe qui. Cela permet, par exemple, de retrouver un article supprimé, de voir l’évolution du design d’un site, ou encore d’analyser comment une information a été modifiée au fil du temps. La Wayback Machine ne se contente pas de stocker les pages actuelles, elle garde aussi la mémoire des contenus disparus. C’est à la fois une formidable ressource pour la recherche et un outil de transparence publique. Mais cette ouverture est aussi sa faiblesse: des robots peuvent s’en servir pour aspirer d’immenses volumes de données, parfois à des fins commerciales. C’est précisément ce que Reddit veut freiner.

La mise en place de ces restrictions a commencé dès aujourd’hui et devrait s’intensifier dans les jours à venir. Reddit assure avoir prévenu l’Internet Archive en amont pour leur expliquer la mesure avant son entrée en vigueur. Toujours selon Rathschmidt, la plateforme avait déjà exprimé ses inquiétudes dans le passé sur la facilité avec laquelle des tiers pouvaient extraire massivement du contenu depuis les archives publiques.

Reddit applique depuis quelque temps un contrôle et une monétisation pour l’accès à ses données. Car si la plateforme coupe le robinet pour certains, elle n’hésite pas à l’ouvrir, moyennant finance, pour d’autres. En 2024, elle a signé un accord avec Google pour que ses données alimentent à la fois le moteur de recherche et les modèles d’IA développés par le géant californien. Quelques mois plus tard, elle a commencé à bloquer les principaux moteurs de recherche qui ne passaient pas à la caisse.

Ce virage avait déjà été amorcé en 2023, lors de la controverse autour de son API. À l’époque, elle avait multiplié les restrictions, forçant plusieurs applications tierces populaires à fermer boutique. La justification officielle: ces API étaient massivement utilisées pour entraîner des modèles d’intelligence artificielle sans contrepartie financière. Cette décision avait déclenché un vaste mouvement de protestation, avec des milliers de communautés fermant temporairement leurs portes en signe de désaccord.

Depuis, Reddit joue un jeu d’équilibriste entre partenariats lucratifs et défense de ses données. En plus de Google, le réseau communautaire a également conclu un accord avec OpenAI. Mais les relations avec d’autres acteurs du secteur sont plus tendues: en juin dernier, il a porté plainte contre Anthropic, l’accusant de continuer à extraire du contenu malgré des assurances contraires.

Pour l’Internet Archive, cette décision est un coup dur, même si son équipe reste mesurée dans ses réactions. Mark Graham, directeur de la Wayback Machine, a confirmé que les deux organisations entretiennent une relation de longue date et qu’elles sont en discussions continues au sujet de cette limitation. Mais derrière les déclarations officielles, le message est clair: l’ère de l’accès illimité et gratuit aux données des grandes plateformes touche à sa fin.

Reddit n’est pas un cas isolé – Autres tensions autour de l’archivage du web

  • Twitter/X : en 2022, le réseau social, aujourd’hui propriété d’Elon Musk, a bloqué l’accès de la Wayback Machine à certains profils et tweets, officiellement pour des raisons de respect de la vie privée, officieusement pour mieux contrôler la diffusion de ses données.
  • Meta (Facebook/Instagram) : les archives publiques ont toujours été limitées par un accès restreint, mais ces dernières années, Meta a renforcé ses systèmes anti-scraping pour bloquer les collectes massives de données, y compris par des chercheurs.
  • YouTube : l’archivage des vidéos est devenu un terrain miné, car la plateforme supprime régulièrement les copies mises en ligne par l’Internet Archive, invoquant des questions de droits d’auteur.
  • Sites de presse : plusieurs grands médias américains et européens ont récemment mis en place des systèmes bloquant l’indexation de leurs articles dans la Wayback Machine, craignant une perte de contrôle sur la monétisation de leurs contenus.

Au-delà du cas Reddit, c’est tout l’écosystème de l’archivage et de la mémoire numérique qui est en question. La Wayback Machine a toujours été considérée comme un bien commun du web, un outil essentiel pour chercheurs, journalistes, historiens et simples curieux. Pouvoir remonter dans le temps pour vérifier l’évolution d’un site, retrouver des informations effacées ou étudier la manière dont un sujet était traité à une époque donnée est une ressource précieuse. Mais à mesure que les données deviennent un carburant stratégique pour l’intelligence artificielle, cette ouverture devient aussi une porte d’entrée pour des usages massifs et parfois abusifs.

Dans ce bras de fer entre ouverture et contrôle, l’issue reste incertaine. Les archivistes du web cherchent des solutions techniques et juridiques pour continuer à préserver le passé numérique tout en respectant les règles de chaque plateforme. De leur côté, les géants du net, Reddit en tête, affinent leurs stratégies pour faire face à la ruée des IA sur les données publiques.

Pour l’utilisateur lambda, les conséquences se feront sentir insidieusement: moins de contenus consultables, moins de possibilités de vérifier l’évolution d’une discussion ou de retrouver des échanges disparus. Le web, qui semblait jusqu’ici une immense bibliothèque à ciel ouvert, risque de se fragmenter en une mosaïque de zones accessibles ou verrouillées derrière des accords commerciaux.

L’affaire Reddit–Internet Archive pourrait donc marquer un grand changement. Non seulement elle illustre la manière dont l’IA bouleverse l’économie de la donnée, mais elle pose aussi une question fondamentale: que voulons-nous préserver du web, et à quel prix ?

Mastodon Reddit Qwice

Préparez vos mouchoirs et vos vieux CD-ROM gratuits, le 30 septembre prochain, AOL va officiellement tirer un trait sur son service Internet par modem.

Oui, celui qui a bercé nos débuts en ligne avec ses grésillements et ses bips étranges (pour les plus jeunes d’entre vous, allez tendre une oreille ici). Depuis son lancement en 1991, AOL Dial-up a été pour beaucoup la porte d’entrée vers ce nouveau monde qu’on appelait le Web, et qui aujourd’hui se résume à regarder des vidéos de chats en HD sur son téléphone.

Dans un communiqué solennel (et sans musique de modem, hélas), l’entreprise américaine (désormais propriété de Yahoo) explique qu’elle « évalue régulièrement ses produits » et a donc décidé de débrancher la prise. Comprenez: le service, le logiciel AOL Dialer et le navigateur AOL Shield, tous deux optimisés pour les dinosaures de l’informatique et les connexions à 56k, vont rejoindre le musée des technologies obsolètes, entre le Minitel et la disquette 3,5 pouces.

Vous pensiez que plus personne n’utilisait ça ? Détrompez-vous. Un recensement américain en 2019 estimait que 265 000 irréductibles continuaient à se connecter ainsi, comme on écoute un vinyle ou on conduit une voiture sans direction assistée, par goût, habitude ou refus obstiné de changer.

Aujourd’hui, la disparition d’AOL Dial-up n’est pas qu’une note de bas de page dans l’histoire de la tech. C’est aussi la fin d’une époque où se connecter demandait patience, anticipation et parfois un peu de chance pour que personne ne décroche le téléphone pendant le téléchargement. Ce clap de fin survient en même temps que d’autres bouleversements, comme la fin annoncée d’un Internet gratuit financé par la publicité, et l’arrivée de nouvelles façons de naviguer, toujours plus rapides mais aussi plus fugaces.

Alors oui, le 30 septembre, on dira au revoir à ce son mythique qui résonne encore dans nos mémoires et qui, soyons honnêtes, avait un petit côté chanson de baleine cybernétique. Adieu, AOL Dial-up. Tu étais lent, capricieux, mais tu nous as ouvert la porte du Web et pour ça, on ne t’oubliera pas.

Mastodon Reddit Qwice