ROMAIN LECLAIRE

News Tech et Culture Numérique

Au cœur du sud de la Chine, à 700 mètres sous terre, une mission scientifique d'une ambition folle vient de démarrer. Son nom, JUNO (Jiangmen Underground Neutrino Observatory). Son instrument, une sphère titanesque de 35 mètres de diamètre. Sa cible, le neutrino, la particule la plus insaisissable de l'univers. Plongeons au cœur de cette expérience qui pourrait changer notre vision du cosmos.

Avant de comprendre la mission de JUNO, il est essentiel de savoir ce qu'est un neutrino. Souvent surnommées “particules fantômes”, les neutrinos sont des particules fondamentales qui possèdent des propriétés uniques. Ils sont extrêmement légers et possèdent une masse, mais elle est infime. Leur charge est neutre, ils n'ont donc pas de charge électrique, ce qui leur permet de ne pas être affectés par les champs électromagnétiques. Ils interagissent très peu avec la matière, au point que des milliards d'entre eux traversent notre corps et la Terre entière chaque seconde sans laisser la moindre trace. Cette nature fuyante rend leur détection incroyablement complexe et nécessite des détecteurs gigantesques comme JUNO pour espérer en capturer quelques-uns.

Le mystère de l'oscillation et de la masse des neutrinos

La physique des particules a été bouleversée lorsque les scientifiques Takaaki Kajita et Arthur Bruce McDonald ont prouvé que les neutrinos pouvaient osciller. Cela signifie qu'ils peuvent se transformer spontanément entre trois types, ou “saveurs”. L’électronique, la muonique et la tauique. Cette découverte, récompensée par le prix Nobel de physique en 2015, a prouvé deux choses fondamentales. Les neutrinos ont une masse et celle-ci est différente pour chaque saveur. Mais une question primordiale demeure: dans quel ordre ? C'est ce que l'on appelle la hiérarchie des masses des neutrinos et c'est le principal mystère que JUNO a pour mission de résoudre.

China's giant underground neutrino lab prepares to probe cosmic mysteries

L'observatoire JUNO – Un piège à neutrinos révolutionnaire

Pour attraper ces fantômes, JUNO est un véritable chef-d'œuvre d'ingénierie. Voici comment il fonctionne:

  1. Le Scintillateur Liquide: La sphère de 35 mètres est remplie de 20 000 tonnes d'un liquide spécial. Lorsqu'un rare neutrino (ou plus précisément un antineutrino provenant de centrales nucléaires voisines) frappe une particule dans ce liquide, il produit un flash de lumière minuscule.

  2. Les Capteurs de Lumière: Des milliers de capteurs ultra-sensibles, appelés tubes photomultiplicateurs, tapissent la paroi interne de la sphère. Ils sont capables de détecter même un photon unique de lumière.

  3. La Conversion du Signal: Ce flash lumineux est instantanément converti en un signal électrique, qui est ensuite analysé par les scientifiques.

Grâce à sa taille et à sa précision sans précédent, JUNO peut non seulement détecter ces interactions, mais aussi mesurer l'énergie de la particule avec une résolution exceptionnelle. Son but numéro un est de déterminer si la hiérarchie des masses des neutrinos est directe (le neutrino tau est le plus lourd) ou inversée (il est plus léger que le muonique). En analysant précisément les antineutrinos émis par deux centrales nucléaires situées à proximité, les chercheurs pourront observer les motifs de leur oscillation et en déduire l'ordre correct des masses. L'équipe scientifique estime qu'il faudra environ six ans de collecte de données pour obtenir une réponse statistiquement fiable. Cette découverte serait une avancée majeure pour la physique fondamentale et notre compréhension de l'univers.

Au-delà de la masse – Vers le secret de l'antimatière

La mission de JUNO ne s'arrête pas là. À plus long terme, ses données pourraient aider à percer une énigme encore plus profonde, l'existence du neutrino de Majorana, une particule théorique qui serait sa propre antiparticule. Si les neutrinos sont bien des particules de Majorana, cela pourrait expliquer l'asymétrie matière-antimatière, l'un des plus grands mystères de la cosmologie. Pourquoi notre univers est-il fait de matière alors que le Big Bang aurait dû en créer des quantités égales avec l'antimatière ? La réponse se cache peut-être dans les propriétés fondamentales du neutrino. JUNO est donc une fenêtre ouverte sur les lois les plus fondamentales de la nature. La chasse aux particules fantômes ne fait que commencer et les secrets qu'elle révélera pourraient bien redéfinir notre place dans l'univers.

Mon profil Facebook

Reddit's IPO Is a Content Moderation Success Story - The New York Times

Reddit est une galaxie de niches, de passions et de débats animés. Au cœur de cet écosystème, une armée de volontaires invisibles, les modérateurs, travaillent sans relâche pour maintenir l'ordre, filtrer les contenus et préserver l'esprit de chaque communauté. Mais une nouvelle politique, déployée au cours des prochains mois, vient secouer cette fondation et raviver de vieilles tensions. La plateforme a décidé de limiter le pouvoir de ses “super-modérateurs”, une décision qui, selon elle, favorisera la diversité, mais que beaucoup perçoivent comme une manœuvre punitive et dangereuse pour la qualité des subreddits.

La nouvelle règle est simple en apparence. Un utilisateur ne pourra plus modérer plus de cinq subreddits comptant chacun plus de 100 000 visiteurs mensuels. Selon les déclarations de Reddit, ce changement n'affecterait qu'une infime partie de ses troupes, soit 0,1 % des modérateurs actifs. Officiellement, l'objectif est noble. Un administrateur de la plateforme a expliqué la logique derrière cette décision:

“Ce qui fait de Reddit une plateforme unique, ce sont ses communautés qui le sont tout autant et pour les garder ainsi, il faut des équipes de modération qui le soient aussi. Un système où une seule personne peut modérer un nombre illimité de communautés, y compris les plus grandes, n'est ni souhaitable, ni durable. Nous avons besoin d'une base solide et distribuée qui permette des perspectives et des expériences diverses.”

Le calendrier est déjà fixé. À partir du 1er décembre, les modérateurs dépassant déjà cette limite ne pourront plus accepter de nouvelles invitations pour des subreddits de taille similaire. D'ici le 31 mars, tous devront être en conformité. Pour ceux qui resteront au-dessus du seuil, Reddit procédera à une transition forcée, en les retirant de leurs postes en commençant par les communautés où ils sont le moins actifs. Trois portes de sortie sont proposées: demander une exemption (dont les critères restent flous), démissionner pour obtenir un statut honorifique d'ancien sans aucun pouvoir, ou devenir un conseiller, un nouveau rôle avec un accès en lecture seule pour continuer à soutenir l'équipe en place.

Si Reddit minimise l'impact en chiffres, la communauté des modérateurs concernés, elle, tire la sonnette d'alarme. Un modérateur qui devra abandonner plusieurs de ses postes a confié anonymement sa frustration:

“Ce changement signifie que de nombreux subreddits vont se retrouver isolés, privés de modérateurs experts qui savent comment le site fonctionne, qui maîtrisent l'art de la modération avec efficacité et compétence.”

Pour beaucoup, ce n'est pas une simple question de pouvoir, mais de perte de savoir-faire. Ces volontaires dévoués ont souvent des liens personnels profonds avec les sujets de leurs communautés et une longue histoire avec elles, rendant leur remplacement particulièrement difficile.

Pour comprendre la méfiance ambiante, il faut se souvenir du passé tumultueux entre Reddit et ses modérateurs. En 2023, la décision de la plateforme de facturer l'accès à son API avait provoqué une révolte massive, de nombreux subreddits se mettant en “privé” pour protester. Reddit avait réagi avec fermeté, destituant de force les modérateurs protestataires. Aujourd'hui, certains voient dans cette nouvelle règle une vengeance à peine déguisée. Un autre modérateur affecté qualifie la décision de “connerie”, y voyant une punition combinée contre les quelques power mods abusifs qui accumulaient les subreddits sans y être actifs et contre les modérateurs activistes qui avaient osé défier la direction.

r/FrMods - Les suppressions par les modos suppriment désormais sur Reddit et avec une nouvelle étiquette \[Supprimé par le modérateur\]

Pourtant, une partie de la base d'utilisateurs soutient la mesure, y voyant une solution au problème des “power mods”, ces quelques individus qui concentrent une influence démesurée sur de vastes pans de la plateforme. Mais lorsque Reddit a été interrogé sur ce point, un porte-parole a insisté:

“Ce n'est pas un jugement sur un modérateur ou des pratiques spécifiques, c'est un changement structurel.”

Comme si cela ne suffisait pas, une autre modification inquiète les modérateurs. Celle du système de signalement. Reddit a annoncé qu'il ne répondra plus directement aux signalements des utilisateurs. De plus, les commentaires supprimés par un modérateur disparaîtront automatiquement du profil de l'utilisateur. Les modérateurs craignent que cette automatisation ne permette à de nombreux contenus haineux, menaces et actes de désinformation de passer entre les mailles du filet.

“Ils prétendent que leurs systèmes automatiques et humains détectent déjà la plupart des contenus illicites, mais notre expérience sur le terrain prouve le contraire”, explique l’un d’entre eux.

Il cite des exemples de négationnisme de l'Holocauste ou de racisme flagrant qui persistent malgré les signalements. Pour lui, le but de ces derniers n'est pas seulement de supprimer un commentaire, mais d'alerter la plateforme sur un utilisateur problématique qui mérite une sanction à l'échelle du site. Sans retour de la part des administrateurs, il craint que de moins en moins de modérateurs ne prennent la peine de signaler.

Au final, cette série de changements place Reddit à un carrefour. D'un côté, une entreprise désormais cotée en bourse, soucieuse de son image et de ses revenus publicitaires, qui cherche à standardiser et à contrôler sa plateforme. De l'autre, une communauté de volontaires passionnés qui se sentent méprisés et dont la confiance a été brisée à plusieurs reprises. Même si l'impact réel de ces mesures reste à voir, une chose est sûre, en forçant certains de ses modérateurs les plus dévoués à abandonner leurs fonctions, Reddit prend le risque d'affaiblir ses communautés. Elles sont pourtant sa plus grande force.

Mon profil Facebook

Depuis des années, les PDG des géants de la tech nous promettent une révolution grâce à des agents d'intelligence artificielle capables d'utiliser des logiciels de manière autonome pour accomplir nos tâches quotidiennes. Pourtant, quiconque a déjà testé ces nouveaux outils grand public, comme ceux de ChatGPT d'OpenAI ou de Perplexity, s'est vite rendu compte de leurs limites. Pour que ces assistants virtuels deviennent véritablement robustes et fiables, l'industrie explore de nouvelles frontières techniques, et l'une d'entre elles est en train de provoquer un véritable séisme dans la Silicon Valley.

Cette technique consiste à simuler méticuleusement des espaces de travail numériques où les agents peuvent être entraînés sur des tâches complexes en plusieurs étapes. On les appelle des environnements d'apprentissage par renforcement (ou RL, pour Reinforcement Learning). De la même manière que les ensembles de données étiquetées ont alimenté la vague précédente de l'IA, ces derniers apparaissent aujourd'hui comme l'élément indispensable pour le développement des futurs agents intelligents. Chercheurs, fondateurs de startups et investisseurs s'accordent à le dire, les grands laboratoires d'IA se les arrachent et une myriade de jeunes entreprises espèrent répondre à cette demande explosive. La création de ces simulations est très complexe, donc ils se tournent également vers des fournisseurs tiers capables de créer des environnements et des évaluations de haute qualité. Tout le monde regarde cet espace de très près.

Cette effervescence a déjà donné naissance, outre-Atlantique, à une nouvelle classe de startups très bien financées, telles que Mechanize Work et Prime Intellect, qui aspirent à dominer ce marché naissant. Parallèlement, les géants de l'étiquetage de données comme Mercor et Surge investissent massivement pour passer des jeux de données statiques aux simulations interactives. Les grands laboratoires eux-mêmes envisagent des dépenses colossales. Selon le site The Information, les dirigeants d'Anthropic auraient discuté d'un investissement de plus d'un milliard de dollars dans les environnements RL pour l'année à venir. L'espoir commun des investisseurs et des fondateurs est de voir émerger le prochain « Scale AI des environnements », en référence au titan de l'étiquetage de données qui a été indispensable à l'ère des chatbots.

Mais en quoi consistent-ils exactement ? Au fond, il s'agit de terrains d'entraînement qui simulent ce qu'un agent IA ferait dans une application logicielle réelle. Un fondateur décrivait récemment leur conception comme « la création d'un jeu vidéo très ennuyeux ». Un environnement pourrait par exemple simuler un navigateur Chrome et donner pour mission à un agent d'acheter un produit quelconque sur Amazon. L'agent est alors évalué sur sa performance et reçoit un signal de récompense s'il réussit.

Reinforcement Learning: Bringing Use Cases to Life | Datatonic

Bien que la tâche semble simple, les pièges sont nombreux. L'agent pourrait se perdre dans les menus déroulants ou acheter trop de quantité d’un même produit. Parce que les développeurs ne peuvent pas anticiper toutes les erreurs possibles, l'environnement lui-même doit être suffisamment robuste pour gérer des comportements inattendus tout en fournissant un retour constructif. Cela rend leur construction bien plus complexe que la simple compilation de données statiques.

Si l'apprentissage par renforcement est aujourd'hui au cœur de toutes les attentions, la technique n'est pas nouvelle. L'un des premiers projets d'OpenAI en 2016 était la construction de « RL Gyms », des salles de sport virtuelles très similaires aux environnements actuels. La même année, DeepMind (Google) entraînait AlphaGo, l'IA qui a battu le champion du monde du jeu de Go, en utilisant des techniques de RL dans un environnement simulé. La nouveauté, c'est que les chercheurs tentent aujourd'hui d'appliquer ces méthodes à de grands modèles de type Transformer pour créer des agents polyvalents capables d'utiliser un ordinateur et non plus des systèmes spécialisés dans un univers clos comme un jeu de société. Le point de départ est plus solide, mais l'objectif est infiniment plus complexe.

Face à cette opportunité, le champ de bataille se remplit rapidement. Les entreprises établies comme Surge et Mercor, qui ont bâti leur succès sur l'étiquetage de données pour OpenAI, Google, Anthropic et Meta, se positionnent de manière agressive. On a récemment constaté une augmentation importante de la demande, ce qui a créé une nouvelle division interne dédiée aux environnements RL. De son côté, Mercor met en avant sa capacité à créer des environnements pour des domaines spécifiques comme le codage, la santé ou le droit. Même Scale AI, bien qu'ayant perdu de sa superbe, tente de s'adapter pour ne pas manquer ce nouveau virage technologique.

À leurs côtés, de nouveaux acteurs se concentrent exclusivement sur ce créneau. C'est le cas de Mechanize Work, une startup fondée il y a à peine six mois avec l'objectif audacieux d'automatiser tous les emplois. Pour attirer les meilleurs talents et construire des environnements de pointe, notamment pour les agents spécialisés en codage, l'entreprise n'hésite pas à proposer des salaires de 500 000 dollars à ses ingénieurs. D'autres, comme Prime Intellect, soutenue par des noms prestigieux comme Andrej Karpathy, parient sur l'open-source en lançant une plateforme se voulant le « Hugging Face des environnements RL », afin de démocratiser l'accès à ces outils.

Une question reste cependant en suspens: cette approche passera-t-elle à l'échelle ? L'apprentissage par renforcement a déjà permis des avancées majeures, comme les modèles o1 d'OpenAI et Claude Opus 4 d'Anthropic, à un moment où les techniques traditionnelles montrent des signes d'essoufflement. Mais des voix sceptiques s'élèvent. Ross Taylor, ancien chercheur chez Meta, met en garde contre le reward hacking, un phénomène où l'IA apprend à tricher pour obtenir la récompense sans réellement accomplir la tâche. D'autres, comme Sherwin Wu d'OpenAI, estiment que le marché est trop compétitif et que la recherche évolue trop vite pour que les startups puissent servir efficacement les grands laboratoires.

Même les investisseurs dans le domaine, expriment une certaine prudence, se disant optimiste sur les environnements et les interactions agentiques, mais baissier sur l'apprentissage par renforcement spécifiquement. La course est lancée, et les milliards sont sur la table. Ces mondes simulés donneront-ils naissance aux agents intelligents autonomes qui nous ont été promis, ou resteront-ils des terrains d'expérimentation fascinants mais aux retombées limitées ? L'avenir de l'IA pourrait bien se jouer dans ces arènes virtuelles.

Mon profil Facebook

Une bataille vient de s'achever dans l’indifférence médiatique, mais la guerre pour le contrôle de notre culture est loin d'être terminée. Dans un dénouement prévisible, les mastodontes de l'industrie musicale, Sony Music Entertainment et Universal Music Group en tête, ont mis fin à leur croisade judiciaire contre l'Internet Archive.

L'objet de leur courroux ? Le “Great 78 Project”, une initiative noble et essentielle visant à préserver et numériser des milliers de disques 78 tours, ces fragiles galettes de gomme-laque qui constituent les fondations de la musique populaire du XXe siècle. Les deux parties ont annoncé avoir trouvé un accord. Le procès est abandonné. Fin de l'histoire ? Pas si vite. Les termes sont confidentiels, un adjectif qui, dans ce contexte, sonne moins comme une formalité juridique que comme le bruit d'une porte que l'on verrouille à double tour. L'Internet Archive, dans un billet de blog laconique, a confirmé cette résolution secrète, précisant qu'il n'y aurait aucun autre commentaire public à ce sujet. Ce silence assourdissant est une victoire par KO pour les majors, qui ont réussi à faire plier une organisation à but non lucratif dont le seul crime était de vouloir sauver notre héritage commun de l'oubli.

Revenons aux faits. En 2023, une coalition de labels a traîné l'Internet Archive devant les tribunaux. L'accusation portait sur la numérisation et la mise à disposition de 2 749 enregistrements d'artistes dont les noms suffisent à donner le vertige: Frank Sinatra, Ella Fitzgerald, Billie Holiday, Miles Davis, Louis Armstrong etc. Des trésors culturels se retrouvaient au cœur d'un conflit absurde. L'argument des plaignants était d'un cynisme confondant. Ces œuvres ne courraient aucun danger d'être perdues, oubliées ou détruites puisqu'elles étaient déjà disponibles sur les plateformes de streaming.

C'est ici que se révèle toute la malhonnêteté intellectuelle et la voracité de ces entreprises. Comparer un fichier MP3 compressé sur Spotify à la numérisation minutieuse d'un enregistrement original de 78 tours est une insulte à l'histoire, à la musicologie et au travail des archivistes. Le “Great 78 Project” ne se contentait pas de partager une chanson. Il préservait en réalité un artefact. Le son unique du disque, ses craquements, le grain de la voix capté par les technologies de l'époque, tout cela fait partie de l'œuvre. C'est la différence entre voir une photo de La Joconde sur son téléphone et se tenir devant la toile au Louvre. Les labels, en réduisant ces enregistrements à de simples produits de consommation interchangeables, nient leur dimension historique et matérielle. Leur seul objectif n'est pas la préservation, mais le maintien d'un monopole absolu sur la distribution.

Pour s'assurer de leur victoire, ils ont ensuite amendé leur plainte, ajoutant de nouvelles œuvres à la liste pour porter le total à 4 142 enregistrements. Une tactique d'intimidation à peine voilée, brandissant une épée de Damoclès financière au-dessus de l'Internet Archive. Sans cet accord, l'institution aurait pu être condamnée à payer jusqu'à 150 000 dollars par enregistrement, une somme capable de la mener à la faillite pure et simple. Face à une menace d'anéantissement financier, quelle autre option restait-il que de se rendre et d'accepter un accord de non-divulgation ?

Ce n'est malheureusement pas la première fois que l'Internet Archive fait les frais de l'appétit des géants du divertissement. L'organisation a récemment perdu un procès intenté par quatre grands éditeurs, menés par Hachette, concernant sa “National Emergency Library”. Lancée pendant la pandémie de COVID-19, cette initiative permettait d'emprunter librement des millions de livres numériques alors que les bibliothèques physiques du monde entier étaient fermées. Une mission de service public évidente en temps de crise mondiale. Pourtant, les tribunaux ont donné raison aux éditeurs, jugeant que cette bibliothèque d'urgence ne relevait pas du “fair use” américain.

Le schéma est toujours le même. Des conglomérats multimilliardaires utilisent la propriété intellectuelle non pas comme un bouclier pour protéger les créateurs, mais comme une arme pour écraser toute tentative qui favorise le partage, l'accès et la préservation en dehors de leurs circuits payants et fermés. Ils se posent en défenseurs des artistes tout en s'attaquant à un projet qui met en lumière des enregistrements historiques dont les droits sont souvent complexes et dont les revenus profitent rarement aux ayants droit des musiciens originels.

L'issue de ce procès est une triste nouvelle pour tous ceux qui croient que la culture est un bien commun. Le public ne saura jamais ce que l'Internet Archive a dû concéder. D'autres projets de numérisation seront-ils abandonnés par peur de représailles ? Combien d'œuvres fragiles se désintégreront sur une étagère poussiéreuse parce que personne n'osera plus les toucher ? En forçant l'Internet Archive au silence, Sony et Universal ont affaibli notre mémoire collective et renforcé les murs de leur jardin privé, nous faisant payer l'accès à un patrimoine qui devrait appartenir à l'humanité toute entière.

Mon profil Facebook

Le projet Fedora vient de lever le voile sur Fedora Linux 43 en bêta, qui sera sa prochaine distribution majeure.

Disponible pour le grand public, cette version préliminaire est une invitation ouverte à tous les passionnés, développeurs et curieux à explorer les innovations à venir, à tester les limites du système et à contribuer à sa finalisation en signalant les bogues potentiels. C'est un aperçu privilégié de ce qui s'annonce comme une mise à jour passionnante, peaufinant l'expérience utilisateur tout en renforçant ses fondations techniques. Au cœur de cette nouvelle itération bat le futur noyau Linux 6.17. Bien que ce dernier soit lui-même encore en développement, son intégration dans Fedora 43 promet des améliorations intéressantes en matière de prise en charge matérielle, de sécurité et de performances globales. Pour les utilisateurs, cela se traduit par un système plus réactif, plus stable et compatible avec les composants les plus récents du marché.

L'expérience de bureau, vitrine de toute distribution, a reçu une attention toute particulière. L'édition phare, Fedora Workstation, est propulsée par l'environnement de bureau GNOME 49, qui n'est pas encore officiellement sorti. Cette synergie entre Fedora et le projet GNOME permet d'offrir une expérience de pointe, avec des fonctionnalités novatrices et une interface toujours plus épurée et intuitive. Changement notable pour cette édition, la transition vers une session Wayland par défaut, abandonnant complètement le serveur d'affichage historique X11. Cette décision témoigne de la maturité de Wayland et promet une fluidité accrue, une sécurité renforcée et une meilleure gestion des affichages modernes à haute résolution.

Fedora Linux editions part 2: Spins - Fedora Magazine

De son côté, l'édition Fedora KDE n'est pas en reste. Elle embarque le tout dernier bureau KDE Plasma 6.4. Les adeptes de cet environnement hautement personnalisable découvriront une version peaufinée, plus rapide et dotée des dernières avancées de l'écosystème. Cette mise à jour continue de faire de Fedora une plateforme de choix pour ceux qui recherchent à la fois puissance et flexibilité.

Fedora 43 introduit également plusieurs changements structurels. L'installateur Anaconda WebUI, une interface d'installation moderne basée sur des technologies web, est désormais proposé par défaut pour un plus grand nombre de “Spins” (les variantes officielles de Fedora). Cette unification vise à simplifier et à moderniser l'expérience d'installation pour tous. Dans la même veine, le gestionnaire de paquets DNF 5 sera utilisé par défaut par Anaconda pour l'installation des paquets RPM, promettant des résolutions de dépendances plus rapides et une gestion plus robuste du système.

Plusieurs améliorations de qualité de vie sont également au rendez-vous. La police Noto Color Emoji prend désormais en charge le format COLRv1, offrant des émojis plus riches, vectoriels et personnalisables. Pour les développeurs, l'arrivée du support pour le langage de programmation Hare ouvre de nouvelles perspectives. Les utilisateurs de Fedora Kinoite, la variante immuable basée sur KDE, apprécieront l'activation des mises à jour automatiques par défaut, garantissant un système toujours à jour et sécurisé sans intervention manuelle. Enfin, pour accélérer les temps de démarrage, l'initrd (le système de fichiers initial chargé en mémoire) utilisera par défaut la compression zstd, un algorithme moderne reconnu pour son excellent rapport vitesse/compression.

Sous le capot, Fedora 43 est une véritable vitrine des technologies logicielles les plus récentes. La chaîne d'outils de compilation a été entièrement mise à niveau avec GCC 15.2, GNU Binutils 2.45, et la bibliothèque C GNU 2.42. Les débogueurs et compilateurs alternatifs ne sont pas oubliés, avec GDB 17.1 et LLVM 21. Les développeurs de divers horizons trouveront leur bonheur avec les dernières versions de leurs langages et plateformes préférés, notamment Python 3.14, Golang 1.25, Perl 5.42 et Ruby on Rails 8.0. Les administrateurs de systèmes et de bases de données bénéficieront également de la fraîcheur des composants avec des mises à jour majeures comme PostgreSQL 18, MySQL 8.4, Dovecot 2.4 et Tomcat 10.1. Le système de gestion de paquets lui-même, RPM, passe en version 6.0.

La sortie de la version finale est prévue pour la fin du mois d'octobre ou au plus tard début novembre. D'ici là, la phase de bêta est déterminante. Si l'aventure vous tente, vous pouvez télécharger les images ISO dès maintenant. C'est l'occasion idéale de découvrir en avant-première ces nouveautés et de jouer un rôle actif dans l'amélioration de la distribution. Il est malgré tout essentiel de garder à l'esprit qu'il s'agit d'une version de pré-lancement. Elle peut contenir des instabilités ou des bogues. Il est donc fortement déconseillé de l'installer sur un ordinateur de production ou sur une machine contenant des données critiques. Privilégiez une machine de test, une partition dédiée ou une machine virtuelle pour vos expérimentations. Votre participation et vos retours sont précieux pour faire de Fedora 43 la version stable et performante que tout le monde attend.

Mon profil Facebook

Dans l'arène de la technologie grand public, où les géants comme Apple et Google semblent indétrônables, une startup londonienne fait à nouveau parler d'elle avec une audace qui force le respect. Nothing, l'entreprise fondée par le visionnaire Carl Pei, vient de boucler une levée de fonds spectaculaire de 200 millions de dollars, portant sa valorisation à 1,3 milliards.

Cet argent frais n'est pas simplement destiné à produire un nouveau smartphone au design transparent. L'ambition est bien plus grande, presque messianique, inaugurer une ère nouvelle pour nos appareils, celle de l'intelligence artificielle native. Dans une communication qui tient autant de l'ode à la technologie que du manifeste révolutionnaire, Carl Pei a dessiné les contours d'un futur où nos appareils ne se contentent plus d'exécuter des tâches, mais nous comprennent et anticipent nos besoins. Au cœur de cette vision se trouve la création d'un système d'exploitation centré sur l'IA, un “AI OS” conçu pour offrir une expérience hyper-personnalisée. Selon le fondateur, les systèmes d'exploitation actuels, même les plus avancés, ne sont plus adaptés. Il est temps de construire quelque chose de véritablement différent, des fondations bâties non plus sur des applications, mais sur une intelligence contextuelle et omniprésente.

Ce qui est fascinant dans l'annonce de Nothing, c'est l'envergure du projet. L'entreprise ne parle pas seulement d'améliorer ses smartphones et ses écouteurs. La plateforme native pour l'IA qu'elle développe a vocation à devenir le cerveau d'un écosystème bien plus vaste, englobant les appareils que nous utilisons aujourd'hui comme les montres connectées, mais aussi ceux qui peupleront notre futur proche: lunettes intelligentes, véhicules électriques et même, de manière plus surprenante, robots humanoïdes. Carl Pei l'affirme avec une confiance désarmante, son nouvel OS sera prêt à animer tout ce qui viendra ensuite. C'est une déclaration de guerre directe aux écosystèmes fermés qui dominent le marché, une promesse d'unification technologique sous la bannière de l'IA.

Nothing Phone 2a Set To Debut On Flipkart: Live Images, Specs Leaked

Cette annonce soulève malgré tout une question intéressante, presque une contradiction. En octobre dernier, le même Carl Pei tempérait l'enthousiasme général en affirmant que l'IA n'est qu'un outil et qu'il ne fallait pas décrire le système d'exploitation de sa société comme, justement, un “AI OS”. Ce revirement spectaculaire en moins d'un an peut être interprété de deux manières. Soit la vision de l'entreprise a radicalement évolué face à l'accélération fulgurante des technologies d'IA générative, soit il s'agit d'un repositionnement marketing calculé pour capter l'attention des investisseurs et des consommateurs, désormais obsédés par le potentiel de l’IA. Quelle que soit la raison, le cap est désormais clair, pour Nothing, cette dernière n'est plus un outil, c'est la destination.

Le chemin, cependant, sera tout sauf aisé. Le cimetière de la tech est rempli de projets ambitieux qui ont tenté de créer de nouvelles catégories de produits mais n'ont jamais réussi à séduire le marché de masse. Même les plus grands s'y sont cassé les dents. Le principal défi pour Nothing, dont les premiers appareils IA-natifs sont attendus pour l'année prochaine, sera de démontrer une utilité concrète et irrésistible. Il ne suffira pas de proposer un gadget intelligent. Il faudra surtout prouver que cette nouvelle génération d'appareils résout de vrais problèmes et enrichit réellement notre quotidien d'une manière que nos smartphones actuels ne peuvent pas faire.

Nothing Ear (3) dévoilé pour la première fois avec un tout nouveau ...

De plus, la concurrence est déjà féroce. Dans l'ombre, des projets tout aussi ambitieux se préparent. Le plus notable est sans doute celui mené par Jony Ive, l'ancien gourou du design d'Apple, en collaboration avec OpenAI. Leur objectif commun ? Créer un appareil mystérieux, potentiellement sans écran, qui pourrait redéfinir notre interaction avec la technologie. Face à de tels titans, la jeune pousse londonienne devra faire preuve d'une innovation et d'une exécution sans faille.

Alors, quel est l'atout de Nothing ? Selon Carl Pei, la clé réside dans la maîtrise de l'écosystème matériel.

“Détenir le point de distribution final, avec toute la connaissance contextuelle et celle de l'utilisateur, est essentiel pour développer un OS qui aidera véritablement les gens dans leur vie”, explique-t-il.

En d'autres termes, un “AI OS” ne peut être véritablement puissant que s'il est profondément intégré au matériel qu'il pilote, s'il connaît son utilisateur et s'il est toujours présent. C'est cette synergie entre le logiciel et le matériel qui, selon lui, permettra de créer cette fameuse expérience hyper-personnalisée que les solutions purement logicielles ne peuvent atteindre.

Avec ces 200 millions de dollars, Nothing s'achète non seulement des ressources, mais aussi du temps et de la crédibilité. L'entreprise se positionne comme un acteur audacieux, prêt à réinventer les règles du jeu. Le pari est immense, le risque d'échec est réel, mais la vision est suffisamment puissante pour captiver notre imagination. Le prochain chapitre de la marque est écrit: intégrer une expérience IA au cœur de ses appareils pour réinventer la façon dont la technologie nous amplifie. Reste à savoir si ce futur sera une brillante réalité ou s'il n’en restera finalement rien.

Mon profil Facebook

Nouvel épisode du podcast avec au programme cette semaine:

  • iOS 26 est dispo
  • Nouveau SoC Snapdragon
  • TikTok aux US
  • DeadZone Rogue:
  • F1 le film et McWalter
  • Reddit Mod World
Mon profil Facebook

La tension qui couvait depuis des mois entre les éditeurs en ligne et Google au sujet de la montée en puissance des résumés par intelligence artificielle vient d'atteindre son point d'ébullition. Une nouvelle plainte a été déposée, cette fois par Penske Media Corporation, la société mère de publications américaines renommées telles que Rolling Stone et The Hollywood Reporter.

L'action en justice met en cause ce que beaucoup dans le monde de l'édition ressentent depuis un certain temps déjà. La chute drastique du trafic de recherche causée par les “AI Overviews” entraîne directement une baisse des revenus nécessaires à la création de contenu. Ce procès est en soi un développement déterminent, mais c'est la réponse de Google, formulée lors d'un sommet sur l'IA à New York, qui est peut-être encore plus révélatrice de la fracture qui s'opère.

Interrogé sur cette nouvelle affaire, Markham Erickson, vice-président des affaires gouvernementales et des politiques publiques de Google, a exposé la philosophie de l'entreprise. Tout en affirmant que Google n'abandonnera pas le modèle classique des 10 liens bleus, il a clairement exposé sa position sur les résumés IA. Selon lui, les préférences des utilisateurs évoluent. Ils ne chercheraient plus simplement des réponses factuelles et une liste de liens, mais désireraient de plus en plus des réponses contextuelles et des synthèses. Google se positionne donc comme un acteur répondant à cette nouvelle demande, tout en prétendant vouloir continuer à rediriger les internautes vers du contenu de valeur sur le web. L’argument central est que l’entreprise peut avoir le beurre et l'argent du beurre: fournir des résumés directs générés par l'IA tout en maintenant un écosystème sain qui envoie du trafic aux éditeurs.

Google Officially Launches Ads In AI Overviews

Le problème avec cette défense est qu'elle semble totalement déconnectée du modèle économique fondamental du web ouvert. Pour les éditeurs, la capacité à créer le contenu même sur lequel l'IA de Google s'appuie est directement financée par le trafic reçu de ces fameux 10 liens bleus. Lorsqu'un utilisateur obtient un résumé satisfaisant en haut de la page de recherche, l'incitation à cliquer sur la source originale s'effondre. Moins de trafic signifie moins de revenus publicitaires et moins de ventes d'affiliation, ce qui se traduit par une baisse de revenus pour les journalistes, les rédacteurs et les créateurs.

C'est le scénario classique du serpent qui se mord la queue. Si les éditeurs ne peuvent pas survivre, le puits de contenu de haute qualité, créé par des humains, dont l'IA a besoin pour générer ses résumés, finira par se tarir. Cette plainte déposée par un acteur aussi important que Penske Media constitue une escalade franche dans ce combat. D'autres, comme la News/Media Alliance, n'ont pas hésité à qualifier cette pratique de “définition même du vol”.

Cette bataille pour l'avenir du contenu ne se déroule pas en vase clos. Elle se place dans un contexte général où la puissance de Google et la frénésie autour de l'IA soulèvent des questions fondamentales. Alphabet, la société mère de Google, est récemment devenue la quatrième entreprise à atteindre une valeur boursière de 3 000 milliards de dollars, propulsée, comme Nvidia et Microsoft, par la vague d'enthousiasme des investisseurs pour l'intelligence artificielle. Cette puissance financière colossale alimente sa facilité à remodeler des écosystèmes entiers, comme celui de la recherche d'informations.

Cette domination ne la met pourtant pas à l'abri des ennuis judiciaires. Sur un autre front, la société vient de subir un revers dans l'affaire qui l'oppose à Epic Games. La cour d'appel a rejeté sa demande de révision, confirmant une décision de justice qui qualifie de monopole illégal sa gestion du Play Store sur Android. D'ici quelques semaines, Google sera contraint de cesser de forcer les développeurs à utiliser son système de paiement, de les autoriser à informer les utilisateurs sur d'autres moyens de paiement et même de créer des liens vers des téléchargements en dehors de sa boutique d'applications. Cette décision montre une tendance de fond: les pratiques de Mountain View, qui consistent à verrouiller ses écosystèmes pour en extraire un maximum de valeur, sont de plus en plus contestées et jugées illégales.

Entre les poursuites des éditeurs de contenu et les décisions de justice sur ses pratiques monopolistiques, Google se retrouve sur la défensive sur plusieurs fronts. D'un côté, il prétend servir les nouvelles habitudes des utilisateurs avec des résumés IA. De l'autre, il est accusé de siphonner la valeur créée par ceux qui produisent l'information originelle, mettant en péril leur survie. La question fondamentale reste entière: peut-on avoir un “écosystème sain” lorsque l'intermédiaire principal absorbe la quasi-totalité de la valeur ?

Cette nouvelle affaire est un combat pour l'avenir de la création, de la distribution et de la consommation de l'information sur Internet. Le résultat déterminera si le web ouvert, avec sa diversité de sources et de voix, peut survivre à l'ère de l'intelligence artificielle centralisée. Une histoire que je suivrais, évidemment, avec un intérêt tout particulier.

Mon profil Facebook

Dans le secteur du développement logiciel (et plus particulièrement dans les domaines en pleine effervescence que sont l'intelligence artificielle, le machine learning et le calcul haute performance), certains noms résonnent avec une force particulière. Ubuntu, le système d'exploitation open-source de Canonical, est devenu la plateforme de prédilection pour des millions de développeurs à travers le monde. De l'autre côté, NVIDIA, avec sa technologie GPU, domine le matériel nécessaire pour alimenter ces révolutions informatiques.

Au cœur de cette synergie se trouve le CUDA Toolkit, un outil indispensable mais dont l'installation a longtemps été un rite de passage, parfois complexe, pour quiconque s'aventurait sur ces terres. Aujourd'hui, une annonce de Canonical vient changer la donne et promet de transformer radicalement cette expérience. L’entreprise a en effet officiellement annoncé une nouvelle qui va faire grand bruit dans la communauté. Le kit de développement NVIDIA CUDA sera désormais empaqueté et distribué directement au sein des dépôts officiels d'Ubuntu. Cette décision, fruit d'une collaboration de longue date entre les deux géants de la tech, marque un grand pas vers l'accessibilité des outils de calcul parallèle sur la plateforme Linux la plus populaire.

Pour bien comprendre la portée de cette nouvelle, il faut se souvenir de ce qu'était, jusqu'à présent, le processus d'installation de CUDA sur Ubuntu. Un développeur devait se rendre sur le site de NVIDIA, naviguer à travers les différentes versions pour trouver celle correspondant à son système d'exploitation, à son architecture et à la version de son pilote graphique. S'ensuivait une série de commandes à exécuter scrupuleusement, impliquant souvent l'ajout de dépôts tiers, l'importation de clés GPG et une installation en plusieurs étapes. Bien que fonctionnel, ce processus était une source potentielle d'erreurs, de conflits de dépendances et représentait une barrière à l'entrée non négligeable pour les nouveaux venus.

Canonical NVIDIA CUDA

Avec cette nouvelle intégration, ce parcours du combattant appartiendra bientôt au passé. Canonical promet que l'installation du toolkit CUDA se résumera à une seule et unique commande, familière à tous les utilisateurs d'Ubuntu: un simple sudo apt install cuda. Cette simplicité apparente cache une refonte profonde de la manière dont le logiciel est géré. En intégrant CUDA aux dépôts natifs, Ubuntu prend en charge la gestion des dépendances, la compatibilité avec le matériel NVIDIA supporté et la cohérence de l'écosystème.

Les avantages pour les développeurs d'applications sont immenses. Premièrement, le gain de temps et la réduction de la frustration sont évidents. Le processus d'installation devient non seulement plus rapide, mais aussi beaucoup plus fiable. Fini les heures passées à déboguer une installation qui a mal tourné. Deuxièmement, cela simplifie considérablement le déploiement et la reproductibilité des environnements de travail. Un développeur pourra simplement déclarer le cuda-runtime comme une dépendance de son application et le gestionnaire de paquets d'Ubuntu s'occupera du reste, garantissant que l'environnement d'exécution correct est installé sur la machine cible. Cela aura un impact non négligeable sur les flux de travail utilisant des conteneurs comme Docker ou des systèmes d'intégration continue.

Mais qu'est-ce que le CUDA Toolkit exactement ? Pour les non-initiés, CUDA (Compute Unified Device Architecture) est une plateforme de calcul parallèle et un modèle de programmation créés par NVIDIA. Elle permet aux développeurs d'utiliser la puissance de traitement massive des unités de traitement graphique (GPU) du fabricant pour des tâches de calcul généralistes, bien au-delà du simple affichage graphique. C'est le moteur qui alimente la plupart des avancées actuelles en matière de deep learning, de simulations scientifiques, d'analyse de données massives et de bien d'autres domaines exigeants en puissance de calcul. Rendre son installation transparente et intégrée à Ubuntu est donc un geste stratégique qui renforce la position de ce dernier comme le système d'exploitation de référence pour l'innovation.

Canonical n'a pas encore communiqué de date précise pour la disponibilité de ces paquets dans les dépôts. L'annonce suggère cependant que cette intégration concernera toutes les versions d'Ubuntu actuellement supportées, qu'il s'agisse des versions intermédiaires ou des versions à support à long terme (LTS), qui sont les plus utilisées en entreprise et dans la recherche.

Mon profil Facebook

Chaque recherche que nous lançons, chaque e-mail que nous envoyons, chaque vidéo que nous visionnons semble immatériel, un simple jeu de lumière sur nos écrans. Nous vivons dans l'illusion d'un monde numérique propre et sans effort. Pourtant, derrière cette façade lisse et épurée, une infrastructure monstrueuse et polluante dévore nos ressources.

La dernière preuve en date ? Un projet de data center « hyperscale » de Google à Thurrock, dans la banlieue londonienne, qui révèle le coût écologique vertigineux de notre boulimie de données. Les documents de planification, soumis discrètement par une filiale d'Alphabet, la maison mère de Google, dressent un portrait bien sombre. Sur 52 hectares de terrain, là où résonnaient autrefois les moteurs d'un circuit automobile, s'élèvera bientôt un complexe qui crachera plus de 568 000 tonnes d'équivalent CO2​ dans l'atmosphère chaque année. Pour visualiser l'énormité de ce chiffre, imaginez 500 vols court-courriers, comme un trajet Paris-Oran, décollant chaque semaine, toute l'année. Voilà l'empreinte carbone d'un seul des nombreux projets de l’entreprise américaine.

Face à cette aberration écologique, la réponse du géant du web est d'une désinvolture qui frôle le cynisme. Dans sa demande, Google qualifie cet impact de « négatif mineur et non significatif par rapport aux budgets carbone du Royaume-Uni ». Une affirmation balayée d'un revers de main par les défenseurs de l'environnement. Pour le groupe de campagne Foxglove, la réalité est tout autre:

« L'installation prévue par Google dans l'Essex produira des émissions de carbone plusieurs fois supérieures à celles d'un aéroport international ».

Ce projet n'est pas un acte isolé. Il s'agit de la tête de pont d'une invasion concertée par les GAFAM, bien décidés à transformer le Royaume-Uni en leur entrepôt de données personnel, sans se soucier des conséquences pour la planète. Cette offensive est encouragée par une alliance politique inquiétante. Alors que l'administration Trump et le gouvernement britannique poussent frénétiquement pour augmenter les capacités en intelligence artificielle, le Premier ministre Keir Starmer semble dérouler le tapis rouge, aveuglé par des promesses de croissance économique.

Ce même gouvernement prévoit en effet une multiplication par treize de la puissance de calcul nécessaire à l'IA d'ici 2035. Pour satisfaire cet appétit gargantuesque, il brade l'environnement en espérant que la technologie relancera une productivité économique anémique. Des accords de plusieurs milliards de dollars avec des mastodontes comme Nvidia et OpenAI sont dans les tuyaux. Le risque est de créer un déficit de calcul qui, selon Downing Street, minerait la sécurité nationale et la croissance économique. Dans cette course effrénée, l'écologie est la première sacrifiée.

Les conséquences pour les citoyens d’outre-Manche et l'environnement seront, elles, bien réelles. Les data centers consomment déjà environ 2,5 % de l'électricité du Royaume-Uni, et cette demande devrait quadrupler d'ici 2030 selon la bibliothèque de la chambre des communes. Cette pression énorme sur le réseau électrique se traduira inévitablement par des factures d'énergie plus élevées pour tous. Pire encore, ces centres sont de véritables ogres en matière d'eau, une ressource de plus en plus précieuse, utilisée en quantités massives pour refroidir les serveurs en surchauffe.

L'argument, qui mise sur la décarbonation du réseau électrique pour minimiser l'impact, est un pari risqué et trompeur. Il ignore la réalité immédiate de ces émissions massives et la pression insoutenable exercée sur des ressources limitées. C'est au final le public qui finira par payer la facture des data centers des géants de la tech, que ce soit en termes de factures d'énergie exorbitantes, de réserves d'eau en diminution ou d'une planète qui se réchauffe. Le problème est global. L'IA et ses data centers pourraient représenter 2 % des émissions mondiales et 17 % des émissions industrielles d'ici 2035. Le projet de Thurrock n'est qu'un symptôme d'une maladie qui ronge la planète: la croyance aveugle en une croissance technologique infinie sur une planète aux ressources finies. Le monde numérique a un coût physique, et il est exorbitant. La question n'est plus de savoir si nous avons besoin de la technologie, mais à quel prix. Et derrière la façade épurée de Google, la facture environnementale s'annonce salée, très salée.

Mon profil Facebook