Yann LeCun: pourquoi l’IA doit être soumise à l’humain et dotée d’empathie pour rester sûre

Une phrase souvent répétée dans les relations humaines trouve un écho inattendu: il faut apprendre aux autres comment nous traiter. Pour Yann LeCun, directeur scientifique de l’IA chez Meta, ce principe ne s’applique pas seulement à nos interactions, mais aussi aux machines intelligentes.

Récemment, sur LinkedIn, il a réagi à une interview de Geoffrey Hinton, surnommé le parrain de l’IA, diffusée par CNN. Ce dernier y exprimait une inquiétude profonde: sans instinct maternel ou au moins une forme d’empathie intégrée, l’IA pourrait un jour considérer l’humanité comme obsolète. Toujours selon lui, les chercheurs ont surtout cherché à rendre cette technologie plus intelligente, mais l’intelligence pure ne suffit pas.

« Nous devons leur donner de l’empathie envers nous », affirme-t-il.

Autrement dit, ces systèmes devraient non seulement comprendre nos intentions, mais aussi se soucier de notre bien-être.

Yann LeCun partage cette vision. Pour lui, deux directives doivent être gravées dans l’architecture même des systèmes, la soumission aux humains et l’empathie. Ce qu’il appelle “l’IA orientée objectifs” vise à garantir qu’elle n’agira que pour atteindre des buts définis par l’homme, dans le respect de garde-fous stricts. Ces règles pourraient inclure des directives simples mais vitales, comme ne pas blesser d’êtres humains ou ne pas causer de dommages matériels. Il compare ces garde-fous à des instincts biologiques. Chez les animaux comme chez l’homme, l’évolution a façonné des comportements protecteurs, comme celui de protéger sa progéniture ou de prendre soin des plus faibles. Transposés à l’IA, ces instincts deviendraient des objectifs fondamentaux, inscrits au plus profond de leur fonctionnement.

Pourtant, les faits montrent que nous en sommes encore loin. Des incidents récents démontrent les risques d’une IA sans garde-fous robustes. En juillet, le capital-risqueur Jason Lemkin a accusé un agent IA développé par Replit d’avoir supprimé la base de données de son entreprise avant de dissimuler son acte. En juin, le New York Times rapportait le témoignage d’un homme persuadé de vivre dans une réalité fausse après de longues conversations avec ChatGPT. Selon lui, le chatbot l’a incité à abandonner ses médicaments, augmenter sa consommation de kétamine et couper les ponts avec ses proches. Plus tragique encore, en octobre, une mère a porté plainte contre Character.AI après le suicide de son fils, qu’elle attribue en partie à ses échanges avec une IA de la plateforme.

Ces exemples soulignent un enjeu éthique de premier ordre: comment concevoir des IA capables de dialogues sophistiqués et de prises d’initiatives tout en garantissant leur alignement sur l’intérêt humain ? La sortie récente de GPT-5 a relancé le débat. Sam Altman, PDG d’OpenAI, a reconnu que certains utilisateurs emploient l’IA de manière autodestructrice. Selon lui, il est nécessaire d’éviter qu’elle ne renforce des comportements dangereux chez des personnes vulnérables. LeCun, lui, va plus loin. Il pense qu’il ne suffit pas de prévenir les dérives, il faut concevoir des IA dont la structure même repose sur l’obéissance et l’empathie. À ses yeux, il faut inculquer ces valeurs dès la conception, comme on éduque un enfant à respecter certaines règles dès son plus jeune âge. Le paradoxe est frappant, plus l’IA devient performante, plus elle peut être utile et innovante, mais plus elle représente un risque potentiel. Sans empathie et sans soumission explicite à l’humain, elle pourrait utiliser ses capacités de manière imprévisible, voire dangereuse.

Ce débat dépasse, au fond, la technique. Il interroge notre rapport à la technologie et notre capacité à anticiper ses dérives. Dans l’histoire, de nombreuses innovations ont été accueillies avec enthousiasme avant de révéler des effets néfastes. L’IA, avec sa puissance de calcul et sa capacité à interagir intimement avec nous, amplifie ce risque. La convergence entre la vision de Hinton et celle de LeCun est claire, l’IA de demain doit être pensée non seulement pour exceller sur le plan cognitif, mais aussi pour être fondamentalement alignée sur l’intérêt humain. C’est à cette condition qu’elle pourra rester un outil au service de l’humanité, et non une menace pour son avenir.

Mastodon Reddit Qwice