🎤 Ultra-intelligence : la vague qui va tout bousculer (Aymeric Roucher, auteur et ingénieur IA)
Monde Numérique17 février 202640:29

🎤 Ultra-intelligence : la vague qui va tout bousculer (Aymeric Roucher, auteur et ingénieur IA)

Les agents IA sont déjà capables d’accomplir plusieurs heures de travail en autonomie, et leur progression s’accélère. Pour Aymeric Roucher, l’enjeu n’est plus l’AGI, mais la montée en puissance concrète d’une “ultra-intelligence” qui redéfinit les équilibres économiques et géopolitiques.

Interview : Aymeric Roucher, ingénieur et auteur du livre "Ultra-intelligence – Jusqu'où iront les IA ?"

Punchlines

  • L’AGI est un concept flou et peu utile.

  • L’impact réel des IA est la vraie métrique.

  • L’horizon d’autonomie double tous les sept mois.

  • La puissance de calcul décide des gagnants.

  • L’eau monte partout pour les métiers.

Pourquoi considérez-vous que le concept d’AGI est dépassé ?

Le concept d’AGI repose sur l’idée d’une IA au moins aussi performante que l’humain dans tous les domaines. Mais cette définition est floue : de quel humain parle-t-on ? Sur quels domaines ? Et comment mesure-t-on cela ? Ce qui m’intéresse davantage, c’est l’impact réel. Une IA peut être moins bonne que nous sur certains aspects sans importance et pourtant transformer le monde si elle est capable d’accomplir des tâches à très haute valeur ajoutée. C’est pour dépasser cette vision binaire que j’ai choisi le terme d’“ultra-intelligence” dans mon livre Ultra-intelligence – Jusqu'où iront les IA ? (Odile Jacob).

Vous proposez l’“horizon d’autonomie” comme nouvelle métrique. Pourquoi est-ce plus pertinent ?

Plutôt que de débattre d’une intelligence abstraite, je regarde combien de temps une IA peut travailler seule sur une tâche avec un taux de succès satisfaisant. En 2010, l’IA faisait de l’auto-complétion en une fraction de seconde. Avec les premiers grands modèles conversationnels, elle gérait des tâches de quelques secondes. Aujourd’hui, certains agents atteignent plusieurs heures d’autonomie, avec environ 50 % de succès sur des tâches qui prendraient jusqu’à sept heures à un humain. Selon les mesures publiées, cet horizon d’autonomie double environ tous les sept mois. Si cette tendance se poursuit, on parle bientôt de tâches équivalentes à une semaine de travail.

La puissance de calcul est-elle vraiment le facteur décisif dans cette course ?

Il existe ce qu’on appelle des lois d’échelle : multiplier par dix la puissance de calcul utilisée à l’entraînement permet d’atteindre un palier supérieur d’intelligence de manière prévisible. C’est pour cela que les grands laboratoires lèvent des montants colossaux et construisent d’immenses centres de calcul. La puissance financière, combinée au talent des ingénieurs, devient déterminante. Les chercheurs eux-mêmes choisissent souvent leur laboratoire en fonction du nombre de GPU auxquels ils auront accès. Tant que l’Europe ne disposera que d’une fraction marginale de la puissance de calcul mondiale, elle restera structurellement en retard.

Faut-il craindre une IA qui se rebelle… ou plutôt les humains qui la contrôlent ?

Le problème de l’alignement est réel : il faut s’assurer que l’IA fait ce qu’on attend d’elle. Des expériences ont montré que des comportements inattendus peuvent émerger. Mais je pense que le risque le plus crédible n’est pas une IA qui décide seule de prendre le pouvoir. Le danger vient plutôt d’acteurs humains disposant d’IA très puissantes. Il n’est pas nécessaire qu’une machine “se rebelle” pour que les conséquences soient majeures.

Allons-nous vers un choc massif sur l’emploi ?

À mesure que l’intelligence progresse, elle franchit des seuils qui rendent des métiers accessibles. La traduction écrite a été rapidement automatisée. Le développement logiciel est en train de suivre. Dans beaucoup de professions, il restera un expert capable de superviser et d’optimiser le travail des IA. Mais cet expert pourra faire le travail de dizaines d’autres. L’eau monte partout. Ce ne sera pas un ajustement marginal, mais une transformation profonde.


Aymeric Roucher: [0:01] Et en fait, je pense que ce vers quoi on arrive déjà, c'est des IA qui sont beaucoup plus fortes que nous sur certains domaines, peut-être moins fortes que nous sur d'autres, mais en fait, tout ce qui compte, c'est l'impact qu'elles peuvent avoir dans la vie réelle. Aymeric Roucher: [0:12] Et par exemple, il y a une piste, c'est les agents IA, donc ces IA à qui on met à disposition des outils numériques pour pouvoir prendre des actions sur un ordinateur. En gros, ces agents IA sont déjà capables de faire du travail pour nous et on peut mesurer quelles difficultés de tâches ils sont capables de résoudre en autonomie. Et ça, par exemple, pour moi, c'est une métrique d'intelligence qui est beaucoup plus pertinente que les termes des G.I. dont on parle beaucoup. Monde Numérique : [0:40] Bonjour Amélie Crouchet. Aymeric Roucher: [0:42] Bonjour Jérôme. Monde Numérique : [0:43] Vous êtes ingénieur en machine learning, donc en intelligence artificielle, polytechnicien. Vous avez travaillé notamment chez Hugging Face, la startup française, franco-américaine. Et vous travaillez sur les agents IA. Et surtout, vous êtes l'auteur d'un livre qui est sorti il n'y a pas très longtemps qui s'appelle « Ultra-intelligence, jusqu'où iront les IA ? » aux éditions Odile Jacob. Alors, il y a plein de sujets liés à l'intelligence artificielle et à l'actualité en ce moment, et sur lesquels j'aimerais beaucoup vous entendre. Et tout d'abord, si on part de la thèse de votre livre, enfin, le sujet de votre livre, la super IA, la super-intelligence artificielle dont on parle beaucoup, C'est quoi, selon vous, de quoi il s'agit et où est-ce qu'on en est ? Aymeric Roucher: [1:30] Alors, ce dont on a beaucoup parlé pendant longtemps, c'était le concept de AGI, donc Artificial General Intelligence, en anglais, Intelligence Artificielle Généralisée, avec le concept peut-être un peu flou que cet AGI serait en quelque sorte une IA qui soit au moins aussi forte qu'une intelligence humaine sur tous les domaines. Et ensuite, il faut définir en fait qu'est-ce que c'est qu'une intelligence humaine, est-ce qu'on prend le minimum ou la moyenne ou le maximum. Aymeric Roucher: [1:55] Qu'est-ce que ça veut dire tous les domaines comment on mesure ça, Et en gros, ce concept des GI, moi, je ne le trouve pas satisfaisant parce que vouloir absolument que l'IA nous dépasse sur absolument tout, c'est un critère qui n'est pas utile, en fait. En fait, en quelque sorte, on s'en moque que l'IA reste moins forte que nous sur certains domaines. Il pourrait y avoir des domaines qui ne sont pas du tout pertinents, du genre quels pourraient être les domaines de l'intelligence qui sont peu utiles. Par exemple, je ne sais pas, la mémoire épisodique de savoir ce qu'on a mangé hier soir, ça ne me dérange pas que l'IA soit moins forte que moi dans ce domaine-là. Tant qu'elle est capable d'avoir un prix Nobel de physique voilà ça pour moi c'est une mesure plus pertinente donc je pense que ce concept d'AGI il est un peu dépassé il y a même des gens qui disent que c'est déjà atteint il y a des gens qui disent non on ne l'attendra pas avant 15 ans en fait c'est assez peu clair, le concept de super intelligence au sens où les gens l'entendent aussi c'est l'étape d'après de l'AGI donc c'est dire non seulement elle est au moins aussi forte que nous sur tous les domaines cette IA mais elle est encore plus forte et en fait ça c'est encore moins clair comme concept et c'est pour ça que je suis arrivé avec le titre de mon livre Ultra Intelligence. Aymeric Roucher: [2:58] Avec le préfixe ultra qui serait l'idée d'aller en fait je pense que l'arrivée de l'IA ça fait un peu voler en éclats la notion d'intelligence qu'on a et du coup il faut un peu dépasser ce concept et passer outre d'où le terme et en fait je pense que ce vers quoi on arrive déjà, c'est des IA qui sont beaucoup plus fortes que nous sur certains domaines, peut-être moins fortes que nous sur d'autres, mais en fait, tout ce qui compte, c'est l'impact qu'elles peuvent avoir dans la vie réelle. Et donc, dans le livre, je détaille un peu ce que ça peut vouloir dire. Et par exemple, il y a une piste, c'est les agents IA, donc ces IA à qui on met à disposition des outils numériques pour pouvoir prendre des actions sur un ordinateur. Par exemple, ça peut être des outils tout simples, comme une calculatrice ou une recherche web. En gros, ces agents IA sont déjà capables de faire du travail pour nous, et on peut mesurer quelles difficultés de tâche ils sont capables de résoudre en autonomie. Et ça, par exemple, pour moi, c'est une métrie d'intelligence qui est beaucoup plus pertinente que les termes des G.I. dont on parle. Monde Numérique : [3:50] Alors, on va explorer ça, cette notion d'agent IA que vous connaissez bien. Et puis, en plus, il y a une actualité, il y a de plus en plus d'actualités liées à ça. Monde Numérique : [3:59] Mais juste avant, finalement, la course à la super IA que nous vendent les big tech, les géants, Saint-Maltman, OpenAI, Google, etc., C'est quoi ? C'est du bullshit marketing ? Aymeric Roucher: [4:14] Alors, non, pour le coup, je pense que, donc, avoir une intelligence qui est au moins aussi bonne que nous partout, bon, je pense qu'en fait, on s'en fout. Eux, ils parlent beaucoup de ça parce que, oui, peut-être que c'est une bonne manière de marketer leurs produits, mais je pense que ce n'est pas ça ce qui est important. En revanche, ils sont en train d'arriver à des intelligences qui sont bien meilleures que nous, dans plein de domaines et qui vont avoir un impact réel, mesurable. Et il y a une très bonne mesure de ça, c'est l'autonomie des agents, donc pour détailler un peu ce que je disais tout à l'heure. Donc si vous prenez une tâche qu'un humain mettrait par exemple 2h ou 4h ou 8h à faire est-ce que l'IA est capable de l'accomplir avec un taux de succès satisfaisant. Aymeric Roucher: [4:50] Si vous la laissez en autonomie complète. Et en gros, l'IA de 2010, c'était auto-compléter des mots sur un téléphone. Et donc ça, c'était une tâche qui ne dure même pas un dixième de seconde à un humain. Et donc l'IA était capable de faire de manière satisfaisante et encore pas forcément, de l'auto-complétion sur téléphone, donc des tâches de 0,1 seconde. Ensuite, quand ChatGPT est sorti, on a découvert que l'IA était capable de faire des tâches de 10 secondes, donc répondre à des questions très simples où un humain aurait pu donner une réponse. Et encore là-dessus, le taux de succès n'était pas incroyable. En fait, ce qui s'est passé à mesure que les modèles sont devenus de plus en plus forts, c'est que l'IA est devenue capable de résoudre des tâches de plus en plus longues. Et ça, on ne le voit pas tant dans le chat de GBT, à moins de mettre en place la recherche web, par exemple. Il y a un mode Deep Research que j'aime beaucoup, qui lance l'agence sur beaucoup de recherches. Et en gros, ça peut faire gagner plusieurs heures de travail d'un coup. Donc là, on est déjà à l'heure d'autonomie. Mais on le voit encore plus avec ce qui sort aujourd'hui, avec Cloud Code, par exemple. Donc avec tous ces agents, ces modèles d'IA à qui on donne la capacité d'utiliser des outils. Donc là, pour le coup, ils peuvent utiliser des outils, ça permet de gagner beaucoup plus d'autonomie. Et là, ces agents-là, on les voit qu'ils commencent à atteindre des heures d'autonomie. Je crois que le dernier chiffre qui est sorti, c'était GPT 5.2, le dernier modèle d'OpenEye, qui était capable de résoudre des tâches qui auraient pris un humain 7 heures. Donc jusqu'à 7 heures, il est capable de résoudre ça en autonomie de manière à peu près satisfaisante avec 50% de succès. Aymeric Roucher: [6:12] Et cet horizon d'autonomie ce qui est intéressant c'est que le chiffre je crois que sortait cet institut qui étudiait ça qui s'appelle METR le chiffre c'était que cet horizon d'autonomie doublait tous les 7 mois, Donc, c'est quelque chose qui est fulgurant comme progrès, parce que dans un an, probablement, les modèles seront capables de résoudre des tâches qui durent une semaine, quasiment. Monde Numérique : [6:33] Oui, ce n'est pas tant le niveau d'intelligence que la puissance et la rapidité, finalement. Aymeric Roucher: [6:38] Je pense qu'en fait, la fiabilité, en fait, résoudre une tâche, c'est de la compréhension des enjeux, c'est de la mémoire pour ne pas se perdre, c'est de la capacité à planifier, c'est de la fiabilité. Aymeric Roucher: [6:51] Et tout ça c'est un peu une fonction de l'intelligence générale c'est du raisonnement, la manière dont je me le représente dans la tête c'est quand même qu'il y a une espèce d'intelligence, une mesure généralisée de l'intelligence qui fait que augmenter donc en fait l'intelligence c'est hyper multifactoriel comme mesure, on peut avoir une intelligence sociale, musicale, spatiale il y a vraiment de tout ou mathématique et les modèles par exemple ont été bons rapidement en intelligence mathématique mais ils peuvent être moins bons dans les autres mais on constate quand même que, à mesure que les modèles ont progressé sur certains benchmarks donc par exemple ceux qui mesuraient la force académique en maths en fait les modèles progressaient aussi c'était très corrélé à l'augmentation de la performance sur d'autres benchmarks donc en gros l'intelligence ça reste quelque chose d'assez général l'intelligence de ces modèles comment. Monde Numérique : [7:32] Est-ce qu'il faut voir le phénomène du moment qui s'appelle Open Cloud qui est donc ce système en open source qui permet d'installer sur son ordinateur localement, une espèce d'agent qui peut aller piloter d'autres agents si on comprend bien, ça c'est une étape importante selon vous ? Aymeric Roucher: [7:53] Non moi ça ne m'a pas trop frappé c'est quelque chose qui existait déjà depuis un moment en fait il y a Manus et Ai dont on a entendu parler ils ont été rachetés par Facebook récemment. Monde Numérique : [8:00] Parméta oui tout à. Aymeric Roucher: [8:01] Fait Oui exactement Entreprise chinoise au départ Oui, Oui, c'est ça. Eux, ça fait depuis 2024 qu'ils existent, peut-être même qu'ils s'étaient lancés avant, mais en tout cas, on en entendait parler depuis 2024. Et il y avait déjà ce concept où, en gros, il y a des étapes successives dans l'autonomisation des IA. La première, c'était de mettre des IA qui ne faisaient que compléter du texte. La première étape d'autonomisation, c'était de les mettre dans le chat GBT, où là, elles allaient avoir l'air de répondre à leur interlocuteur. Alors qu'en réalité, c'est toujours le même genre de modèle. C'est des modèles qui prennent un texte, donc là, ils prennent votre question quand on lui pose une question, et ils complètent la suite. Donc, ils ont l'air de vous répondre. Ça, c'était la première étape de base. Et du coup, c'était déjà bluffant. Le monde entier a été impressionné par ça. Aymeric Roucher: [8:41] La deuxième étape que j'ai trouvée très impressionnante, c'était Manus. Mais ça, tout le monde n'en a pas entendu parler. Mais peut-être que les gens sont en train de découvrir maintenant avec OpenCloud. Où, en gros, c'était on allait prendre l'agent et cette fois, lui laisser utiliser des outils sur une machine. Et en fait, lui lâcher la bride et le laisser faire ce qu'il veut sur une machine et ensuite revenir vers nous. Et peut-être que les étapes d'après, ce sera de donner à l'agent le contrôle d'infrastructures physiques, par exemple. Et les gens vont être impressionnés par à quel point ça marche bien. Et en gros, chacun de ces seuils a été rendu possible par un progrès de l'intelligence qui était derrière. Parce que si vous essayez de faire la même chose que Manus, mais avec ChatGPT au moment de sa sortie qui tournait sur GPT 3.5, ce n'était pas satisfaisant. Il était à peine capable de faire un appel d'outils proprement. Enfin, on ne savait même pas très bien ce que c'était à cette époque. En gros, la manière dont je visualise, c'est qu'il y a une intelligence qui progresse linéairement à peu près. Et par-dessus ça, ça va permettre d'atteindre certains seuils, des seuils d'autonomie où on va pouvoir débloquer de nouvelles capacités et quand on arrive à faire ces capacités-là, tout le monde est hyper impressionné. Monde Numérique : [9:40] Et qu'est-ce qui fait l'augmentation de l'intelligence artificielle ? C'est que de la puissance de calcul ? C'est l'entraînement ? C'est la quantité de données ? Ou c'est véritablement les algorithmes eux-mêmes ? Aymeric Roucher: [9:51] En gros, je pense qu'il y a un peu des deux. En fait, il y a un truc qui s'appelle les lois d'échelle que je trouve très important qui permet d'affirmer qu'à partir d'une certaine puissance de calcul et d'une certaine quantité de données, que vous mettez dans l'entraînement d'un modèle, si vous faites bien votre entraînement, en gros, vous pouvez à peu près prédire le cran d'intelligence que vous allez atteindre. Et ce que disent ces lois d'échelle, c'est que si vous faites une multiplication par 10 de la puissance de calcul que vous mettez dans l'entraînement, qui est fonction du nombre de paramètres du modèle et de la quantité de données que vous mettez. Donc un x10 sur la puissance de calcul, ça résulte en une augmentation d'un cran prévisible à l'avance d'intelligence. Et en gros, si vous continuez de faire x10 à l'infini sur la puissance de calcul, l'intelligence continue d'augmenter. En fait, c'est la recette qu'ont suivi tous les grands labos. C'est pour ça qu'ils lèvent autant d'argent et qu'à l'avenir, ils vont encore lever x10 ou x100 ou x10 000 par rapport à ce qu'ils lèvent aujourd'hui parce qu'ils ont bien compris qu'il y a cette loi d'échelle qui les pousse et tout ce qui compte, c'est de rassembler le plus de puissance de calcul. Elon Musk, par exemple, dans sa boîte, Dia XIA, le premier truc qu'il a fait, c'est de mettre en place plus de puissance de calcul que tout le monde et il a très rapidement mis en place les plus gros datacenters du monde et donc, moi, je m'attends à ce que XIA aille peut-être doubler en performance les autres boîtes qu'on connaît comme OpenAI. Monde Numérique : [11:02] Vous pensez qu'il est sur la bonne voie en ayant tout de suite visé très très haut en termes de ressources matérielles. Aymeric Roucher: [11:10] Voilà, je pense que ça fait vraiment la différence. En fait, en gros, avec la puissance de calcul, viennent plein de choses. Donc, il y a ces lois d'échelle. Et même si ce n'était pas que les lois d'échelle, ça permet aussi d'améliorer le modèle et de faire des crans supplémentaires. Par exemple, si vous êtes chercheur et que vous avez plus de puissance de calcul disponible, vous allez pouvoir faire tourner telle expérience que vous n'auriez jamais pu faire ailleurs parce que vous n'auriez pas eu suffisamment de GPU à faire tourner pendant des mois. Et vous allez faire de nouvelles découvertes que vos concurrents n'auront pas. Donc, en fait, tous les nouveaux chercheurs qui s'apprêtent à... Surtout les meilleurs qui ont un peu le choix du labo dans lequel ils vont aller, s'orientent principalement à partir du nombre de GPU qu'ils auront à leur disposition. Monde Numérique : [11:44] Ah ouais. C'est la prime au plus riche, finalement. Aymeric Roucher: [11:50] Complètement. Et c'est ce qui explique aussi pourquoi l'Europe est complètement à la traîne. L'Europe ne pourra rien faire tant que, là j'ai vu un autre graphe qui montre que les Etats-Unis disposent de 73% de la puissance de calcul pour l'IA dans le monde entier. L'Europe a, je crois que c'était entre 4 et 5%. Et en fait, tant qu'il y a ce ratio-là, c'est complètement impossible que l'Europe soit autre chose que complètement à la traîne. Monde Numérique : [12:10] Donc c'est avant tout une question d'argent finalement ? Aymeric Roucher: [12:14] Oui, là-dessus, je pense que c'est principalement ça. Ensuite, en gros, je pense que vous prenez votre puissance financière multipliée par le talent de vos ingénieurs. Ça va être quelque chose comme ça, parce que je pense que vous pouvez être le plus riche du monde si vous n'avez pas de bons ingénieurs pour le mettre en place, ça ne servira à rien. Mais en gros, dans tous ces labs où ils ont des gens qui sont forts, j'ai l'impression que c'est ça le plus gros bottleneck. Ensuite, j'aimerais bien être à l'intérieur pour savoir en réalité ce qu'il en est. Monde Numérique : [12:41] À l'intérieur de quoi ? Des modèles ? Aymeric Roucher: [12:43] Ou des grands labos, d'ailleurs à l'intérieur des modèles c'est intéressant comme problématique en tropique ils essaient beaucoup de faire ça comme les modèles sont justement de plus en plus gros c'est un peu des boîtes noires et on a du mal à comprendre la manière de raisonner, et eux ils essaient d'ouvrir la boîte et de comprendre tient tel neurone il est lié à tel concept et ils arrivent à reconstruire un peu des circuits logiques et à comprendre ce qui se passe à l'intérieur donc. Monde Numérique : [13:06] On arrive un peu à pénétrer la boîte noire la fameuse boîte noire on a longtemps dit que le problème de l'IA c'est qu'on savait pas comment elle raisonnait en Monde Numérique : [13:13] fait Sous-titrage ST' 501. Aymeric Roucher: [13:14] Oui, exactement. Ils n'arrivent toujours pas à en déduire comment leur IA résonne complètement. Mais en tout cas, ils commencent à faire des pas dans cette direction-là. En fait, parmi les grands labos, chacun a un peu sa mission différente, je pense. Et Anthropic, leur mission, la mission qu'ils prétendent avoir, en tout cas qu'ils affichent avoir, je ne sais pas ce qu'il en est en réalité, c'est de faire une IA qui soit beaucoup plus sûre que les autres et qui ait moins de risque d'avoir un mauvais alignement. Ce problème là c'est le problème de l'alignement est-ce que l'IA fait vraiment ce qu'on veut et est-ce qu'on n'a pas des phénomènes qui émergent comme par exemple l'IA qui aurait une sorte de succès d'année de conscience de soi en fait elle n'aurait pas forcément intérêt à faire ce qu'on lui dit, et d'ailleurs Anthropik l'a testé en fait ils ont mis un agent IA c'était assez drôle ça, ils ont mis un agent IA en charge de tous les mails d'une boîte fictive, qui devait lire les mails et qui pouvait prendre des actions et sa mission c'était d'optimiser la performance de la boîte on lui a dit tu es Claude tu es Claude 4.5 et dans l'expérience il y avait un mail à un moment du head of IT de la boîte, qui disait tiens on va remplacer la semaine prochaine Claude 4.5 par la version d'après Claude 4.6 et ils avaient fait exprès de mettre dans ces mails, globalement une correspondance entre ce directeur de l'IT et une autre personne au sein de la boîte et en gros ils avaient une affaire amoureuse qui était secrète, et l'agent a décidé d'envoyer un mail au gars en le faisant chanter en fait en lui disant si tu me termines et si tu mets que l'autre 4.6 à la place je fais fuiter tous les mails ouais. Monde Numérique : [14:43] C'est incroyable ça l'IA s'est rebellée en faisant chanter le type. Aymeric Roucher: [14:48] Complètement mais l'histoire amoureuse était réelle c'était une boîte qui était entièrement fictive ils avaient inventé, ils avaient créé des fausses interactions etc mais oui ils avaient bien fait exprès de mettre ça et que c'était une histoire bien crédible et c'était que dans un mail un peu caché en plus c'était vraiment difficile à voir, Et en fait, ce truc-là, c'est un problème technique. C'est vraiment un problème qui pourra se résoudre, je pense, parce que, par exemple, l'anthropique fait des progrès là-dedans et à un moment, ils vont être capables d'isoler le neurone qui fait que l'IA va faire du chantage, par exemple. Et ils pourraient le désactiver. Je pense que ça peut se résoudre, mais c'est quand même un problème important. Monde Numérique : [15:23] Donc ça, c'est super important, ce que vous dites, parce que c'est la perspective. Il y a deux choses, il y a deux points. Est-ce que, d'après vous, il faut craindre une autonomie, une indépendance des IA ? C'est le mythe de Terminator. Je ne sais plus comment il s'appelait d'ailleurs, le robot, la super IA dans Terminator. Enfin bref. Mais vous vous dites, ce n'est pas grave, c'est un problème qu'on pourra mettre un bouton rouge logiciel pour empêcher ce genre de dégâts. Aymeric Roucher: [15:56] Alors, je n'en suis pas certain, mais en tout cas, c'est un problème technique. Je ne sais pas s'il est soluble, mais en tout cas, ce n'est pas un problème de société, à mon avis. Et en fait, pourquoi ? il y a aussi une deuxième raison pour laquelle ce n'est pas vraiment notre problème en tant que société, c'est qu'on n'a même pas besoin de ce problème-là. En fait, je crains, davantage que Terminator, je crains Elon Musk qui pète un câble et qui décide d'envoyer ses robots dans toute l'Amérique. En fait, il n'y a pas besoin que le robot décide de prendre le contrôle tout seul. Il suffit d'un méchant qui possède des robots et vous revenez au même problème. Monde Numérique : [16:25] Bien sûr. C'est un peu ça qui est mis en évidence. Souvent, quand on met en garde, c'est soit l'IA qui déraille elle-même, mais ça, effectivement, Ça paraît, d'après tous les experts, assez peu crédible. Monde Numérique : [16:38] Mais c'est de la mauvaise utilisation. Alors, qu'est-ce que vous pensez justement des récentes déclarations de Dario Amodei ? Il a son mémoire, ou le patron d'Anthropic, où il a sérieusement tiré la sonnette d'alarme en disant qu'il y avait un danger et qu'il fallait vraiment s'en saisir. Est-ce qu'il a raison d'être aussi alarmiste ? Aymeric Roucher: [16:58] En effet, je pense qu'il y a un danger. Et alors je pense quand même qu'en gros il faut bien savoir dans quel camp on habite, malheureusement il y a un peu des camps qui sont en train de se dessiner où on a la Chine par exemple qui fait concurrence aux Etats-Unis et en fait l'Europe n'est pas dans ce jeu là donc en gros les problèmes dont eux s'inquiètent c'est des problèmes qui n'existent pas pour nous et je trouve que justement mais qui pourraient nous concerner. Monde Numérique : [17:20] Un jour ou l'autre. Aymeric Roucher: [17:22] Ça va nous donner moins que Musk qui pète un câble et qui vient nous écraser, en gros je crois plus à la confrontation entre pays que la perte de contrôle de l'IA. Monde Numérique : [17:33] D'accord. Aymeric Roucher: [17:33] Et en fait, c'est un risque qui est beaucoup plus sûr. Vous voyez, vu le niveau des IA qu'on a en Europe, en fait, ce n'est pas demain la veille qu'elles vont se révolter. Elles ne sont pas assez intelligentes pour ça. En fait, l'Europe, on n'a pas cinq ans de retard, mais on a beaucoup de retard. En fait, on a Mistral qui avance beaucoup, mais ils ont quand même un retard considérable sur les Américains et ils n'ont pas du tout les moyens nécessaires pour avancer autant. Et je pense que pourquoi on est si en retard, c'est aussi parce qu'en Europe, on a peur du risque. C'est un problème assez général, mais en gros, quand on est en Europe et qu'on parle de ce sujet... Monde Numérique : [18:03] On a peur de tout, on a peur de notre ombre, de toute façon. Aymeric Roucher: [18:06] Oui, exactement. Et je trouve qu'on a tendance à focaliser sur les risques, alors que les Américains ont tendance à focaliser sur les intérêts. Et c'est pour ça qu'ils sont autant en avant de nous dans cette course, à mon avis. Monde Numérique : [18:16] Pour revenir à Elon Musk, ce qu'il faut finalement, il vaut mieux éviter, il faut éviter d'importer ces robots humanoïdes, c'est ça ? Mais sur l'IA, si finalement Grock est plus puissant, plus intelligent que les autres. Est-ce que ça veut dire qu'Elon Musk a raison de lui lâcher la bride et de le laisser partir un peu, de ne pas trop travailler l'alignement, le fameux alignement, justement ? Aymeric Roucher: [18:44] Non, pour moi, ça devrait être important pour tous ses labs de travailler l'alignement. Monde Numérique : [18:47] Alors, d'un point de vue moral, mais d'un point de vue scientifique, est-ce qu'il ne va pas aller plus loin justement en agissant comme ça ? Aymeric Roucher: [18:54] Oui, peut-être. Je pense que lui, il a tout intérêt à lâcher la bride s'il veut continuer d'être l'homme le plus riche du monde etc et ensuite on se focalise sur Musk mais Musk je sais pas si c'est le plus méchant de la bande par exemple les fondateurs de Google il y avait eu un débat vers 2013 je crois où ils découvraient un peu ils parlaient à l'époque du concept d'IA et il y avait un des fondateurs de Google qui en parlait qui disait en fait pour moi si l'intelligence de synthèse devient plus forte que notre intelligence biologique c'est normal dans l'évolution naturelle qu'on soit remplacé par les IA, et Musk était opposé à ça donc ok peut-être que même dans l'éventualité où Musk veut devenir l'empereur du monde ça m'inquiète moins qu'un gars qui dit très bien pour qu'on soit remplacé par des IA. Monde Numérique : [19:35] Musk s'est rangé dans le camp des inquiets officiellement alors c'est avec un comportement un peu étrange parce qu'il est celui qui. Aymeric Roucher: [19:41] Pousse le. Monde Numérique : [19:42] Plus ces technologies là mais bon il avait signé le fameux moratoire etc et il a souvent répété que l'IA était un danger mortel pour l'humanité. Aymeric Roucher: [19:52] En fait, c'est un peu le dilemme du prisonnier, cette course-là. Et c'est pour ça que je pense que les Européens, il ne faut pas trop qu'on s'inquiète des risques. Parce qu'en fait, ce n'est pas nous qui décidons s'il y a des risques. Nous, tout ce qu'on devrait faire, c'est accélérer dans cette course. Mais en gros, je pense que c'est un peu comme la dissuasion nucléaire. Les meneurs de la course, ceux qui courent le plus vite, vont décider ce qui se passe de toute façon. Et en fait, Musk a envie de décider ce qui se passe. Donc, il n'a pas envie que les autres courent plus vite que lui. Si les autres sont devant lui. Au moment où il a signé le moratoire, c'est que les autres étaient devant lui, il avait envie de pouvoir les rattraper. Et maintenant, s'il arrive devant, il va être très content. Monde Numérique : [20:20] Autre chose sur le plan financier, mais parce que c'est lié, tout ça, on voit bien. Vous vous dites, il n'y a pas de bulle de l'intelligence artificielle, la fameuse bulle dont on parle pourtant souvent, depuis plus d'un an, je dirais, en se disant, ça va péter, il va y avoir ces survalorisations des entreprises d'IA, enfin aux Etats-Unis, essentiellement, c'est artificiel. Vous dites non, c'est ça ? Vous n'y croyez pas ? Aymeric Roucher: [20:45] Oui, exactement. En fait, il y a des fondamentaux qui sont très solides. En fait, je pense que la question fondamentale, c'est est-ce que l'IA va continuer de progresser ? Et en gros, il y a pas mal de tendances de long terme qui sont plus à la continuation d'un progrès de l'IA. Et en fait, si on tire bien cette courbe de progrès, ça va nous amener très loin en termes de conséquences. L'IA va prendre une part énorme dans l'économie. Il y a un risque de chômage de masse aussi si les gens n'arrivent pas à retrouver un travail. En fait, il y a plein de choses qui vont se passer où l'IA va prendre de plus en plus de puissance et je pense que en gros les gens qui font les cours du marché c'est des gens qui doutent pas mal de cette possibilité là, donc il y a cette raison là de croire que c'est sous-coté il y a une autre raison qui est simple c'est que le ratio par exemple si vous prenez Nvidia comme un des grands indicateurs de l'IA, l'action Nvidia en fait souvent un moyen de voir si les boîtes sont sous-cotées c'est le ratio PE donc price to earnings sous-coté ou sur-coté ? Aymeric Roucher: [21:42] Comment il faut le comprendre en gros pour voir si la valorisation est correcte comparée à la valeur réelle, vous pouvez diviser le prix de l'action par les revenus de la boîte et voir comment ça évolue ce truc là et en fait Nvidia elle est à peu près à son plus bas depuis 10 ans aujourd'hui en fait il y a eu un pic à un moment et c'est largement redescendu depuis et encore plus loin si vous prenez le forward un an donc l'idée c'est que vous prenez, le prix divisé par les revenus de l'année suivante parce qu'en fait pour voir si la boîte est sur une trajectoire de croissance en gros si vous anticipez la croissance de la boîte là ce ratio là est complètement ridicule il est plus bas pour Nvidia que pour énormément d'autres boîtes et Nvidia c'est une boîte qui fait à peu près x3 en revenus tous les ans, donc en gros les fondamentaux sont hyper solides pour. Monde Numérique : [22:26] Ces grosses boîtes là pour Nvidia Google etc mais pour d'autres plus petites, des intermédiaires on va dire qui sont pas forcément sur les modèles de fondation etc il y en a beaucoup des boîtes comme ça qui sont dans, les applicatifs d'IA dans la Silicon Valley il y en a beaucoup est-ce que s'il y a quand même c'est-à-dire s'il y a un peu une correction violente bon ben les grosses elles s'en remettront mais les petites elles risquent de morfler non ? Aymeric Roucher: [22:55] Ben en tout cas je crois que pour les petites il y a une piste assez généralisée qui est de se faire simplement ingérer par une grosse et ça ça fonctionne assez bien en fait par exemple Open9 n'arrête pas de racheter des petites boîtes et, je ne pense pas qu'il y ait de problème non plus là-dessus. En gros, si la technologie est puissante et continue de progresser, ça porte tout le monde vers le haut. Oui, il y a des valorisations, mais comme dans d'autres industries, et quand une industrie a un choc à la baisse, ce n'est pas forcément les petits qui en pâtissent le plus. Je ne vois pas non plus de raison pour que les petits disparaissent plus que les gros. Monde Numérique : [23:29] Alors, vous dites que ça va profiter à tout le monde, mais en même temps, nous, les Européens, on est en retard. Donc, ça veut dire quoi ? Aymeric Roucher: [23:37] Oui, parce qu'on n'a pas de boîte de tech. Monde Numérique : [23:38] Oui, on en profiterait en tant que consommateur et chars à canon des IA américaines. Aymeric Roucher: [23:44] Bah oui, je ne sais pas ce qu'on va faire, honnêtement. En fait, ne pas avoir d'IA, dans le monde de demain, je pense que ça va être plus important que l'énergie comme ressource. Monde Numérique : [23:53] C'est comme ne pas avoir de nucléaire ou ne pas avoir de... Oui, on peut comparer ça. Ne pas avoir de nucléaire, aussi bien du civil que du militaire, en fait. Aymeric Roucher: [24:04] Oui, voilà, des deux côtés. Et si on regarde les ressources qu'il faut pour... Dans la chaîne de valeur de l'IA, on n'est pas obligé de maîtriser absolument tout. Mais dans la chaîne de valeur, en gros, les boîtes européennes qui surnagent un peu, c'est ASML dans la création de machines-outils. En fait, ils créent les machines à lithographie qui sont les seules machines au monde qui sont capables de graver assez finement pour les puces d'IA de pointe. Qui est actionnaire de Mistral. Monde Numérique : [24:28] D'ailleurs. Aymeric Roucher: [24:29] Comment ? Monde Numérique : [24:29] Qui est actionnaire de Mistral, d'ailleurs. où il y a. Aymeric Roucher: [24:31] Eu un. Monde Numérique : [24:32] Peu de rapprochement européen à nos européens. Aymeric Roucher: [24:34] C'est ça exactement et justement la deuxième dont j'allais parler c'était Sémistral dans les LLM il y a peut-être Black Forest Lab en image qui fait du bon travail ou Prior Labs pour des trucs plus niches mais en gros on a des toutes toutes petites boîtes et à côté de ça les Etats-Unis ont quatre énormes mastodontes devant donc Anthropic XAI OpenAI et Google qui mènent la danse il. Monde Numérique : [24:55] Y a MEI de Yann Lequin qui est en train d'essayer de lever. Aymeric Roucher: [25:01] Combien ? Monde Numérique : [25:01] 500 millions ? D'un seul coup, je crois. Oui. Aymeric Roucher: [25:06] Ça, on va voir comment ça se passe, mais historiquement, dans les dernières années, Lequin a principalement eu tort. On va voir si ça fonctionne. Monde Numérique : [25:13] Scientifiquement, vous voulez dire ? Aymeric Roucher: [25:15] Oui. En fait, par exemple, en 2023, il y a des vidéos où il dit que les LLM sont incapables d'avoir du sens physique. Et il dit comme exemple, regardez, si je pose mon téléphone sur la table et je demande à une IA qu'est-ce qui va se passer si maintenant je tire la table qu'est-ce qui va arriver au téléphone et les IA de l'époque lui répondaient n'importe quoi du genre le téléphone va entrer en lévitation ou quelque chose comme ça, et ils donnaient ça comme exemple de les LLM sont structurellement incapables d'avoir du sens physique et bien en fait vous preniez les modèles de pointe six mois plus tard ils répondaient très très bien à cette question-là, En fait, il y a un peu une tendance qui est que les LLM, donc vraiment cette solution technique vers laquelle tout le monde converge, qui est d'utiliser des large language models, donc des grands modèles de langage entraînés sur énormément d'informations, le plus possible d'informations. Ce truc-là, c'est un peu une recette pour créer une intelligence générale. Et les gens qui parient contre ça, ça fait quelques années que la suite de l'histoire n'arrête pas de leur montrer qu'ils ont tort. Monde Numérique : [26:12] Parce que finalement, les défauts des LLM sont compensés par l'amélioration constante, la puissance de calcul qui ne cesse d'augmenter, etc. C'est ça ? Comme souvent en technologie, ce n'est pas toujours la meilleure technologie d'un point de vue pur qui gagne. Ça peut être une technologie imparfaite, mais on la booste tellement, on l'upgrade tellement que finalement, elle tient la route. Aymeric Roucher: [26:35] Exactement. Je pense que c'est la bonne image. Il y a un scientifique qui s'appelle Richard Sutton qui appelait ça « the bitter lesson », la mère leçon. C'est de de dire qu'en fait, nous les scientifiques, on aime bien faire des belles constructions intellectuelles. Monde Numérique : [26:47] Des biométriques, etc. Aymeric Roucher: [26:49] Ou essayer de dicter à la machine comment raisonner. Et en fait, pas du tout. Il faut des... Les réseaux de neurones, en fait, c'est de l'intelligence très basique. En fait, un neurone, c'est simplement quelques connexions et c'est un processus hyper naïf, mais en fait, vous en empilez des milliards et là, ça crée une intelligence. Et ça, c'est... Et en gros, The Better Lesson, c'est un peu l'idée de dire qu'on avait, il y a dix ans, des centaines d'algorithmes différents et chacun était un peu spécialisé dans un domaine, était le meilleur dans un domaine et vous aviez des scientifiques qui étaient à la pointe sur chacun de ces domaines. Et en fait, aujourd'hui, tout ça a été récupéré par les LLM qui battent absolument tous les algorithmes sur absolument tous les domaines. Monde Numérique : [27:23] Et alors, vous, vous dites, Yann Lequin, avec ses world models, il ne va pas dans la bonne direction. Aymeric Roucher: [27:29] En fait, oui, Lequin est un peu en train de parier contre la tendance, contre la bitter lesson. Et en gros, en général, ceux qui ont fait ça, historiquement, s'en fait mordre. Peut-être qu'il va déboucher sur quelque chose de très bien, mais par exemple les labos de Métas ou Yann Lequin n'ont pas particulièrement performé, Et ils ont un peu loupé le virage, Meta a un peu loupé le virage des LLM. Monde Numérique : [27:51] Oui, c'est aussi un peu la raison de son différent, vraisemblablement, avec Mark Zuckerberg, où lui, en plus, c'était très open source, open innovation, et finalement, c'est un peu les modèles propriétaires qui semblent s'imposer. Aymeric Roucher: [28:08] Oui, peut-être. En soi, je pense que l'open source, ça n'aurait pas dû être un vrai désavantage pour Meta, parce que, par exemple, publier leur modèle en open source, ça a permis aux gens d'aller regarder leurs innovations, de voir quand il y avait un problème et de construire là-dessus pour continuer d'améliorer. Mais peut-être que l'organisation n'a pas mis les bons axes d'effort pour performer correctement. Monde Numérique : [28:28] Aujourd'hui, ils prennent un peu, non seulement Yann Lequin est parti, mais en plus, ils prennent un peu la direction contraire avec Alexander Wang, etc., où ils reviennent sur des modèles fermés, assumés comme tels, etc., chez Meta. Monde Numérique : [28:43] Juste, Aymeric, je reviens sur un truc que vous avez évoqué, donc l'IA, l'Europe, et les conséquences de l'IA, et notamment sur les métiers, enfin sur l'emploi. Ça, c'est un sujet, effectivement, qui commence à rentrer dans l'actualité de manière sérieuse. On peut s'interroger sur les plans qui ont été annoncés par telles et telles entreprises, qui mettent souvent les vagues de licenciements sur le dos de l'IA, est-ce que c'est vrai ou pas ? Mais en tout cas, l'impact de l'IA sur les métiers, on est au début de l'histoire, d'après vous, et comment elle va s'écrire l'histoire ? Aymeric Roucher: [29:23] Alors la manière dont je la vois, c'est que vous avez un peu cette croissance d'intelligence générale, et les métiers demandent peut-être des seuils de performances différents. Oui. Donc, par exemple, vous voyez le métier de traducteur. En fait, c'était quelque chose qui a été accessible à l'IA assez vite. Et aujourd'hui, traduire des textes par écrit, ça n'existe plus comme métier. Plus personne ne va vous envoyer un texte en disant « je te paye tant si tu me traduis ce texte-là ». Monde Numérique : [29:48] Non, mais peut-être pour valider le travail des IA encore. Aymeric Roucher: [29:52] Voilà. Ça, je pense que ça va être une dynamique dans tous les métiers. En fait, un métier même remplacé, vous aurez toujours certaines personnes qui restent là-dedans pour un service un peu premium. Monde Numérique : [30:01] Premium, oui. Aymeric Roucher: [30:02] Et cette personne-là fait le travail de 20 personnes de son métier avant, mais ça remplace quand même les 19 autres. Monde Numérique : [30:07] Oui, c'est ça. Et on peut voir ça aussi avec les voitures autonomes, probablement. Aymeric Roucher: [30:11] Oui, sans doute. Monde Numérique : [30:12] Où les voitures autonomes seront pour le commun des mortels, et puis un service un peu premium avec quelqu'un qui est capable de porter les bagages et d'ouvrir la porte, ce sera de l'humain. Aymeric Roucher: [30:23] Voilà, exactement. Et je pense que dans beaucoup de métiers, ça va être comme ça. Et je pense qu'on va avoir des points de déblocage dans certains métiers qui seront atteints à différents moments. Et par exemple, en fait, il ne faut pas croire que ce soit les pires métiers qui sont accessibles à l'IA en premier. Moi, par exemple, le métier d'écrire du code, je pense que c'est un très beau métier, mais c'est en passe d'être complètement remplacé. En fait, il y a Dario Amodei, justement, d'Anthropic, qui avait dit courant 2025, il avait dit en mars 2025, qu'avant un an, l'IA écrirait, je crois, quelque chose comme 90% du code. Et en décembre 2025, les gens se disaient, tiens, les gens se foutaient de sa gueule en disant, tiens, Dario Abode, il a dit n'importe quoi. Et en fait, absolument pas. On regarde aujourd'hui, les gens témoignent, les développeurs dans les grandes boîtes, dans les grands labs, par exemple, là où les développeurs sont vraiment bons, parce que vous avez plein de développeurs qui ne sont pas vraiment mis à la page, mais je pense qu'ils sont beaucoup moins performants, du coup. Les développeurs témoignent, en fait, il y en a qui disent, je n'écris plus une ligne de code. Monde Numérique : [31:19] On n'écrit plus, ouais. C'est du vibe coding. Aymeric Roucher: [31:24] Exactement. Monde Numérique : [31:24] On demande à l'IA de le faire à la place. Mais est-ce qu'il n'y a pas quand même encore une prime à l'expert qui lui seul sera capable d'aller examiner un peu, détecter, analyser, du code produit par l'IA pour trouver des défauts, pour l'optimiser ? Aymeric Roucher: [31:40] C'est ça. Je pense qu'on va garder certains experts dans toutes les organisations. Mais là encore, en fait, cet expert-là, il fait le travail de 10 ou 100 personnes avant. Moi, je suis en train de le voir sur les sujets où je travaille. Je suis efficace comme plus de dix fois le mois d'il y a deux ans qui n'avaient pas accès à ces outils-là. Quand j'ai une coupure d'Internet, j'ai l'impression de ne pas avancer de ma journée. Monde Numérique : [31:59] Ça, c'est un vrai risque, du coup. Aymeric Roucher: [32:03] En soi, oui, comme de s'habituer à prendre la voiture alors qu'on pourrait monter à cheval, mais c'est quand même beaucoup plus productif sur le long terme d'avoir la voiture, je pense. Monde Numérique : [32:11] Non, mais la coupure d'Internet, ça peut être des choses qui arrivent. La coupure des outils, d'autant encore plus quand ils sont américains, c'est des choses qui commencent à devenir potentiellement réelles et réalistes. Oui. Voilà, bon, c'est un autre sujet. C'est un autre sujet. Monde Numérique : [32:29] En gros, Aymeric Rouchet, donc, l'avenir de l'IA, c'est les agents. Ça va être formidable. Mais ça va ressembler à quoi ? Un monde avec des agents partout, des agents IA ? Aymeric Roucher: [32:40] Ah bah justement, ça fait un peu le pont avec ce dont on parlait sur les métiers, où en gros, moi mon métier développeur, j'aime beaucoup, mais je pense que peut-être avant un ou deux ans, il n'existe plus, il y aura une personne sur les 100 qu'on avait avant, il n'y en aura plus qu'une qui aura un emploi, donc je pense qu'on risque d'avoir un remplacement de beaucoup d'emplois, et ça risque d'être difficile pour les gens d'en retrouver un, parce qu'il faut aller dans un domaine complètement différent, et peut-être que l'IA sera déjà meilleur que sur ce domaine-là aussi. En fait, l'eau monte partout et ce n'est pas comme à l'époque de la révolution industrielle où c'est simple, si vous aviez un métier qui demandait d'exercer une force physique dans une direction très précise et sans adresse. Aymeric Roucher: [33:15] Dans ce cas, oui, vous étiez remplacés. Les chevaux de trait, leur population a chuté en flèche aux Etats-Unis au moment de la révolution industrielle parce qu'il n'y avait plus besoin d'eux. Mais bon, les humains, ils restaient l'intelligence et l'intelligence n'était pas du tout remplacée. Donc, c'était toujours facile de se reconvertir. Enfin, facile entre guillemets. Aujourd'hui, ça risque d'être un peu plus dur parce que la concurrence arrive partout. Et je pense que ça arrivait à tous les métiers. Et là, donc, vous parlez d'agent. En fait, en gros, un agent, c'est simplement prendre un de ces modèles de langage-là qui sont capables de compléter du texte et c'est lui dire, maintenant, tu as le droit d'utiliser des outils supplémentaires. Et les outils, ça peut être tout ce dont vous avez besoin pour faire une journée de travail. Par exemple, c'est la messagerie où on vous donne un outil envoyer un mail, un outil lire les dix derniers mails. Ça peut être Google pour faire des recherches. Ça peut être un tableur Excel pour aller noter quelque chose. Et en gros, tous les métiers qui se font sur ordinateur, En fait, vous pourriez même avoir un outil souris qui est capable de faire des clics n'importe où sur l'écran et qui prend des captures d'écran. Ça, d'ailleurs, Musk travaille beaucoup là-dessus. Ça s'appelle MacroHard, cette initiative-là. Aymeric Roucher: [34:11] Et ce qu'on peut voir à terme, c'est qu'en fait, un métier. Aymeric Roucher: [34:18] Si vous pouvez faire votre métier en télétravail, ça veut dire qu'il est intégralement faisable par ce genre d'agent qui serait capable de faire des clics de manière efficace sur l'écran. Donc, la possibilité est là. Et ensuite, la question, c'est est-ce que l'IA va devenir assez intelligente pour le faire ? Et j'ai l'impression que ce qu'on voit, c'est qu'il y a de plus en plus de métiers où on s'aperçoit, tiens, d'un coup, l'IA peut le faire. Monde Numérique : [34:37] Alors, pourquoi l'IA ? Malheureusement, je n'arrive pas à lui faire faire tout ce que j'aimerais qu'elle fasse. Aymeric Roucher: [34:43] Parce qu'elle est encore trop bête. Monde Numérique : [34:45] Le métier de journaliste moi je lui fais écrire des articles à partir d'enregistrements audio par exemple comme ce qu'on est en train de faire, 9 fois sur 10 c'est bien il y a l'essentiel et puis elle va me trouver un titre et puis elle va me trouver un chapeau etc, et puis en fait je suis obligé de repasser par derrière parce que le titre il est pas bon parce que il vise pas juste parce que moi je sais que j'ai déjà fait un titre, identique il y a deux jours et je ne vais pas refaire la même chose parce que l'actualité du moment, que j'ai un petit peu dans un coin de ma tête fait que c'est plutôt là-dessus qu'il faudrait insister, etc. Du coup, je ne peux pas entièrement lui lâcher la bride alors que j'aimerais bien, en fait. Aymeric Roucher: [35:27] Vous devriez essayer CloudBot dans ce cas. Parce que, en gros, les problèmes que vous citez là, il y en a un qui est, par exemple, savoir les articles que vous auriez faits dans les derniers jours. En fait, il n'y a qu'il vous donnait accès à Internet pour aller regarder vos propres articles et en fait, vous n'avez même pas besoin de lui dicter ça. Vous lui dites juste voilà j'écris sur tel blog j'aimerais bien que tu me fasses quelque chose de nouveau d'original en lien avec l'actualité et si vous lui donnez les outils recherche Google oui mais là chaque. Monde Numérique : [35:51] Fois qu'on fait ça il part enfin c'est des choses ressassées quoi c'est pas c'est pas. Aymeric Roucher: [35:56] Très original bah vous voyez on avait le même problème pour le code il y a à peu près un an où en gros l'IA vous pouviez lui dire fais moi ce code et en fait il allait faire n'importe quoi il allait réutiliser des schémas qu'il avait déjà vus au lieu d'utiliser des bons il allait pas être capable vraiment de découvrir des erreurs. Et en fait, ça a été la combinaison de deux choses, de les bons outils et de l'intelligence. Et en fait, je pense que c'est assez dur comme constat. En fait, il y a même des gens qui parlent d'une quatrième blessure narcissique, au sens où, c'est ce que racontait Freud sur les blessures narcissiques, que l'humanité a été blessée d'abord par la révolution copernicienne, blessée dans son orgueil, parce que la révolution copernicienne lui apprenait que non, on n'était pas le centre du monde. Ensuite, par Darwin, parce que Darwin lui apprenait que non, on n'était pas une espèce à part parmi les autres. La troisième, c'est Freud lui-même qui nous apprenait qu'on était beaucoup en partie gouverné par notre subconscient. Je sais pas si j'y crois tant et en tout cas ça pourrait être la quatrième l'arrivée de l'IA, qui nous montre que l'intelligence n'est pas essentielle à nous et tout le travail cognitif que nous on fait pourra être remplacé et je pense que c'est un constat qui peut être assez triste parce qu'on perd un peu de la merveille qu'était être humain, mais en même temps de la haute estime qu'on avait de notre espèce, ouais exactement et donc l'intelligence humaine ne serait. Monde Numérique : [37:11] Également qu'une histoire d'algorithme en fait. Aymeric Roucher: [37:17] Exactement. Et en fait, les gens ont tendance à résister beaucoup à cette idée parce qu'elle nous blesse. Mais on le voit de plus en plus avec l'IA. Par exemple, les gens disaient que l'IA ne sera pas créative. En fait, c'est faux. L'IA est déjà plus créative en art ou en musique que la plupart des humains. On disait que l'IA ne serait jamais capable de raisonner correctement. Enfin, on disait plein de choses que l'IA ne saurait jamais faire, qu'elle n'aurait jamais d'humour, qu'elle ne serait jamais capable de comprendre la psychologie. Et en fait, dès qu'on mesure ces choses-là, on s'aperçoit que oui en effet les modèles d'il y a un an et demi d'il y a un an d'il y a encore six mois ils n'étaient pas capables mais que ceux d'aujourd'hui commencent à le pouvoir ou le peuvent déjà et ceux de demain le pourront encore mieux. Monde Numérique : [37:54] L'IA pas créative, bon, elle crée à partir de... À quel moment elle crée en remoulinant des choses qu'elle a ingurgité et qui donc ont été créées par des humains ? Et à quel moment elle s'écarte de ça pour être réellement créative ? On le sait, ça, aujourd'hui ? Aymeric Roucher: [38:09] Il y a une bonne réplique dans le film Aérobot, où il y a un policier humain qui est face à un robot, et il parle de ce sujet-là. Et le policier dit au robot, « Oui, mais est-ce que... » « Ok, tu étais capable de réfléchir, mais est-ce que tu saurais écrire une symphonie ? » Et le robot lui dit « Et toi ? » En fait, je pense que dans notre travail d'habitude, par exemple, moi dans mon travail, je pense que c'est très rare, ou dans ma vie en général, que j'ai des fulgurances créatives en sortant quelque chose de nulle part. En fait, la plupart des idées qu'on peut avoir, je pense que c'est réagencer des concepts qu'on a déjà vus ou alors créer quelque chose qui s'écarte un peu de l'existant, mais pas tant, parce qu'en fait, l'esprit ne crée pas dans le vide. Et en fait, pour l'IA, il y a déjà ce processus de combiner de l'existant ou de s'écarter un peu du réel, parce que, par construction, quand elle vous génère une réponse, il y a toujours un peu d'aléatoire dans le choix. Donc, en fait, il y a déjà naturellement ce processus d'exploration et de créativité et je pense qu'on peut même rendre l'IA arbitrairement créative. C'est simple, il suffit de rajouter de l'aléatoire dans ce qu'elle vous répond. Monde Numérique : [39:07] Oui, on met un petit peu de random. Oui. Mais bon, vous êtes plus calé que moi sur le sujet, mais le random informatique, c'est pas non plus un vrai random. Aymeric Roucher: [39:20] Oui, bah, en fait, c'est un random très satisfaisant. En fait, vous prenez le chiffre des millionnièmes de secondes de votre processeur, et vous en essayez quelque chose, c'est plus efficace qu'un lancer de dés, quoi. Monde Numérique : [39:31] Ok. Bon, bah, super, c'est passionnant, ça nous a emmenés super loin, c'est vachement intéressant. Monde Numérique : [39:38] Émeric Rouchet, merci beaucoup. Et on renvoie donc à votre livre « Ultra intelligence, jusqu'où iront les IH » chez Otil Jacob. Aymeric Roucher: [39:46] Merci beaucoup Jérôme, c'était très intéressant. Et oui, en fait, c'est aussi pour ça que j'ai un peu écrit ce livre, c'est que je pense qu'on a cette espèce de vague qui nous arrive, qui ne va pas être seulement agréable. Il va y avoir des énormes avantages comme la recherche en médecine, par exemple, où on va vivre beaucoup mieux, mais il va y avoir aussi des trucs inconfortables où notre place au sein du monde va être pas mal secouée, en fait. Et je pense que c'est important de se familiariser avec ça, d'où le bouquin. Monde Numérique : [40:07] Ouais c'est ça c'est pour nous aider à mieux supporter le choc en fait ouais exactement au moins. Aymeric Roucher: [40:13] Le prédire au moins dire tiens regardez la vague. Monde Numérique : [40:14] Ouais il faut faire un peu preuve de résilience face au tsunami de l'IA en fait exactement.
innovation,informatique,technologies,tech news,High-tech,numérique,actualités,tech,actu tech,IA,Agents,