Monde Numérique :
[
0:01] Les mots de la tech, avec un terme encore peu connu du grand public,
Monde Numérique :
[
0:05] mais qui est pourtant apparu avec force en 2025, « Doomer ». Les Doomers, ce sont ceux qui considèrent que les technologies actuelles, en particulier l'intelligence artificielle, représentent un risque majeur pour l'humanité. Alors, le terme n'est pas nouveau, il date de 2010. Mais cette année 2025, les discours des Doomers ont gagné en visibilité sur les réseaux sociaux, dans certains cercles académiques. Et puis notamment parmi des figures influentes de la tech comme le britannique Geoffrey Hinton ou le canadien Joshua Benjot, d'éminents spécialistes de l'intelligence artificielle qui mettent en garde contre les conséquences de cette vague qui arrive.
Monde Numérique :
[
0:44] « Doomer », ça vient du mot anglais « doom » qui signifiait à l'origine « jugement » ou « sentence » puis « destin », « fatalité » et aujourd'hui, par extension, « catastrophe ». Tout est dit, les « doomeurs » sont des « inquiets ».
Monde Numérique :
[
0:56] Celui qui est dans le Doom, c'est celui qui est habité par l'idée d'une catastrophe inévitable. Alors que craignent ces doomeurs par rapport à l'IA ? Eh bien d'abord, son impact sur la société, la disparition des emplois, voire la fin du travail, comme le prédisent certains, la manipulation de l'information, etc. Et tout ce qui pourrait en découler en termes de déstabilisation des sociétés, des menaces tangibles bien réelles dès aujourd'hui que l'on mesure au quotidien. Et puis, les plus inquiets évoquent aussi des scénarios catastrophes extrêmes, comme la perte de contrôle de l'humain face à la machine, avec le risque de l'avènement d'une IA toute puissante à la Terminator, ce qui signifierait ni plus ni moins la fin de l'humanité. Il y a les risques inhérents à l'IA, peut-être les débuts d'une forme d'autonomie de la machine, voire de conscience, et puis les risques sans doute plus réalistes de l'utilisation malveillante de ces technologies, par exemple en cybercriminalité ou à des fins guerrières. Bref, le spectre du dooming est large. Il va du technophobe catastrophiste au lanceur d'alerte, en passant par l'éveilleur de conscience. On en parlait dès 2024 dans Monde numérique, avec l'un des plus célèbres représentants
Monde Numérique :
[
2:08] de cette tendance, le professeur québécois Yoshua Bengio.
Invité :
[
2:11] Il y a un constat qui est que la science de l'IA, la science, ne sait pas répondre à la question, Comment est-ce qu'on pourrait construire des IA qui seraient éventuellement aussi intelligentes ou plus intelligentes que nous et qui ne se retourneraient pas contre nous, qui agiraient dans un sens moral, qui ne créeraient pas des catastrophes, soit entre des mauvaises mains ou de leur propre chef?
Invité :
[
2:38] C'est quand même une question importante et on continue à foncer dans cette direction sans avoir la réponse. Donc ça, c'est une question scientifique. C'est quel genre d'algorithme, quel genre de mathématiques, quelle genre de manière d'entraîner peut-être nos réseaux de neurones ferait en sorte qu'on puisse avoir des garanties les meilleures possibles pour éviter des catastrophes. Un peu comme si on pose la question, bon, on voudrait construire une centrale nucléaire qui donnerait de l'énergie à bon marché, qui serait très utile, mais est-ce qu'on se pose la question de qu'est-ce qui pourrait arriver de dangereux et comment faire pour construire les garde-fous et obtenir les garanties le plus fort possible mathématiques dont ça ne nous pètera pas dans la gueule au moins d'ici un million d'années? Pour l'instant, on n'a pas ce genre de réponse pour l'IA. Tant que l'IA n'est pas trop puissante, ça peut encore aller, mais plus elle devient capable et plus les dangers augmentent. Et si à un moment donné, ça dépense la capacité humaine dans les domaines suffisants, alors là, le danger est extrême.
Monde Numérique :
[
3:45] Face aux Doomers, d'autres se veulent plus rassurants et prônent une approche plus équilibrée face à l'intelligence artificielle, loin de toute fascination naïve, mais sans peur systématique. Et eux aussi ont un petit surnom, on les appelle les bloomers. Leur pensée pourrait se résumer ainsi. Bon ben c'est difficile,
Monde Numérique :
[
4:05] mais on va y arriver, on peut améliorer les choses. Le clivage doomers-bloomers peut aussi se retrouver à propos d'autres grands sujets inquiétants comme le climat ou l'avenir du numérique en général. Un débat qui ne s'arrêtera donc certainement pas en 2026. Merci d'écouter Monde Numérique cette année encore. Très bonne nouvelle année pleine de tech.