📆 L’HEBDO 16/08 – GPT-5 : le bide de l'été ?
Maison Connectée16 août 202558:53

📆 L’HEBDO 16/08 – GPT-5 : le bide de l'été ?

Pas au niveau, pas assez servile, imposé de force... Lancé en fanfare le 7 août 2025, GPT-5 peine à convaincre et se heurte même, quelques jours à peine après sa sortie, à une vive opposition de certains utilisateurs pour différentes raisons.

💡 En partenariat avec Frogans, l’innovation française qui réinvente le Web

🤖 GPT-5 : lancement raté pour la "cinquième merveille"

Il devait révolutionner l'IA générative avec son niveau "digne d'un titulaire de doctorat". Mais c'est plutôt le bide. GPT-5 suscite rejet et énervement. Bugs, mauvaise communication et disparition temporaire des versions précédentes... Les utilisateurs ne décolèrent pas et multiplient les reproches.
• Principal reproche : la suppression de GPT-4 Turbo au profit de l'unique GPT-5 suscite la colère des utilisateurs réguliers.
• OpenAI est obligé de réagir et annonce immédiatement des aménagements.

🧨 Grok, l’IA rebelle de Musk, mise en pause

Grok, l’intelligence artificielle d’Elon Musk, a été brièvement suspendue de X pour des propos jugés politiquement sensibles. L’affaire, très médiatisée, relance le débat sur la liberté d’expression algorithmique et l’idée — fantasmée ? — d’IA qui échapperaient à leurs créateurs.

⚖️ Musk vs Apple : guerre d’IA sur l’App Store

Elon Musk accuse Apple de favoriser ChatGPT sur l’App Store au détriment de Grok, tandis qu'OpenAI contre-attaque avec une plainte pour harcèlement contre Musk. Cette double confrontation judiciaire illustre les tensions croissantes autour du contrôle des plateformes d’IA.

🍏 Siri va-t-il enfin devenir intelligent ?

Apple préparerait une refonte majeure de Siri, intégrant une IA plus puissante capable d’interagir profondément avec les apps de l’iPhone. Une évolution attendue de longue date pour rendre l’assistant vraiment utile dans l’écosystème Apple… et au-delà.

🎯 Luc Julia, cible d’un lynchage numérique

Une vidéo virale accuse Luc Julia, co-créateur de Siri, d’usurper son expertise en IA. Exceptionnellement, je sors de ma réserve pour dénoncer une attaque injuste et non journalistique, alimentée par les réseaux sociaux, car il s’agit de défendre la légitimité d’un acteur-clé du débat technologique.

Les interviews de la semaine – Rediffusions

🎙️ Arnaud Fournier (OpenAI) : les enjeux de l’IA conversationnelle et les limites à poser.

🎙️ Clément Delangue (Hugging Face) : pour une IA ouverte, transparente et souveraine.

🎙️ Marjolaine Grondin (Bootcamp IA) : l'IA au quotidien du point de vue pratique

🎧 Ecoutez sur votre app de podcast


Monde Numérique : [0:11] C'était pourtant bien GPT-5, la cinquième merveille du monde, Monde Numérique : [0:15] selon OpenAI, lancée en fanfare la semaine dernière. Mais patatras, faux départ, des imperfections techniques, des erreurs marketing. Monde Numérique : [0:23] Mais est-ce qu'on n'attend pas un peu trop des chatbots d'intelligence artificielle ? Voilà, on en parle cette semaine dans ce nouvel épisode de Monde Numérique. Monde Numérique : [0:35] On se penche également sur le cas Grok, L'IA d'Elon Musk a-t-elle échappé à ses créateurs qui auraient tenté de la débrancher pour des propos politiquement incorrects ? Alors, ce n'est pas si simple, mais là encore, ça en dit long sur nos rapports aux intelligences artificielles, des rapports qui deviendraient presque un peu inquiétants. Luc Julia, le spécialiste français de l'IA au cœur de la tourmente. Une vidéo l'accuse d'imposture. Que faut-il en penser ? Dans cet épisode de l'hebdo, je vous explique pourquoi il ne faut pas céder à ce qui ressemble à une véritable tentative de lâchage numérique par les réseaux sociaux et via YouTube. Voilà, on parle de tout ça dans le débrief transatlantique avec Bruno Gugliel-Minetti. Et puis du côté des interviews de la semaine, spéciale IA encore, comme d'habitude, avec plusieurs rediffusions d'entretiens, c'est les vacances. On réécoutera Arnaud Fournier, représentant d'OpenEye en France, qui nous explique la vision de l'IA du leader américain. Autre poids lourd du secteur, la start-up Hugging Face avec le français Clément Delangue. Enfin, on va parler d'IA pratique avec les retours d'expérience et les bons conseils de l'entrepreneur Marjolaine Grondin. Invité : [1:51] Monde numérique, Jérôme Colombain. Monde Numérique : [1:56] Bienvenue à l'écoute de Monde Numérique, l'hebdo spécial été du 16 août 2025. Ravi de vous retrouver pour ce nouvel épisode. Alors c'est l'été, mais Monde Numérique est sur le pont, comme d'habitude, pour vous accompagner pendant vos vacances, pour que vous ne râtierez rien de l'actu tech. Comme chaque samedi, 50 minutes de news, de talks, d'interviews consacrés aux meilleurs de la tech. La semaine prochaine, attention, pas de Monde Numérique, pas d'hebdo en fait. Un peu de vraies vacances pour changer et on se retrouvera bien évidemment le 30 août pour la rentrée de l'hebdo de Monde Numérique. Mais d'ici là, plein d'épisodes. Et puis surtout, tout de suite, c'est parti pour un nouveau rendez-vous avec mon camarade Bruno du podcast Mon Carnet à Montréal. Et allez, c'est parti pour le débrief transatlantique en plein été. Salut Bruno Guilleminetti à Montréal. Invité : [2:50] Salut Jérôme Colombain, quelque part sur la planète. Monde Numérique : [2:53] Oui, je suis au soleil cette semaine. Invité : [2:56] Je sais tout, je te retrouve d'une fois à l'autre. Monde Numérique : [2:57] Oui, je suis en Grèce cette semaine, je vais tout te dire. Voilà, tu sais tout. Je suis face à la mer, on ne va pas se plaindre. Et je suis ravi de te retrouver. Invité : [3:06] Tu fais de quoi, des réflexions technologiques, philosophes ou technologiques? Monde Numérique : [3:10] Absolument, je viens prendre un peu de recul et de sérénité dans la... Take a break in the rush, you know ? Invité : [3:18] Oui, oui, tout à fait, je te fais du set. Monde Numérique : [3:21] Non, c'est important de se ressourcer comme ça, dans une ambiance calme et sereine. Mais l'actu ne s'arrête jamais, et donc nous sommes là pour la raconter, et si possible même la décrypter et en débattre pour nos auditeurs adorés. T'as vu cette belle intro. C'est beau. C'est magnifique. Bon, je te propose... Invité : [3:43] On sent des gens que le calme en toi. Monde Numérique : [3:45] Oui, exactement. Je suis devenu philosophe depuis que je suis en Grèce. Bon, mais il faut qu'on parle d'intelligence artificielle. On a plein de sujets sur le feu. Et d'abord, alors, c'est quand même étonnant parce que la semaine dernière, on annonçait en fanfare la sortie de GPT-5. Et puis là, patatras, en fait, ça s'est très mal passé, si j'ai bien compris, pour OpenAI. Est-ce qu'on peut dire d'après toi qu'ils ont en quelque sorte raté leur lancement puisqu'il y a énormément de critiques sur ce GPT-5? Invité : [4:14] Oui, et c'est bête. Ils ont raté la sortie, selon moi, tout simplement parce qu'il y a un exercice de communication qui a été mal fait. Pas nécessairement celui d'annoncer GPT-5 et pas nécessairement dans le GPT-5 lui-même, mais beaucoup plus sur le fait qu'il y a des gens, des apôtres de OpenAI, notamment sur Reddit, qui se sont sentis lésés parce qu'on a annoncé l'arrivée de GPT-5, mais on n'a jamais parlé du retrait de version antérieure. Et c'est là où il y a des gens qui se sont fait prendre de cours parce qu'on prend ses habitudes. Moi, le premier, j'étais habitué de travailler avec certaines versions pour faire différentes choses. Puis là, du jour au lendemain, tu te retrouves avec GPT-5. Monde Numérique : [4:58] C'est tout. Invité : [4:59] Dis-lui ce que tu veux et lui va réfléchir à quel outil, quelle version il va prendre. Alors évidemment, ça a pris beaucoup de gens de cours, puis c'est devenu tellement intrinsecte dans la vie de bien des gens que c'est presque comme si tu leur avais fait violence. Et là, la première réflexion qu'ils ont faite, puis la première communication qu'ils ont dit, bon, je me désabonne, je m'en vais, je m'en vais utiliser autre chose. C'est pour te dire comment c'est devenu sensible cette histoire-là, comment les gens l'utilisent, ça devient personnel. Et là, ils ont dû pédaler et revenir en arrière. Monde Numérique : [5:34] Oui. Alors, c'est amusant parce que tu dis que toi, tu utilisais tous les différents modèles et donc tu fais partie de ces gens qui auraient pu être gênés par la disparition du petit 4e, enfin toutes les versions. Et moi, pas du tout. Moi, c'était l'inverse. Moi, franchement, je peux l'avouer, je ne savais jamais quel modèle j'utilisais. Je prenais le modèle par défaut. Enfin, j'ai toujours pris le modèle par défaut. Et au contraire, je pensais que vraiment ce qu'on pouvait attendre et ce qu'il fallait attendre d'un chatbot comme ça, c'était que de ne pas avoir à se soucier de quel outil on va utiliser c'est-à-dire que voilà, on va aller d'un point à un point B moi quand je prends un billet d'avion je, bon, en général je ne regarde pas quel type d'avion c'est tu vois, je prends ce qu'on me donne, alors bon, parfois tu as un peu des préférences tu vois, quand l'actualité te montre des choses, avec certaines, pas certaines compagnies, mais enfin avec certains constructeurs, bref non mais, je ne sais pas si l'exemple est bon mais tu vois ce que je veux dire. Voilà. Donc, moi, je n'étais pas concerné par ça. Après, on peut comprendre que ça a choqué certaines personnes. Donc, apparemment, OpenAI, même ça, Maltman lui-même a pris la parole, il me semble. Invité : [6:42] Oui, tout à fait. Ils ont communiqué très bien. Ça, ça a été habile. Ils ont fait de la gestion de crise et ils sont venus en disant, bon, bien, on a compris le message, alors on va vous ramener les versions précédentes, mais seulement aux utilisateurs payeurs. Ça, c'est très habile aussi. Donc, ils vont peut-être obliger certaines personnes à s'abonner. Mais non, moi, j'ai trouvé qu'ils avaient bien pris la balle au bon, mais ça a quand même fait de l'ombre à la sortie. Je pense qu'ils n'avaient pas besoin de ça. Ils avaient déjà assez de travail pour s'assurer que ça n'allait pas coincer dans différents endroits. Mais somme toute, moi, je vais dire, ça fait une semaine que j'utilise GPT-5. Je suis assez content. Monde Numérique : [7:24] Voilà, c'est ça. Franchement, est-ce qu'il est meilleur ou est-ce qu'il est moins bon ? Parce que ça aussi, ça a été évoqué, et c'est peut-être plus grave, c'est qu'il a des défauts, il aurait des défauts. Alors moi, je ne les ai pas constatés, sauf une fois ou deux, il réécrivait des présentations d'épisodes de podcast, et il m'a inventé un invité. Et il m'a pris le prénom et il était allé me chercher un autre invité qui n'était pas le bon. Alors qu'il travaillait à partir de la retranscription de l'épisode, donc c'est n'importe quoi. Je n'avais jamais eu ce problème-là. Est-ce qu'il y a eu d'autres problèmes de ce genre ? Invité : [8:02] Ça, c'est surprenant. Monde Numérique : [8:05] C'est surprenant. Il ne faut pas en tirer de conclusions hâtives, mais il y a quand même eu des critiques sur le fait qu'il n'était pas forcément meilleur. Déjà qu'il était plus long parce qu'il a ce mode qui s'appelle le thinking, c'est-à-dire qu'il te dit ce qu'il va faire, il est plus profond par nature, donc c'est plus long, etc. Il y a une chose aussi que j'ai notée, Bruno, c'est que, est-ce que tu as vu ces commentaires de gens, et c'était un article dans The Verge, je crois, le site américain spécialisé, qui, des gens qui se plaignaient du fait qu'il était moins servile, il était moins courtois, il était moins brosse à reluire, et en fait, on en parlait la semaine dernière, on s'est dit, c'est super, il va être moins flagorneur. Et c'est fou parce qu'il y a des gens, en fait, qui déplorent justement qu'il ait un ton plus neutre, parce qu'ils aimaient bien se faire flatter par Tchadjipiti. Mais c'est exactement ça. Ils aimaient que Tchadjipiti leur dise « Oh, mais quelle formidable bonne question ! » Et tu leur enlèves ça, tu leur mets un truc beaucoup plus froid, et bien ils se sentaient abandonnés par Papa Tchadjipiti, quoi, en fait. Invité : [9:12] Ah, c'est faux. Mais je veux revenir sur un truc que tu disais. Quand tu disais que toi, tu étais un généraliste, tu utilisais la version par défaut et ça arrivait à ton affaire, j'ai l'impression, moi, qu'il y a énormément, si ce n'est pas dire, la majorité des gens qui faisaient de la sorte, ce qui faisait en sorte qu'on utilisait toujours le canneffe suisse qui est très puissant pour faire des tâches qui auraient pu être faites par des modèles moins gourmands. Et j'ai lu à quelque part, mais je ne me souviens plus c'est où, mais ce n'est pas de moi, que GPT-5, dans le fond, c'est moins de l'innovation et quelque chose de mieux, mais c'est plus un outil qui maintenant sait gérer les requêtes, qui peut maintenant mieux gérer les outils. Et donc, j'allais dire, pas afficher, mais donner telle requête à tel outil en arrière. Évidemment, ça se fait de façon transparente. Et donc, d'économiser en bout de ligne de l'énergie, du temps machine pour faire des tâches où on n'a pas besoin systématiquement du gros outil de GPT et que des petits outils derrière peuvent faire la tâche. Alors, j'avoue que ça, j'ai trouvé ça assez intelligent de leur part. Monde Numérique : [10:26] Bien sûr, mais c'est ça qu'on attend d'un outil comme ça aujourd'hui, il me semble. Et on ne va pas se prendre la tête. Pour certaines personnes, notamment des développeurs qui déploraient l'histoire des modèles, la disparition des modèles spécifiques. Mais sinon, voilà, moi, je pense que c'est ça. On attend le meilleur et au meilleur prix et au meilleur impact environnemental, en fait. Avant de passer à la suite de Monde Numérique, un mot d'une technologie innovante qui permet de diffuser du contenu d'une manière complètement nouvelle sur Internet, en dehors du cadre d'un navigateur, il s'agit de Frogans, partenaire de Monde Numérique. Frogans permet de créer des sites légers, fonctionnants sur tous les appareils, quel que soit le système d'exploitation, ordinateur, tablette, casque de réalité virtuelle, etc. Frogans est une technologie libre et ouverte qui repose sur un protocole technique entièrement nouveau, sécurisé et respectueux de la vie privée. Frogans fait actuellement l'objet d'une offre de titres qui vous permet d'acquérir, si vous le souhaitez, des parts de la société F2R2 à l'origine de cette innovation. Pour mieux comprendre à quoi ressemble Frogans, retrouvez mon interview du cofondateur Alexis Tamas en audio sur le fil de ce podcast ou en vidéo sur la chaîne YouTube de Monde Numérique. Et pour tout savoir sur Frogans, rendez-vous sur le site f2r2.fr. Invité : [11:52] Je t'arrête tout de suite. Moi, je veux t'entendre sur un autre sujet pendant qu'on parle d'IA. Tu as vu cette semaine toute cette polémique autour de Grok qui a été débranchée parce que, semble-t-il, il disait des bêtises? Monde Numérique : [12:06] Oui, c'est un peu fou. Donc, effectivement, on a pu voir ça sur X. Tout d'un coup, Grok, qui est quand même l'IA maison, propriété d'Elon Musk, avec son compte suspendu comme n'importe quel internaute qui aurait dit des bêtises ou en tout cas qui aurait violé les règles du réseau social. Et alors apparemment, c'est parce qu'il avait posté des messages. Alors ça concerne évidemment, c'est un sujet qui est hyper chaud, qui est hyper douloureux, c'est la situation à Gaza. Donc il aurait posté des tweets qui en gros n'étaient pas sur la ligne géopolitique américaine qui évoquait la thèse du génocide à Gaza, avec la complicité même des États-Unis, etc. Donc ça a suscité beaucoup de réprobations, au point que les gens de Hicks sont intervenus, et ils l'ont même débranché pour faire une espèce de mise à jour, un réalignement, comme on dit. Et alors ça, mais bon, il y a ce sujet, et moi ce que je trouve fou, c'est l'ampleur que ça a pris, et y compris dans la presse généraliste, où on a eu l'impression tout d'un coup que, eh bien oui, l'IA avait pris le pouvoir et qu'il fallait que les humains interviennent pour éviter qu'elles disent des choses qui déplaisent à certains humains, etc. Invité : [13:21] Quand même. Monde Numérique : [13:22] Mais ce qui est fou, Bruno, si je peux ajouter un mot, c'est que, moi, il y a deux choses qui m'ont marqué. C'est d'abord des articles dans la presse, mais la presse sérieuse, la presse française, Libération, le Parisien, etc., où on insistait sur ce côté, encore une fois, sur l'idée de l'IA qui échappe à ses créateurs d'une certaine manière. Et je trouve que ça aussi, c'est révélateur parce qu'on sent que les auteurs de ces articles n'y croient pas forcément, mais c'est tellement sympathique de raconter des histoires où on parle d'IA qui échappe à leurs créateurs. Donc ça, premier truc. Mais franchement, on pourrait s'en passer de ce genre de papier en 2025. Je crois qu'il faut arrêter de fantasmer de cette manière. Et deuxièmement aussi, ça révèle la confiance des utilisateurs de X, qui n'arrêtent pas de poser des questions à Grok, alors c'est parfait, pour vérifier des données, sauf que parfois ils sont déçus parce qu'en fait Grok va leur dire le contraire de ce qu'ils pensaient et à l'inverse, très souvent, en fait, ils sont confortés dans leur certitude parce que le problème, c'est que c'est une IA, ce n'est pas quelqu'un, ce n'est pas une autorité qui dit la vérité, la vérité vraie, et on ne sait pas exactement sur quoi elle se base pour dire telle ou telle chose. Souvent, ce qu'on constate, c'est quand même elle s'adapte au profil de la personne qui pose la question donc en gros elle dit ce que tu as envie de dire mais ben voilà c'est l'espèce de confiance qu'on fait une confiance à outrance à cette créature qui n'en est pas une en fait. Invité : [14:49] Et puis, tu vois, parallèlement, il y a une autre IA qui a fait parler d'elle cette semaine dans ce contexte-là. Et un des utilisateurs qui a été embêté, c'est Donald Trump lui-même. Parce qu'avec son IA, True Search AI, qui est maintenant sur son réseau True Social, ils sont un peu embêtés parce que là, l'IA ne dit plus du tout la même chose. n'a jamais dit la même chose que le président lui-même. Et donc, il y a des gens qui sont amusés à interroger through Search AI pour savoir différentes informations, en tout cas pour valider certaines informations. Et l'IA, de son côté, a dit, et contrairement à ce qu'Adore Donald Trump affirme, que l'élection 2020 n'avait pas été volée, que les tarifs douaniers sont une taxe pour les Américains et que Barack Obama bénéficiait de la meilleure code de popularité parmi les présidents vivants. Genre de truc d'affirmation, évidemment, qu'ont fait réagir Donald Trump et son entourage. Et j'ai bien hâte de voir combien de temps elle va encore rester branchée, cette IA-là, parce que j'ai l'impression que ça ne fait pas du tout la faible. Il faut savoir que c'est une technologie qui avait été développée par Perplexity. Alors, j'ai l'impression qu'il y a des clients qui vont peut-être y repenser avant de faire affaire avec eux. Monde Numérique : [16:02] Non mais c'est incroyable c'est un, la place que prennent ces outils et notamment sur les réseaux sociaux on ne l'avait pas forcément vu arriver et deux, l'espèce de trouble dans lequel ça plonge les utilisateurs quels qu'ils soient, je pense qu'il faut prendre quand même un peu de recul par rapport à tout ça, c'est très intéressant l'IA y compris pour faire du fact-checking mais il faut toujours prendre du recul il faut avoir ses propres connaissances pour comprendre, savoir en gros comment dire trier le bon grain de l'ivraie on va dire dis-moi en matière de tiens en ce qui concerne, notre ami Elon Musk puisqu'on est sur X est-ce qu'on dit un mot de ce bras de fer enfin en tout cas de ce torchon qui brûle entre Elon Musk et Tim Cook à propos justement de Grok sur l'App Store ? Invité : [16:54] En tout cas, ça tient les juristes occupés parce que, d'une part, il y a ces accusations que Elon Musk porte à Apple en disant qu'Apple favoriserait Chad GPT sur l'App Store. Quelque part, c'est aussi son partenaire d'affaires. Alors, j'imagine que ce ne serait pas innocent de le faire. Mais enfin, c'est une accusation. Il va falloir que les faits soient prouvés. De leur côté, bien évidemment, Apple dément. Et là, cette semaine, officiellement, Elon Musk a dit qu'il allait poursuivre Apple pour justement qu'il cesse de favoriser ChatGPT. Mais pauvre Elon Musk, ChatGPT avec 700 millions d'utilisateurs et tous les médias de la planète qui ne cessent d'en parler, c'est sûr qu'il y a un intérêt par rapport à ChatGPT plutôt qu'à Grok qui a comme avaises presse. Alors, il va falloir qu'il se fasse à l'idée. Mais de l'autre côté, puis je fais une petite parenthèse, c'était Altman, le patron d'OpenAI, qui lui en aura le bol de se faire interpeller par Elon Musk. Puis lui aussi a décidé d'aller en cours, mais de poursuivre Elon Musk pour harcèlement, autant dans ses déclarations sur X que des déclarations dans les médias. Alors, Musk, je pense qu'il va perdre un peu de son temps et de son attention avec des choses au palais de justice plutôt qu'à travailler sur ses propriétés. Monde Numérique : [18:17] Oui, effectivement, ce n'est peut-être pas la priorité à faire. En tout cas, on voit qu'ils sont toujours un peu à couteau tiré, ces deux-là. C'est assez marrant. Et tiens, un mot à propos d'Apple, puisqu'on est un peu dans le sujet. C'est moins polémique comme sujet mais je trouve c'est assez intéressant, j'ai vu passer cette news cette semaine, selon laquelle Apple, qui on le sait est très en retard en matière d'intelligence artificielle donc il y a quelques déclarations ou en tout cas des indiscrétions, toujours par les mêmes canaux, par Bloomberg, etc, qui laissent entendre qu'ils vont enfin se bouger les fesses si je puis dire, pour faire un Siri qui ressemble à quelque chose, et qui soit vraiment intelligent et notamment, ce que voudrait Apple, c'est que Siri, donc l'IA, mais un Siri amélioré, puisse vraiment accéder aux applications qui sont installées sur l'iPhone, ce qui, du coup, forcément, lui donnerait beaucoup plus d'intérêt. C'est-à-dire qu'on pourrait demander à son smartphone « Fais telle et telle chose. » Je ne sais pas. Parce qu'aujourd'hui, si tu lui demandes « Recherche tel morceau sur Spotify. » Quoi que ça, ce n'est pas un bon exemple, je pense qu'il arrive à le faire. Mais les interactions avec les applis ne sont pas très profondes. Et je pense que la clé est là. De la même manière que Steve Jobs avait eu l'intelligence d'intégrer Siri à iOS, maintenant, il faut aller plus loin. Il faut que ça puisse rentrer à l'intérieur des applications, y compris des applications tierces. Invité : [19:45] Oui, mais tu as décrit parfaitement la situation. C'est-à-dire qu'à l'heure actuelle, Siri est pleinement intégrée dans tout ce qui est l'écosystème d'Apple. Mais une fois qu'on en sort, meilleur exemple, c'est essayer de faire une recherche sur YouTube. Une recherche locale à partir de Siri, ça ne fonctionne pas. Essayer de commander quelque chose chez Uber Eats, ça ne fonctionne pas. Et pourquoi? Parce que ça a toujours été chasse gardée et on ne permettait pas aux développeurs de faire des liens, d'utiliser des API qui auraient permis à Siri de rentrer et de carrément permettre une immersion dans l'écosystème de tiers. Mais là, avec son approche App Intense, c'est ça qui va être intéressant. Et j'ai hâte de voir, évidemment, probablement que tout le monde va vouloir embarquer là-dedans, mais j'ai hâte de voir si les gens vont l'utiliser. Parce que là, il y a le Siri qu'on connaît, il y a le Siri qu'on va connaître en septembre qui va nous être présenté, qui devrait être boosté au chat GPT. Mais après, ce dont on est en train de parler, c'est carrément une version de Siri qui nous permet de placer le téléphone sur la table, de ne plus y toucher et de piloter son téléphone avec la voix. Et ça, ça va être intéressant si ça se fait. Et moi, j'ai l'impression que peut-être qu'on va voir ça en 2026, sinon en 2027. Mais c'est sûr que c'est une évolution, pas une innovation, mais c'est une évolution de l'interface machine. Monde Numérique : [21:12] Oui, mais d'ailleurs, tu as fait un papier sur ton carnet cette semaine pour expliquer un peu cette espèce de robot. On parle de robot, mais en fait, ce serait plus un assistant dans un appareil connecté, comme il y a déjà chez Amazon Alexa, en fait, et qui pourrait répondre à toutes nos questions, etc. C'est vrai que c'est intéressant. Et merci pour tes exemples d'applications connectées à Siri qui sont beaucoup plus pertinents que les miennes. Invité : [21:36] Oui, bien, c'est parce que j'ai écrit mon papier, j'ai eu le temps de se penser. Monde Numérique : [21:40] Voilà. Invité : [21:41] Dis donc, Jérôme, avant qu'on parte, pardon, Jérôme, avant que je te laisse repartir à ton temps de réflexion en Grèce, je veux t'interpeller parce que c'est rare que tu fais ça et cette semaine, tu as publié une vidéo où tu parlais d'actualité qui concerne une personne avec qui tu travailles et je voulais t'entendre de vive voix. Qu'est-ce que c'est cette histoire-là de Luc Julien qui est interpellé par un YouTuber ? Monde Numérique : [22:09] Oui, exactement. Voilà ce qu'on est dans la continuité avec Siri, justement. Oui, c'est une vidéo d'un YouTuber qui est un véritable réquisitoire contre Luc Julia, une très longue vidéo d'une heure et qui démonte entièrement toute la personnalité médiatique de Luc Julia. Alors, Luc Julia, effectivement, il intervient régulièrement dans le monde numérique. Je le connais depuis longtemps. Je l'ai souvent interviewé. Et donc, je me suis senti un peu, oui, obligé d'une certaine manière de faire des mises au point parce qu'il y a des choses pas forcément inintéressantes dans cette vidéo, mais il y en a beaucoup qui sont très dérangeantes. D'abord, bon, moi, je n'ai pas aimé ce genre de vidéo qui est vraiment ce que j'appellerais une vidéo style complotiste, en fait. C'est-à-dire que ce n'est pas un reportage, ce n'est pas un reportage journalistique. On n'est pas allé voir qui que ce soit pour lui demander, pour le faire parler, pour l'interroger, pour en savoir plus. C'est juste une vidéo de salon, comme font beaucoup de YouTubers. Invité : [23:10] C'est de l'éditorial. Monde Numérique : [23:11] Voilà, c'est de l'éditorial. On prend des extraits, des extraits d'émissions, des extraits de conférences. La vidéo est très bien faite. Et ça, c'est le pouvoir des images, des passages de livres qui sont soulignés, etc. Et on met tout ça bout à bout pour servir un argumentaire qui consiste à dégommer Luc Julia pour deux raisons. Moi, j'en vois principalement deux. En fait, on lui reproche de ne pas être un vrai expert de l'intelligence artificielle générative, de ne pas être au top sur les LLM, sur Tchadjpiti, etc. Et deuxièmement, de ne pas avoir inventé Siri, de ne pas être l'inventeur officiel de Siri. Alors, sur ces deux points, je réponds dans la vidéo, effectivement, pour expliquer que ce n'est vraiment pas si simple, que c'est faux. Luc Julia peut, à mon sens, réellement être considéré comme co-créateur de Siri. Et puis, sur sa légitimité à parler d'intelligence artificielle, il est totalement légitime pour parler de ça, de mon point de vue. Mais Luc Julia, c'est une grande gueule. Monde Numérique : [24:08] Il a un style un peu rentre-dedans, donc il est un peu moqueur, il est un peu second degré. Il faut le prendre au second degré. Donc, il t'explique, par exemple, que Geoffrey Hinton a pété une durite en se mettant à craindre l'intelligence artificielle. Il a des points de vue très tranchés et c'est aussi ça qui est intéressant. Et voilà, moi, je voulais un peu remettre un peu, expliquer un peu tout ça. Donc, la vidéo, bien sûr, elle est en ligne depuis pas très longtemps. Je m'attends à me faire un peu tuer par certains parce qu'en fait, derrière tout ça, tu sais, il faut le dire, c'est un peu le tribunal des réseaux sociaux, le tribunal des donneurs de leçons sur les réseaux sociaux qui s'est mis en branle. Moi, j'ai reçu plein de messages où on m'a dit que c'était honteux, qu'il fallait arrêter de le faire intervenir, que... Monde Numérique : [24:52] Les médias n'auraient jamais lui accordé tout ce crédit tout ça sur la base d'une vidéo qui effectivement est convaincante quand tu la regardes mais sans faire aucun effort de critique et de mise en perspective de cette vidéo et en prenant tout au premier degré et en prenant tout au pied de la lettre on en vient à faire le procès d'une personne parce qu'il y a une personne, il y a une personne humaine derrière ça et je trouve que c'est totalement exagéré et non Luc Julia n'est pas un imposteur, non Luc Julia n'est pas un imbécile Oui, il a bien participé à la création de Siri. Et voilà, c'est tout ce que je voulais mettre dans cette vidéo. Il y a une réalité aussi, c'est qu'il s'est un peu heurté à, on va dire, le lobby des inquiets de l'IA. Il y a de plus en plus de gens qui disent que l'intelligence artificielle est dangereuse. Monde Numérique : [25:41] On a le droit de penser ça, ce n'est pas le sujet. Mais en revanche, quand on vient les critiquer, et c'est ce qu'a fait Luc Julia, ça se passe très mal. Et c'est un peu la réaction et c'est le coup de pied de l'âne, comme on dit. C'est une expression française que j'aime bien. Invité : [25:57] Merci pour cette explication. Puis moi, j'invite les gens qui nous écoutent et qui sont intéressés par le personnage ou de le découvrir, de prendre le temps d'aller sur un des réseaux sociaux où tu publies et de prendre le temps de regarder la vidéo. C'est bien fait. Et justement, ça remet les choses en place. Merci d'avoir fait cette mise au point concernant Julien. Monde Numérique : [26:17] Merci à toi, Bruno. Tu sais que je ne suis vraiment pas d'un naturel combatif et agressif et polémiste. Invité : [26:23] Non, combatif, oui, mais des polémiques, non. Monde Numérique : [26:25] Non, voilà, ce n'est pas trop mon genre. Mais là, il fallait que je fasse quelque chose. Bruno, de quoi parles-tu cette semaine dans ton carnet? Invité : [26:33] Si tu savais, est-ce que tu connais les gens du studio Félix et Paul? Monde Numérique : [26:37] J'avoue que non. Désolé. Invité : [26:39] Félix et Paul, ce sont des gens qui sont très forts dans l'immersif. C'est eux qui ont fait les différentes productions qui nous permettent, avec un casque sur la tête ou sinon dans des endroits, des hangars qui sont retravaillés, mais où on porte un casque immersif pour se retrouver dans la Station spatiale internationale. Invité : [26:59] Et donc, ils ont décidé de lancer, et s'est lancé cet automne à Las Vegas, une grande expérience qui va nous permettre d'aller sur une planète très loin pour se voir, partir comme ça à la découverte d'une nouvelle planète. Ça fait un peu Odyssey 2001 comme expérience, mais je voulais en savoir un petit peu plus. Alors, j'ai parlé avec un des cofondateurs du studio et on parle de ce à quoi ça va ressembler. Alors, notamment, on parle de ça. Puis, on parle aussi d'une, pas d'une nouvelle IA, mais d'une nouvelle version d'une IA chez DeepMind qui permet de, carrément, moi, je dirais, de sauver des animaux. Et c'est une IA qui permet de reconnaître certains animaux, mais de plus en plus qui permet de reconnaître certains états des animaux que ce soit des oiseaux que ce soit des félins, et même maintenant puis ça, ça arrive avec la nouvelle version, on s'en va sous l'eau alors si tu savais reconnaître les bruits des baleines le son des baleines et des dauphins je te dirais que même les coraux font des bruits Ils émettent des sons. Alors, ça permet à des chercheurs d'en savoir un petit peu plus. Alors, c'est le genre d'entrevue que je présente dans cette version estivale de mon carnet. Monde Numérique : [28:20] Ça fait très envie. Ça fait très envie. Je vais aller écouter ça. C'est mon côté cousteau. Invité : [28:26] Ça. Monde Numérique : [28:26] Oui, c'est magnifique. C'est extraordinaire. Ben, écoute, et puis le truc à Las Vegas, c'est l'attraction qui nous attend en janvier prochain quand on y sera à l'occasion du CES, c'est ça? Invité : [28:37] Oui, parce que là, on commence à être tanné d'aller faire un tour à la Sphère. Alors ça, c'est le nouveau truc. Monde Numérique : [28:41] Oui, la Sphère, c'est terminé. C'est As-Bean, la Sphère. Invité : [28:44] C'est tellement 2024. Mais non, ben ça, écoute, je t'inviterai Ça me fera plaisir de t'inviter là-bas pour te montrer le savoir-faire québécois une fois de plus à Las Vegas. Monde Numérique : [28:56] Une fois de plus, c'est vrai. Parce que Las Vegas, c'est déjà eux, en plus. C'est déjà des Canadiens. Invité : [29:00] Oui, il y a du Québécois là-dedans. Le Cirque du Soleil, Céline Dion. J'arrête d'en nommer, il y en a tellement. Monde Numérique : [29:07] En fait, Las Vegas, c'est à vous. Invité : [29:10] C'est Québécois. Je ne voulais pas en parler. Surtout, ne va pas le dire à Donald Trump. Monde Numérique : [29:17] C'est pour ça qu'il vous aime tant. qui va vous absorber. Invité : [29:23] Jérôme, je vais arrêter de dire des bêtises et je te laisse retourner à tes vacances. Non, pardon. À ce moment de réflexion que tu prends entre deux et demi. Monde Numérique : [29:31] Oui, moment de réflexion. Invité : [29:32] Et puis donc, pause la semaine prochaine. Monde Numérique : [29:35] Voilà. Pause la semaine prochaine. On fait un vrai break, mais on se retrouvera la semaine d'après, bien sûr, mon cher Bruno. Invité : [29:43] C'est presque la rentrée, là. Monde Numérique : [29:44] C'est presque la rentrée, tout à fait. Donc, je te propose qu'on reparte de plus belle avec une nouvelle saison du débrief transatlantique à partir de septembre. Invité : [29:53] Bon, en attendant, on va remettre les batteries à full, comme tu dirais. Monde Numérique : [29:58] Voilà. Allez, là, je décroche, je vais me reposer. Invité : [30:00] Et puis, on va parler dans deux semaines. Monde Numérique : [30:02] Salut à toi et à tes auditeurs, Bruno. Ciao, ciao. Invité : [30:05] Allez, salut. Bye. Monde numérique, le meilleur de la tech. Monde Numérique : [30:23] Les interviews de Monde Numérique, on va parler d'intelligence artificielle, ça ne vous surprendra pas. Et avec du beau monde, attention, alors rediffusion d'interviews cette semaine, c'est l'été, et la parole à OpenAI, je vous propose de réécouter l'interview d'Arnaud Fournier, directeur d'OpenAI France, qui revient sur la vision de l'IA par OpenAI, et au fond c'est ça qui est important, à quoi sert ChatGPT, quelles utilisations pour le grand public, notamment à travers les différents modèles de ChatGPT. Alors attention, cette interview avait été réalisée avant le lancement de GPT-5, donc avant cette histoire de modèles unifiés. Et puis juste après, on parlera de Hugging Face et on parlera d'IA concrète. Tout de suite, la parole à OpenAI. Invité : [31:06] Je pense qu'on vit un grand changement d'usage. Je vais vous parler de mon expérience à moi, mais je me retrouve souvent à utiliser le chat de GPT pour poser mes questions et je me rends compte que jusqu'à il n'y a pas si longtemps, quand j'allais sur un moteur de recherche, je finissais par cliquer sur 5 ou 10 liens, j'avais plein d'onglets ouverts et je faisais ma recherche et ça devenait quelque chose d'assez lourd. Aujourd'hui, en utilisant le chat de GPT Search, je me retrouve à avoir une expérience unifiée où je pose ma question et directement j'ai la réponse, j'ai les liens que je peux aller consulter sur les différents sites s'il veut creuser un ou plusieurs sujets. Donc, je pense que ça change complètement l'usage. Pour revenir sur la partie grand public, c'est-à-dire en fait, comment est-ce que toutes ces expériences bénéficient aux utilisateurs comme vous et moi et ma grand-mère ? Invité : [31:54] Finalement, il y a plusieurs expériences qu'on veut pouvoir vous proposer. La première, c'est cet accès à la recherche simplifiée qui vient vous rendre une vue exhaustive sur un sujet que vous souhaitez. La deuxième, c'est une suite d'agents, encore une fois, donc Deep Research et Opérator dont je vais vous parler, qui sont deux expériences qu'on veut rendre accessibles à tout le monde. Donc Deep Research, c'est un peu une version de la recherche sous stéroïde, c'est-à-dire que vous avez probablement fait dans le passé et que vous préparez ces podcasts, en fait, chercher sur un sujet pour comprendre qui est une personne ou un sujet pour avoir vraiment une vue holistique de ce sujet-là. Ça va vous prendre une journée, deux jours. Potentiellement, vous n'allez pas vous retrouver avec dix onglets, mais sans onglets ouverts. Et après, vous devez rédiger un rapport pour être sûr d'avoir des notes un peu exhaustives sur ce sujet-là. En fait, DeepRisab. Oui, je l'ai testé sur ce sujet-là, sur le podcasting. Effectivement, le résultat est incroyable. Voilà. Donc DeepRisab, en fait, c'est un agent qui a accès aux outils de recherche Internet et qui a été spécifiquement entraîné pour vous permettre de rédiger un rapport automatiquement sur un sujet que vous voulez creuser. Invité : [33:09] En termes d'expérience à l'utilisateur, moi, je me retrouve souvent sur mon vélo à me dire, en fait, j'ai envie de creuser ce sujet-là, je vais faire une query-dip-research, et puis j'arrive chez moi, et en fait, j'ai un rapport d'une dizaine de pages sur ce sujet que je peux lire et qui, en fait, me donne tout ce que je dois savoir en dix minutes sur un sujet que je veux creuser. Et le deuxième, c'est operator. Donc, operator, c'est une nouvelle manière d'interagir avec des systèmes et avec Internet. Pour vous mettre un peu de contexte, en fait, jusqu'à présent, si vous vouliez interagir avec un système externe, il fallait développer des connecteurs spécifiques. Donc, quand un utilisateur voulait automatiser, par exemple, la prise d'un rendez-vous chez le médecin ou la prise d'un rendez-vous ou d'une table dans un restaurant, il fallait développer, il fallait être ingénieur pour développer un outil spécifiquement pour ça. Invité : [34:01] Aujourd'hui, Operator, c'est un agent qui est capable d'interagir directement avec un navigateur Internet. Ce que ça veut dire, c'est que vous n'avez plus besoin d'être ingénieur et de coder pour pouvoir automatiser vos processus. Vous pouvez simplement expliquer en langage naturel et via un navigateur, vous allez voir, et c'est visuel parce qu'on l'a intégré avec cette interface visuelle, vous allez voir un agent IA venir faire la tâche pour vous. Il va vous poser des questions à des moments clés, notamment si vous devez vous authentifier sur un système ou si vous voulez faire une action qui est sensible. Mais en fait, il va automatiser cette tâche pour vous. Et donc ça, c'est deux choses. Qui sont, je pense, assez nouvelles et qui montrent bien que ChatGPT est en train de s'engager de cette interface uniquement conversationnelle vers une expérience beaucoup plus unifiée. Et les chiffres parlent de même. Invité : [34:50] Récemment, on a passé la barre des 1 milliard de messages par jour envoyés sur ChatGPT. Donc, on se rend bien compte que ça devient finalement une interface de plus en plus importante pour les gens qui l'utilisent. Jusqu'où, Arnaud Fournier, Jusqu'où est-ce que le Graal, l'objectif, c'est, comme c'est souvent évoqué par Sam Altman, le CEO d'Oponei, le Graal, c'est la fameuse AGI, l'intelligence artificielle générale, dont on dit. Invité : [35:24] Votre CEO aime bien dire qu'on n'en est pas très loin, ça arrive bientôt, etc. Est-ce que c'est vraiment pour bientôt ? Et ce sera quoi ? Je pense que quand on parle d'intelligence artificielle générale, il faut... Il faut comprendre ce qu'on veut dire derrière. Et donc, il y a à la fois la capacité et la compétence des modèles, mais il y a aussi l'interaction avec le monde. Je crois que c'est Samatman qui avait dit un jour, on ne développera pas l'intelligence artificielle générale par une interface de commande qui est sur une boîte de commande toute noire pour les développeurs. Donc, je pense qu'on atteint aujourd'hui, avec les modèles qu'on a, des capacités technologiques. Probablement qu'on n'aurait pas imaginé il y a 10 ans de ça, ou en tout cas qu'à titre personnel, je n'aurais pas imaginé il y a 10 ans de ça. Je pense par contre qu'on a encore beaucoup de travail à faire sur comment est-ce qu'on rend ça accessible aux développeurs et au grand public via ces interfaces, donc via chat GPT. Invité : [36:26] Via ces expériences, ces solutions qu'on donne aux développeurs pour qu'ils l'intègrent dans leurs outils. Le point sous-jacent que vous évoquez ici, c'est l'impact que ça va avoir pour nous. Je pense que c'est une très bonne question et c'est un point qui est important sur lequel réfléchir. Notre vision chez OpenAI et la mission pour laquelle on travaille tous les jours, c'est que cette technologie, elle puisse améliorer et accélérer et les Américains dirait empower les gens et pas les remplacer. Et on travaille de manière très explicite pour ça, pour augmenter, pas pour remplacer les capacités humaines. C'est la direction qu'on prend et quand on développe nos outils, c'est comme ça qu'on les teste, qu'on les valide. On a ce modèle de développement itératif assez rapide où en fait, on lance des choses en ce qu'on appelle research preview, donc en test qu'on donne au monde. et puis en fait, on apprend de ça. Je pense que le monde va voir beaucoup d'évolution dans les prochaines années, mais je suis très optimiste et assez excité de voir comment cette technologie va nous permettre d'avoir des retours très pragmatiques. On parlait tout à l'heure de la santé. Je suis sûr que demain, on va pouvoir développer des médicaments qui seront beaucoup plus spécifiques pour des maladies rares, qui seront beaucoup plus rapides à mettre sur le marché, qui étaient des choses qui, jusqu'à présent, étaient difficiles à faire et coûter beaucoup d'argent pour les entreprises. Monde Numérique : [37:55] Merci beaucoup Arnaud Fournier, responsable du bureau d'Open&Eye à Paris. Pour parler d'intelligence artificielle encore, on va donner la parole à un autre Français, mais de l'autre côté de l'Atlantique, on repart aux Etats-Unis, en Floride, pour retrouver Clément Delangue de Hugging Face. Alors Hugging Face, c'est peut-être une start-up qui n'est plus vraiment française, il faut bien l'avouer, et qui en fait offre un espace pour tous les modèles d'intelligence artificielle en open source, une espèce de super bibliothèque de l'IA. Et c'est aussi derrière ça, il y a une autre vision de l'intelligence artificielle et de l'accès à l'IA. Modèle open source contre modèle propriétaire, Clément Delangue. Invité : [38:44] C'est un peu comme une bibliothèque, on va dire, la version intelligence artificielle de la bibliothèque, où n'importe quelle entreprise, n'importe quelle organisation, n'importe quelle personne peut venir sur la plateforme, trouver un modèle open source, donc gratuit, et construire leur propre application d'intelligence artificielle. Nous, notre vision, c'est qu'à terme, toutes les entreprises, toutes les organisations vont être capables de créer de l'intelligence artificielle elles-mêmes, qu'elles ne vont pas devoir dépendre d'un OpenAI, d'un Anthropik. Invité : [39:17] Et du coup, on a construit la plateforme qui permet de faire ça. Et vous leur offrez les modèles, les datasets qui servent à entraîner les modèles, les données, et également du stockage. Il y a du... Du stockage et puis de l'infra. De l'infra, voilà. Du stockage et puis de l'infrastructure. Pour vraiment faire ce qu'on appelle l'inférence et l'entraînement des modèles d'intelligence artificielle. Et si je suis un utilisateur, par exemple, je vais aller faire mon marché, choisir tel ou tel modèle, et dans ce cas-là, je fais quoi ? Je le télécharge et je vais le faire fonctionner chez moi, sur mon infrastructure, ou ça reste chez vous et je vais bénéficier de vos... Comme tu veux. Comme tu veux. Nous, en fait, ce qu'on fournit, c'est vraiment une plateforme très adaptable en fonction de ton besoin, en fonction de ce que tu préfères. Tu peux même aller plus loin. C'est-à-dire que, par exemple, si tu dis pour le monde numérique, tu as besoin d'une application qui va t'enlever le son externe pour t'aider, par exemple, à faire ton montage final de podcast, tu vas sur l'App Store de Ging Face, tu vas trouver une application directement qui va pouvoir te faire ça, même sans faire de code. Donc, progressivement, un truc intéressant, c'est qu'on est devenu vraiment un App Store, même pour les gens qui ne développent pas eux-mêmes. Invité : [40:31] Donc, chez nous, ça s'appelle Spaces. C'est notre App Store où vous avez plus de 400 000 applications qui permettent vraiment de faire tout et tout et n'importe quoi, du traitement d'images, de vidéos, d'audio, des modèles, des démos de biologie, de chimie, qui vont vous permettre aussi de faire du chatbot, un peu comme ChatGPT. On a notre version qui s'appelle Hugging Chat, qui est une version ouverte de ChatGPT. Donc, on est vraiment devenu progressivement une plateforme assez généraliste pour toutes sortes d'utilisateurs. Donc, il y a vraiment une partie qui est destinée aux professionnels de l'IA, des entreprises ou des professionnels qui sont capables eux-mêmes de mettre en place des outils, des entraînés, etc. Et puis, une partie beaucoup plus accessible, en fait, c'est quasiment du grand public. Je vois, il y a générateurs de podcasts Cocoro, usines de bandes dessinées par intelligence artificielle, etc. Invité : [41:29] Oui, parce qu'en fait, on a tellement de gens qui construisent de l'intelligence artificielle qui ensuite passent par notre plateforme pour distribuer ça en public. Donc, on comprend bien pourquoi, effectivement, tu es un avocat, un défenseur convaincu de l'open source. Et c'est vrai que c'est un discours qu'on entend de plus en plus, qui rentre en résonance avec les discours officiels. Mais on a l'impression que, et même à des échelles vraiment de pays, d'État, Aujourd'hui, l'open source, c'est quasiment là-dessus que l'Europe a officiellement l'intention de s'appuyer pour développer de l'IA. La Chine aussi, DeepSeek, est un modèle open source. Invité : [42:05] L'open source, c'est un peu l'arme du challenger. Ça l'a toujours été, ça l'a été dans le logiciel. Est-ce que tu penses que ça va donc suivre le même chemin ? C'est-à-dire vraiment, c'est ça qui va monter en puissance ? Oui, comme tu le dis, en fait, l'open source, c'est un moyen pour les pays ou les organisations. Challenger, de rattraper plus rapidement parce qu'en fait en poussant l'open source vous avez de plus en plus de collaborations entre les différentes organisations qui construisent au-dessus l'un de l'autre, qui se challengent, qui s'émulent et qui partagent en fait ce savoir et cet apprentissage et du coup ça permet de développer la technologie plus rapidement. À mon avis c'est ça qui a permis aux Etats-Unis de devenir le leader entre. Invité : [42:57] 2016 et 2022 tout était ouvert aux Etats-Unis et toutes les entreprises toutes les organisations construisaient au-dessus l'un de l'autre et tu avais cette émulation très forte qui faisait que le cycle de progrès était très rapide et a amené à ce leadership le leadership américain donc je pense que tous les autres pays devraient faire la même chose la Chine l'a très bien compris puisque depuis 2-3 ans c'est ce qu'ils font et ça leur permet de rattraper comme ce qu'on peut voir avec DeepSync, et aussi les entreprises je pense devraient faire la même chose les startups les petites entreprises devraient s'appuyer là-dessus de plus en plus pour réussir à rattraper et au-delà de l'aspect un peu on va dire utilitaire, de l'open source moi ce que je trouve intéressant et important c'est l'aspect aussi éthique parce qu'en fait l'intelligence artificielle est une technologie d'infrastructure fondamentale ? Invité : [43:54] Si elle est contrôlée par quelques acteurs, à mon avis, peut être très dangereuse. Et donc, je pense qu'on a vraiment envie, comme le software, qu'elle soit accessible à tous. Et ça, ça passe par l'open source. Sans open source, la technologie sera uniquement accessible, disponible, maîtrisable par quelques acteurs. Peut-être par OpenAI, Microsoft et quelques autres. Ça, ce serait vraiment un gros risque. Imagine un monde où il n'y aurait qu'une ou deux entreprises qui pourraient faire du logiciel. Invité : [44:29] Ce serait un monde assez dangereux, pas forcément un monde dans lequel on aimerait vivre, je pense. Donc, d'un point de vue, c'est important aussi. J'entends bien, mais comment expliquer que même ceux qui faisaient de l'open source avant, typiquement OpenAI, d'où son nom, finalement après s'orientent vers des solutions propriétaires ? Est-ce que ce n'est pas une espèce de fatalité économique ? Et puis, alors, Meta aussi prône beaucoup Open Source, mais en réalité, tout n'est pas Open Source chez Meta. Il y a maintenant ce qu'on appelle le distinguo entre l'Open Source et l'Open Weight. Donc, finalement, il y a certains bouts en Open Source, mais pas tout. Les entreprises qui innovent sont obligées quand même. Est-ce qu'elles ne sont pas obligées à un moment de garder un peu leurs petits secrets ? C'est un gradient, en fait. Ce n'est pas Open Source ou pas Open Source. Je pense que ça navigue un peu d'un extrême à l'autre. Et que les entreprises aussi naviguent sur ce gradient. D'ailleurs, on voit qu'OpenAI en ce moment est en train de réfléchir à peut-être revenir à un modèle plus open source. Sam Altman, il y a quelques semaines, a dit qu'il se sentait du mauvais côté de l'histoire en étant moins open source qu'avant. Donc, on voit aussi que les entreprises naviguent sur ce gradient. Invité : [45:44] Je pense qu'il faut essayer de pousser, de se diriger de plus en plus vers plus d'ouverture, plus de transparence, en se disant que ce ne sera jamais 100% transparent, 100% ouvert. Mais plus on peut pousser dans cette direction, le mieux c'est, je pense. Invité : [46:04] Je vais te poser une question naïve. On sait que l'intelligence artificielle est aussi de plus en plus utilisée par les cybercriminels. Est-ce que finalement, l'open source n'encourage pas ce phénomène ? Non, parce qu'en fait... Il ne leur donne pas plus de facilité ? Oui, alors ce qu'on voit un peu quand on fait de la recherche sur le domaine, c'est que ces risques-là ne sont pas forcément plus présents par l'open source que par des systèmes comme ChatGPT. En fait, c'est plus facile pour un cybercriminel d'utiliser ChatGPT que d'aller utiliser l'open source, qui demande des capacités techniques particulières pour l'utiliser. Malgré les bridages quand même de ChatGPT qui essayent de limiter la case, donc on ne peut pas tout faire et tout demander à ChatGPT. Malgré les bridages, parce qu'en fait, vous avez des systèmes comme ce qu'on appelle du jailbreak d'API qui vous permet de bypasser les limitations qui sont mises par OpenAI. Invité : [47:00] De violer un peu ChatGPT. Voilà, vous n'avez qu'un volume tellement énorme aujourd'hui sur votre chat de GPT. Malgré les systèmes mis en place, c'est toujours possible de passer outre. Donc ça, c'est des risques qui ne sont pas forcément spécialement présents pour l'open source, mais qui sont présents sur toute l'intelligence artificielle. Et en fait, l'open source permet aux policiers, aux gendarmes qui sont censés limiter ces cas, de mieux comprendre et eux-mêmes d'être capables de limiter ces risques-là. Ils permettent de créer plus de transparence. Donc, en fait, on voit que c'est possible de faire ça et du coup, on est capable de mettre en place des régulations, des limitations, des lois, qui rendent ça illégal. Ce qui est illégal en faisant du software, en faisant du logiciel est illégal en faisant de l'intelligence artificielle. Et ce n'est pas forcément. Invité : [47:57] En enlevant la possibilité de le faire qu'on contrôle ça, mais c'est en mettant des lois. Par exemple, aujourd'hui, tout le monde peut utiliser un couteau et on ne se dit pas qu'on va empêcher les gens d'avoir un couteau, mais ce qu'on fait, c'est qu'on met des lois qui permettent de dire que si on utilise un couteau d'une mauvaise manière, là, on va avoir des problèmes. C'est un peu la même chose sur l'intelligence artificielle où il faut mettre en place les lois, adapter les lois quand c'est nécessaire pour que cette technologie comme le logiciel ne soit pas utilisée pour de mauvaises raisons et dans des mauvais cas d'usage. Monde Numérique : [48:34] Merci Clément Delangue, CEO et cofondateur de Hugging Face. Merci beaucoup d'avoir été dans le monde numérique. Merci beaucoup. Et quand on parle d'IA, il faut bien sûr parler de l'aspect pratique. À quoi sert concrètement l'intelligence artificielle ? J'en parlais il y a quelques temps à peine dans le monde numérique avec Marjolaine Grondin à l'occasion de l'événement Ready for It qui avait lieu à Monaco. Marjolaine Grondin est entrepreneur. Elle utilise énormément l'IA, à la fois pour son travail et pour sa vie personnelle. Et surtout, elle a créé un bootcamp IA qui lui permet de former des professionnels. Retour d'expérience, conseil très concret, Marjolaine Condin. Invité : [49:19] Je pense qu'il y a un peu deux aspects. C'est le changement de paradigme, vraiment de comprendre que ce n'est pas juste un outil, mais qu'en fait, ça change complètement la façon dont on travaille. Et in fine, ce que je veux leur apporter, c'est que vous avez un binôme. Tout le monde maintenant a un cofondateur, une cofondatrice personnelle qui est là avec nous et qui est là pour nous assister, pour nous aider, pour nous accompagner. Ne vous en privez pas. Donc, tu vois, si je schématise un peu ce que je fais, c'est ça. Et j'aime bien dire qu'il y a trois choses dans lesquelles j'utilise l'intelligence artificielle et c'est un peu ma petite pyramide de Maslow à moi-même. La première, c'est que je l'utilise comme un assistant à qui je délègue. Donc, c'est vraiment, tu vois, réduire ma charge mentale, augmenter ma productivité et lui dire, tu vas m'aider à gérer mes mails, faire des transcripts de réunion, écrire des comptes rendus. Juste vraiment la base pour m'aider à gérer ma toujours liste. Donc tu fais écrire des mails ou écrire des réponses par l'IA ? Ouais, j'utilise un outil qui s'appelle Fixer AI qui en fait, dès que je reçois un mail, va le catégoriser, tu vois, il va le labelliser, on a regardé ensemble les labels, c'était ce qu'il m'a proposé, et va me rédiger des brouillons. La première fois que je l'ai mis en place, tu vois, ils te disent quand tu vas sur leur site, trois minutes de mise en place ou 30 secondes, une heure par jour de gagné, c'est réel. Et tu vois, la première fois, je le mets en place. Invité : [50:39] Parce que du coup, il doit connaître mes dispos pour pouvoir répondre et tout. Je laisse mon ordi, je reviens le lendemain matin, et là, je vois que, je sais pas, j'ai reçu quelques mails et qu'il y a des brouillons. Et c'est pas du tout quelque chose à laquelle je suis habituée. Voir des petits drafts comme ça, qu'est-ce qui se passe ? Souvent, c'est plutôt bordel, tu sais, quand des brouillons, c'est un truc que j'ai voulu envoyer, qu'il s'est pas envoyé, qui machin. Tu dis, attends, mais qu'est-ce qui s'est passé ? Et là, je vois qu'il y a des réponses. Il a tout préparé. Tout préparé. Et vraiment, 90%, c'est nickel. Et c'est super, c'est fin, il apprend, avec le ton de la personne. Enfin, tu vois, il s'ajuste, il sait s'il faut tutoyer, vous voyez, être formel, informel. Il me propose des créneaux et souvent, il comprend l'intention. Et quand c'est vraiment une question fermée, oui, non, t'es dispo, t'es pas dispo, ça t'intéresse ou pas, il me dit two options. C'est le seul truc qu'il écrit en anglais, le reste, il le fait en français. Donc, deux options. Oui, avec plaisir, je serais très enthousiaste de participer à cette conférence. Deux, non, désolé, je ne suis pas dispo. Et ce qui est marrant, c'est que du coup, moi, je me retrouve avec les deux. Invité : [51:42] Je choisis celle que j'envoie. Ça, c'est Fixer ? Fixer avec un Y, F-Y-X-E-R-A-I, donc Fixer.com, Fixer.com. Et ça, tu vois, il y a plein de gens à qui j'ai fait installer ça et qui me disent « Non, mais Marjolaine, je gagne une heure par jour, ce n'est pas possible ce truc, je ne sais pas comment je pouvais faire avant. » Donc, tu vois, ça, c'est la première chose. Mais il y a des limites quand même parce qu'il ne peut pas savoir exactement sur quoi tu travailles à l'instant T, quels sont tes besoins. En fait, exactement. Moi, j'aime bien dire que l'IA, c'est un spectre ? Il n'y a plus beaucoup de sujets sur lesquels je suis à 0%. Il y en a, tu vois, si je veux écrire un manifeste pour mon nouveau projet, etc. Et encore que je vais demander à l'IA, pose-moi trois questions hyper challengeantes pour m'aider à réfléchir à mon manifeste, mais c'est moi qui vais l'écrire. Mais tu vois des mails, genre, est-ce que tu es dispo ? Est-ce que machin ? Tu as reçu la propal ? Je ne sais pas quoi. En fait, je ne sais pas, genre deux tiers de mes mails, c'est du transactionnel, c'est plus rapide. Et justement, le fait d'avoir mis tout ça de côté, ça fait que sur le tiers restant qui est important où là effectivement qu'est-ce que je veux qu'est-ce que je veux profondément comment je veux répondre, quelles décisions etc là j'ai trois fois plus de temps à y dédier et c'est là où moi je trouve la magie c'est vraiment se dire attends tu vas me rendre mon temps en enlevant toute la partie machinale de mon travail et ça j'ai aucun problème à lui déléguer, et à l'inverse du coup moi je vais avoir plus de temps pour faire les choses importantes. Invité : [53:04] Je fais un call de cadrage pour un podcast une conférence une collaboration peu importe j'ai mon transcript, call, que ce soit d'ailleurs un call physique, maintenant il y a des outils qui permettent d'enregistrer les appels en physique, les réunions en physique ou en visio évidemment. Oui bien sûr, c'est pour le smartphone où il y a les petits assistants, les petits outils, les petits devices. C'est ça, et donc moi on est là, on est présent 100% et derrière je reçois mon transcript, moi j'ai créé un petit assistant qui à partir du transcript va me générer un compte rendu par rapport à mes enjeux, etc. Je peux rédiger le mail de follow-up, de suivi, pour dire, OK, il y a ça, ça, ça. Mais après, moi, je vais passer du temps à préparer, à réfléchir, à faire de la recherche, parce que je sais que toute la partie machinale, Je la mets de côté. Et tu vois, ça, c'est vraiment le point qui m'excite, en fait, dans l'IA. C'est de dire, elle nous rend la partie humaine du travail et toute cette partie, juste gestion, mise dans des dossiers, rangement, réponse rapide, machin, qui, en fait, faisait un peu de nous des machines hop, de côté. Et j'espère que c'est la direction qu'on va prendre avec l'IA. Et donc, tu vois, pour continuer ma petite pyramide, peut-être un peu scolaire, mais l'assistant, deuxième étape sur trois, c'est. Invité : [54:18] C'est un peu mon directeur des opérations, directeur général qui va m'aider à faire des présentations, des roadmaps. Donc ça veut dire quoi, tu lui fais faire des PowerPoints, tu lui demandes ? J'ai un outil, on ne va pas faire la liste de tous les outils, mais Gamma, G-A-2-M-A, qui est assez connu maintenant, à qui en fait. Invité : [54:37] Tu vois, on parlait tout à l'heure avant le podcast de l'IA qu'on présente sur LinkedIn, où en fait on montre souvent cet outil Gamma, tu lui fais un prompt, fais-moi une présentation sur l'histoire du basketball depuis les années 50. C'est incroyable, tu le vois, il fait direct. Mais dans quel est le cas d'usage ? Oui, c'est super, c'est incroyable, il a écrit quelque chose, les images sont sympas et tout. Moi, la vraie façon de l'utiliser, c'est je crée mon texte avec ou sans chat GPT, Claude ou autre, et une fois que j'ai un texte bien carré avec toutes mes slides, je le donne à Gamma, je lui dis tu touches à rien, je ne veux pas que tu réfléchisses, en revanche, tu vas mettre en forme. Et ça, j'ai plusieurs personnes avec qui j'ai montré ça qui ont pleuré, je te le jure et même une participante à mon bout de temps la semaine dernière qui m'a dit, ma mère a pleuré j'ai dit, mais c'est si outil, il fait pleurer tout le monde, parce qu'en fait, elle dit oui, mais parce qu'elle passe du temps à préparer ses cours et machin elle passe des nuits parfois, elle est toute seule c'est hyper compliqué, et vraiment c'est super, et pour faire quoi ? Et en fait, une fois que t'as déjà ta charte que t'as ton template qui t'y a mis du coeur tu t'es dit, voilà, moi je veux ces couleurs je veux cette mise en forme, je veux que ce soit épuré Au contraire, je veux qu'il y ait beaucoup d'infos sur une slide. Au contraire, j'ai aucune idée, je ne sais pas ce faire. Et bien là, en fait, tu utilises l'outil, tu lui mets ton Google Docs, Et puis, qu'est-ce qu'il fait ? Il te met tout en forme. Et juste ça, ça fait gagner un temps fou. Hier, moi, j'ai envoyé une propale. Invité : [56:00] J'ai pris mon truc, je l'ai envoyé dans Gamma, il m'a fait le PowerPoint, je l'ai envoyé et en fait, après, on a discuté et on est allé dans le fond des choses. Mais le côté juste mise en forme, etc., c'est pas ça qui m'intéresse. Et le troisième niveau, c'est, je l'appelle cofondateur personnel, c'est vraiment m'aider à brainstormer, à réfléchir, à me challenger, à m'assurer que je suis dans la bonne direction, que ce que je fais a du sens. Moi, je parle beaucoup d'ikigai, le point entre ce que tu aimes faire, là où tu es bon, ce dont le monde a besoin et ce pourquoi tu peux être payé. Et l'IA, moi, ChatGPT ou Claude, ils connaissent bien mon ikigai et quand je fais quelque chose, ils m'aident à travailler dans ce sens. Voilà, c'est les trois niveaux. Donc, c'est plus stratégique. C'est ça. Charge mentale, produire, stratégique. Alors, à toi de jouer. Merci, Marjolène Gronda. Merci, Jérôme. entrepreneur et dirigeante du Bootcamp IA. Monde Numérique : [57:00] Voilà, retrouvez toutes ces interviews en version intégrale la semaine prochaine sur le fil du podcast Monde Numérique comme d'habitude. C'est la fin de cet épisode. Merci de l'avoir suivi. Merci pour votre fidélité. N'oubliez pas de laisser un commentaire, des petites étoiles sur votre plateforme d'écoute, en tout cas sur les plateformes où c'est possible, principalement Apple Podcast, ou bien réagissez sur le site mondenumérique.info ou sur les réseaux sociaux. Vous pouvez m'envoyer des messages, je vous répondrai, promis, quasiment promis. Monde Numérique : [57:29] La semaine prochaine, donc pas de Monde Numérique, un peu de vraies vacances. Je vous abandonne juste pour un épisode de l'hebdo et on se retrouvera le 30 août pour la rentrée de l'hebdo de Monde Numérique. D'ici là, passez une bonne continuation d'été. Si on peut dire, passez une bonne semaine, pleine de tech. Salut !
innovation,numérique,informatique,actualités,technologies,tech news,High-tech,