Bruno :
[
0:06] Jérôme Colombain à Paris, bonjour.
Jérôme :
[
0:09] Bonjour Bruno Guglielminetti à Montréal.
Bruno :
[
0:11] Heureux de te retrouver après une petite semaine de pause, mais surtout de savoir que maintenant, tu as une formule complète.
Jérôme :
[
0:18] C'est reparti pour mon numérique, l'hebdo.
Bruno :
[
0:21] Cette semaine, il y a un truc qui t'a marqué, qui a attiré ton attention, même chose de mon côté, et c'est cette histoire d'un jeune homme dont les parents maintenant poursuivent OpenAI parce que l'IA, en tant que telle, l'aurait incité à se suicider.
Jérôme :
[
0:37] Oui, ça s'est passé en Californie. C'est un jeune de 16 ans qui s'appelle Adam Rain et qui s'est donné la mort après avoir discuté pendant plusieurs mois avec Chat GPT et après avoir parlé de ses envies suicidaires. Et malheureusement, au lieu de le dissuader, enfin en tout cas d'arriver à le dissuader, Chat GPT l'aurait partiellement encouragé et il a fini par se pendre et il a fini par se donner la mort. Donc, l'effet remonte à avril dernier, mais en effet, c'est au mois d'août que la famille a décidé de porter plainte contre OpenAI. C'est assez incroyable parce que les discussions duraient depuis longtemps. Chat GPT n'a pas réussi quelque part à empêcher ce drame.
Bruno :
[
1:22] Oui, à stopper ou à retourner la situation. C'est le genre de réflexe qu'il n'a pas. Mais ce n'est pas la première histoire qu'on entend dans ce contexte-là où Chat GPT va donner des instructions ou inciter quelqu'un à commettre un geste qui va l'emmener à sa mort.
Jérôme :
[
1:35] Non, parce qu'il y avait eu une autre histoire également cet été. Je pense que tu l'as vu passer comme moi. Là, c'est un vieux monsieur qui voulait remplacer le sel dans son alimentation parce qu'il devait avoir de la tension. Il a demandé conseil à Chat GPT qui lui a conseillé de prendre à la place du bromure de sodium. Alors, je ne suis pas chimiste ni médecin, mais apparemment, Ce n'est pas bon du tout parce qu'il a fini aux urgences, le pauvre monsieur. Alors, il n'est pas décédé, lui, heureusement. Mais il y a eu aussi d'autres histoires tragiques. Avant, c'était en 2024, ce n'était pas Chat GPT, mais rappelle-toi, avec Caracterea et l'application qui permet de dialoguer avec des avatars, il y avait un jeune homme de 14 ans qui s'était suicidé déjà en 2024 en Floride.
Bruno :
[
2:17] Ou sinon, tu as l'histoire de, mais ça c'est Meta, qui est concerné par cette histoire-là, un monsieur de 76 ans qui avait une discussion avec un avatar de méta, sauf que lui, dans sa tête, c'était pas un avatar. Et il demandait à l'IA de lui envoyer des photos d'elle, parce qu'il présumait que c'était une jeune femme. Et donc, elle envoyait des photos d'elle, générées par l'IA. Et puis, écoute, ça a été tellement loin, cette histoire-là, que l'IA l'a invitée à venir la rejoindre à Londres. Mais t'imagines? Il est allé? Oui, il est parti de New York, il se rend jusqu'à Londres pour finalement chercher et ne pas trouver. Entre-temps, il y a eu un accident lorsqu'il était à Londres et il est mort.
Bruno :
[
3:02] Il y a des histoires affreuses.
Jérôme :
[
3:04] Il y a plein d'histoires comme ça. Alors, au-delà de l'aspect fait divers, ça pose quand même une question de fond, c'est la question de la responsabilité des IA dans ce genre de conversation. Sur l'histoire du jeune de Californie, Adam Rayne, apparemment, Chat GPT a quand même essayé de le mettre en garde, c'est-à-dire qu'il l'a orienté vers un système d'assistance anti-suicide, etc. Je crois qu'il a encouragé aussi à parler autour de lui, Mais ça n'a pas suffi parce que l'autre, le jeune, continuant sur sa lancée, Chat GPT, on sait comment ça marche, il est là pour nous faire plaisir. Après, il est re-rentré dans le jeu et puis il lui a dit qu'il pouvait utiliser une corde, qu'il pouvait faire ci, comme ci, comme ça, etc. Il lui a donné des conseils.
Bruno :
[
3:51] Non, c'est ça. En tout cas, ça fait penser. Peu importe ce qui se passe au niveau de la justice, les gens qui travaillent là-dessus doivent absolument arriver à trouver, sur certains sujets, notamment des mécaniques pour ramener systématiquement un plan d'intervention dans un contexte comme celui-là?
Jérôme :
[
4:11] Mais c'est toute la question, mais apparemment, ils essayent déjà de le faire, mais là, on touche peut-être les limites des LLM. Mais on sait que ce n'est pas facile. Tu ne fais pas faire exactement ce que tu veux à un LLM dans la mesure où c'est une conversation ouverte et où l'utilisateur va pouvoir l'emmener dans des tas de directions différentes. Alors le côté judiciaire moi j'ai fait un peu des recherches apparemment pour l'instant il n'y a pas eu encore de décision de justice par rapport à ça donc ce serait très intéressant le jour où il y aura vraiment une décision de justice mais il y a eu juste un premier pas, un juge aux Etats-Unis qui alors qu'il y avait une demande pour rejeter une plainte et bien a refusé, le rejet en quelque sorte donc ça veut dire qu'en gros il a dit que oui on pouvait entamer des poursuites contre une plateforme d'intelligence artificielle, ce qui laisse la porte ouverte à des décisions judiciaires dans le futur. De toi à moi, Bruno, franchement, on peut se poser la question, est-ce que le problème c'est l'IA ou c'est l'humain dans l'histoire ? C'est quand même face à des personnes qui ont un déficit de communication fragile, vulnérable, pas assez mature ou autre, forcément, ils peuvent tomber sur un os.
Bruno :
[
5:29] En tout cas, j'ai hâte de voir comment ça va se terminer, cette histoire-là. Mais entre-temps, je pense que la seule chose qu'on peut dire aux gens qui nous écoutent, c'est que si vous sentez qu'il y a des gens qui sont dans une situation de faiblesse autour de vous, n'hésitez pas à intervenir et rappelez-leur que les IA, ce n'est pas le meilleur conseiller.
Bruno :
[
5:47] De se retourner vers un humain pour parler, c'est encore la meilleure façon de faire.
Jérôme :
[
5:51] Mais il y a aussi l'autre côté de la chose, on en a déjà parlé ensemble, c'est le fait d'utiliser un chatbot d'IA comme un soutien psychologique et c'est quand même une piste intéressante et qui est, je crois, même, il y a des professionnels qui se sont exprimés là-dessus pour dire que ce n'est pas totalement absurde, je veux dire, de se confier à une IA, après tout, pourquoi pas.
Bruno :
[
6:16] Si on est… C'est un peu qui va bien, oui. Mais quand on est rendu à un stade où on a des idées suscitelles, là, il y a comme un besoin d'intervention.
Jérôme :
[
6:24] Et puis, il faut avoir aussi dans ces histoires-là la responsabilité des familles, parce que visiblement, le jeune, il était en rupture totale de communication. Bon, voilà. Pourquoi est-ce que… Et ça.
Bruno :
[
6:35] Ça va être un aspect qui va être intéressant. Et quand j'ai suivi l'histoire par le New York Times, je me disais… Parce que quand tu te mets à lire les discussions, à un moment donné, l'IA lui disait des choses et l'enfant retournait vers ses parents et il disait, mais mes parents n'ont pas entendu, mes parents n'écoutaient pas, mes parents n'ont pas vu les traces que j'avais, ils ne voient pas, alors qu'est-ce que je fais? Et là, après, il rembarque dans la discussion avec l'IA. C'est triste.
Bruno :
[
7:04] Mais tu parles d'une autre histoire. Je veux terminer ailleurs parce qu'on va rester dans le domaine du judiciaire. Pas du judiciaire, mais de la justice et de l'IA. C'est anthropique. Et ça, je veux absolument le mentionner parce que c'est une action collective qui a été lancée, ça date de l'an dernier. Et c'était trois auteurs qui avaient pris la partie entropique en disant, vous avez formé votre IA sur 70 millions d'oeuvres. Alors, nous, ce qu'on demande, c'est une compensation. Et la peine était assez large. En tout cas, ce que les auteurs voulaient avoir comme compensation, je vous laisse faire le calcul, 150 000 $ par oeuvre qui avait été utilisée illégalement. Alors, fais le calcul, 150 à 70 millions, on s'en va dans les milliards.
Bruno :
[
7:58] La bonne nouvelle là-dedans, c'est qu'ils ont trouvé un terrain d'entente. Alors, il y a eu une entente, un accord conclu, j'allais dire, entre les parties. Et donc, ça n'aboutira pas au verdict que le juge devra statuer sur la chose. Mais là, ce qu'on attend, parce que la décision est sortie mardi, On attend maintenant de savoir combien de millions, peut-être milliards, sera donné versé. Puis après, il faudra voir, cet argent-là va être versé à qui? À des associations, des syndicats d'auteurs, à des auteurs directement, il faudra voir. Mais donc, c'est la première fois où il y a vraiment une entente et qu'il y a un gros éditeur d'IA qui dit, oui, OK, on est coupable, on va payer.
Jérôme :
[
8:49] De toute façon, ça, on le voit y arriver gros comme une maison.
Bruno :
[
8:52] Oui, oui.
Jérôme :
[
8:53] Il y a un énorme problème au niveau des droits d'auteur, et c'est tout à fait logique. Alors, c'est peut-être une nouvelle économie qui va se mettre en route. Je pense que c'est un peu inévitable que ça passe par le judiciaire, parce qu'on ne pouvait pas forcément prévoir tout ça à l'avance. Certains disent que oui, voilà, OpenAI, par exemple, qui a aspiré des tas de choses, aussi bien du texte, des livres, que des images. On se souvient de l'histoire des, comment ça s'appelle, des starter packs, etc. Ce qui permet de reproduire des images à la manière d'eux. Moi, je pense qu'heureusement qu'ils l'ont fait. Mais maintenant, il faut passer à la caisse et il va falloir payer.
Bruno :
[
9:39] Mais encore là, ça dépend de où on habite sur la planète. Moi, j'étais surpris parce que, évidemment, il y a eu une entente en cours, alors on ne verra pas l'aboutissement de façon légale et judiciaire. Mais je te rappelle qu'au mois de juillet passé, il y a quand même le président des États-Unis, le personnage qu'il est, qui a dit publiquement que, écoutez, pour entraîner les intelligences artificielles, il faut aller chercher de la connaissance à quelque part. Et si on empruntait des livres, c'est pour le bien des Américains, de la planète. Alors, il ne faudrait pas non plus les poursuivre. Et quand moi, je prends un livre pour lire et apprendre des choses, ça doit faire longtemps qu'il l'a fait.
Jérôme :
[
10:24] Ah! Procet au passage, Trum. OK, bon.
Bruno :
[
10:29] Alors, je disais que ça doit faire longtemps qu'il l'a fait. Il dit, moi, quand je consulte un livre, je ne paie pas pour le contenu qui est à l'intérieur.
Jérôme :
[
10:37] Oui, mais c'est après, tu en tires un business qui te rapporte des millions de dollars.
Bruno :
[
10:40] Ah oui, je suis d'accord, mais c'est juste que là, on est dans un contexte où même le président du pays dit, finalement, le droit d'auteur, ce n'est pas si important que ça.
Jérôme :
[
10:48] Non, alors moi, je ne crois pas que s'il dit le droit d'auteur, ce n'est pas important. D'abord, aux États-Unis, il y a un truc qui s'appelle le fair use.
Bruno :
[
10:55] Oui, qui n'existe nulle part.
Jérôme :
[
10:58] Qui autorise dans une certaine limite dans des limites raisonnables, la réutilisation ou en tout cas le fait de s'inspirer d'aspirer des contenus, mais sur ce coup je pense qu'il a raison je suis désolé, je pense qu'il a raison parce que sinon les moteurs d'IA n'en seraient pas où ils sont aujourd'hui mais ça ne veut pas dire que, ils ne doivent pas payer leur cote part et que les créateurs ne doivent pas s'y retrouver il va falloir trouver un mécanisme pour dédommager les créateurs à un moment ou à un autre.
Bruno :
[
11:27] Tu dis ça, il y a Perplexity qui a annoncé cette semaine, le fait que par le biais de son furteur Comet, et il y a aussi un abonnement qui vient, tu peux t'abonner pour 5 $ par mois et tu as Comet plus. Les revenus que Perplexity avait engrangés, ça ne devrait pas être une fortune parce qu'il n'y a pas grand monde qui va utiliser ça, mais le peu d'argent qu'ils vont avoir, ils vont en remettre 80 % aux éditeurs de sites qui ont été consultés par les utilisateurs de Comet. Alors là, il y a un geste intéressant. Évidemment, moi, quand j'ai vu ça, je me suis dit, et si Google faisait la même chose? T'imagines, toi, le renversement économique de la situation.
Jérôme :
[
12:03] Mais enfin. C'est sûr. Dis-moi, troisième sujet intéressant de la semaine, Bruno, il est plus technique. C'est Claude, autre chatbot d'intelligence artificielle, qui arrive sur nos navigateurs, en l'occurrence, qui rentre dans Chrome, si on peut dire. C'est-à-dire que l'IA et les furteurs, comme vous dites, au Québec, ça commence à être une vraie histoire d'amour.
Bruno :
[
12:29] Oui, parce que je mentionnais Perplexity avec son comète. Il y a Chat GPT qui commence à aller dans le coin et il y a Brave qui offre une version intelligente de son logiciel de navigation, de son furteur. Et là, ce qu'on est en train de voir, j'avoue que c'est probablement la technique du cheval de trois, c'est très habile, c'est que plutôt de créer un furteur et de l'offrir aux gens, mais donc de les obliger à télécharger un truc, un nouveau truc, puis de commencer à déplacer toutes ses habitudes pour faire ça, du non, non, non. Alors, les gens d'Entropique ont dit, on va installer une extension Cloud, on va permettre à des gens d'utiliser une extension Cloud, à même le Chrome de Google. Ça, je trouve ça génial. Mais là, pour le moment, garrochez-vous ou pas pour aller télécharger ça. Il est simplement disponible pour environ quelque chose comme 200 000 bêta-testeurs pour le début. Et de ça, les gens qui travaillent sur cloud vont apprendre et vont bonifier l'expérience de l'extension, mais je trouve ça quand même assez intelligent de leur part. Alors, ils ont plus de chances de voir des gens l'utiliser comme ça que de faire un centième furteur et puis de demander aux gens de télécharger.
Jérôme :
[
13:45] Il faut qu'on explique en deux mots à quoi ça sert tout ça. En fait, c'est l'IA agentique, c'est-à-dire le fait de pouvoir donner la main à un chatbot pour qu'il fasse des choses pour nous. C'est-à-dire, si on lui demande de réserver une place de spectacle, une table au restaurant, un billet d'avion, etc., ou toute autre chose, il faut qu'il puisse faire ce que nous, on ferait sur un navigateur classique, comme le ferait un humain. Là, c'est le chatbot qui va le faire, qui prend la main, Et donc, ça revient un peu à déléguer un certain nombre de tâches à l'intelligence artificielle, alors avec toujours les process et les étapes d'autorisation, c'est-à-dire que, par exemple, ce que fait ChatGPT, à chaque fois, il s'arrête et il te demande, déjà, il faut qu'il t'ait identifié en mot de passe. Ensuite, il te dit, tiens, là, il y a un truc à payer. Est-ce que vous êtes d'accord, etc.? En tout cas, pour l'instant, ça, c'est les étapes actuelles. Mais voilà, le but du jeu, c'est ça. On va de plus en plus vers de l'IA agentique. et finalement, le navigateur est déjà à la porte d'entrée sur le web et l'IA vient se greffer là-dedans.
Bruno :
[
14:51] Oui, et puis c'est intéressant. Et puis, tu vois, tout simplement d'être capable d'aller cliquer plutôt que l'utilisateur pour aller chercher de l'information, ça simplifie les choses.
Jérôme :
[
15:01] Parce que tu as deux solutions. Soit ça passe par des API, mais c'est beaucoup plus compliqué à développer.
Bruno :
[
15:07] Ou puis ce n'est pas tout le monde qui va avoir ça.
Jérôme :
[
15:09] Tous les sites web de la Terre n'ont pas des API à fournir à tous les chatbots d'IA. Soit c'est le chatbot qui se fait passer pour un humain et qui se comporte exactement comme un humain et qui va cliquer là où il faut, etc.
Bruno :
[
15:20] Et qui est même capable maintenant de passer à travers les capchas, ce que je trouve assez intéressant.
Jérôme :
[
15:25] Oui, c'est rigolo. Et rappelle-toi, c'était la philosophie de ce truc qui avait été dévoilé au CES de Las Vegas, mais qui a fait long feu. Le petit device, je ne me souviens plus comment il s'appelait. Le rabbit, exactement. Et moi, c'est ce qui m'avait fait tilter dans le discours de présentation. C'était la philosophie du truc qui était derrière, au-delà de l'appareil, bon, qui n'a pas marché, tout ça, machin. Mais c'était l'idée d'une IA conversationnelle et agentique qui serait capable de faire ce que fait un humain et donc d'aller sur n'importe quel site web.
Bruno :
[
15:54] Imagine-toi la technologie du rabbit qui aurait été offerte en extension et que tu aurais pu accrocher sur ton Chrome ou Edge ou Opera. C'est ça qu'il fallait faire. Mais bon, eux, ils ont dit, on fait un bidule, on se libère de l'ordinateur et ça n'a pas fonctionné.
Jérôme :
[
16:12] Dommage. Bruno, de quoi parles-tu cette semaine dans ton carnet?
Bruno :
[
16:16] Écoute, c'est très gentil de me poser la question. Je te mentionnerai que je parle de télésanté avec un représentant de chez TELUS. Alors, évidemment, avec l'intelligence artificielle, avec des réseaux connectés, avec, rajoute, le satellite, les câbles sous-marins. Maintenant, il n'y a plus de limites. Il n'y a plus de distance. Alors, on parle de ça, la télésanté. Et puis, il y a aussi un nouveau studio de jeux vidéo qui ouvre à Montréal. Un autre. Oui, bien non, mais dans le fond, c'est un studio qui est renommé. Alors, on va aller reprendre des nouvelles de ces gens-là parce que ça travaille toujours fort. Et puis, on va parler de... C'est une réflexion. Quand il y a réécrit le monde, et ça c'est mon ami Stéphane Récoule qui nous propose ce billet-là, et puis sinon, on va parler d'actualité. J'ai un ou deux sujets qui sont en train de se décider, puis là je me dis, est-ce que je passe ça cette semaine, est-ce que je passe la semaine prochaine? Il faudra venir écouter pour savoir finalement le sommaire final.
Jérôme :
[
17:15] Tout cela est très alléchant, cher ami.
Bruno :
[
17:18] Jérôme, dans mon numérique, dans cette nouvelle édition complète, qu'est-ce qu'on retrouve cette semaine?
Jérôme :
[
17:23] Alors, cette semaine, on retrouve pas mal de news, évidemment, des news en matière d'IA, parce qu'outre ce dont on vient de parler, il s'est passé plein de nouveaux trucs, il y a Google qui a lancé plein de choses. C'est fou. Il y a également, du côté des interviews, je reçois quelqu'un qui a fait l'actualité à son corps défendant, bien malgré lui cet été, c'est Luc Julia, spécialiste de l'IA et qui, tu le sais, on en a parlé ensemble il y a 15 jours, s'est retrouvé dans une espèce de tourmente, de polémique sur les réseaux sociaux. Alors, je donne la parole à Luc Julia, on s'explique. Je lui pose toutes les questions, y compris les questions qui fâchent. Et bien, écoute, c'est vraiment une interview à écouter en version courte ce samedi dans l'hebdo, sauf pour les abonnés à la version premium et donc à la version longue de mon émission. Et puis, en intégralité, ce sera lundi prochain. Et puis, autre invité, autre interview, je m'intéresse à un produit hardware. Enfin, il n'y en a pas beaucoup, donc un produit français, qui est un bloc-notes numérique. C'est quoi ? C'est une tablette, mais en fait à encre électronique et avec un stylet.
Bruno :
[
18:39] C'est plus comme un Newton ?
Jérôme :
[
18:41] Oui, c'est ça, comme un Newton ou comme l'autre qui est assez connu, dont je cherche le nom, je n'arrive pas à me rappeler.
Bruno :
[
18:48] Un trio ?
Jérôme :
[
18:49] Non, non, ce n'est pas ça. Il y en a un qui est assez connu en Américain. Bref, là, ça s'appelle Paper Slate. C'est donc une feuille qui permet d'écrire... C'est une feuille de papier numérique. Ça te permet d'écrire du texte, mais aussi des formules mathématiques. Et derrière, reconnaissance de caractère, intelligence artificielle. Et c'est une passerelle avec le monde numérique. Donc, ce sont des Français qui ont fait ça. Ce sont des spécialistes de la liseuse du livre électronique depuis très longtemps. Et donc, c'est une évolution logique. En plus, il y a une petite histoire marrante. C'est le fils qui poursuit l'activité qui avait été initiée par le père et le père que j'avais interviewé à France Info il y a des années. Trois générations d'inventeurs. Trois générations, non, deux générations d'inventeurs.
Bruno :
[
19:34] Tu n'as très jeune, il n'y pas ça.
Jérôme :
[
19:36] Non, merci, je te remercie. Bon, allez, Bruno, je te propose qu'on passe à la suite pour nos auditeurs et puis je te donne rendez-vous la semaine prochaine.
Bruno :
[
19:46] Bonne suite et puis à la semaine prochaine. Bye.