[
0:01] Bienvenue. Aujourd'hui, on se penche sur les annonces IA de Google I.O. 2025. On va essayer de décrypter un peu tout ça en se basant sur ce que Google a dit officiellement. Oui, bonjour. Alors, le gros truc, c'est vraiment l'intégration de Gemini, leur famille de modèles IA, un peu partout dans leurs produits. L'idée, c'est une IA plus maligne, plus agentique, comme ils disent, et puis plus perso, quoi. D'accord. Commençons par le commencement. La recherche Google. Ils lancent le Modia aux États-Unis. Ça change quoi concrètement cette histoire de Curie Fanout ? En gros, au lieu de juste chercher ta phrase, l'IA va découper ta question en plein de sous-questions, tu vois, pour explorer le web beaucoup plus largement. Ah oui ? Oui, et ça tourne avec une version spéciale de Gemini 2.5, donc avec plus de capacité à raisonner, à faire plusieurs étapes. Et dedans, il y a aussi Deep Search. Deep Search, ça c'est pour les sujets compliqués, c'est ça ? Exactement, pour avoir, disons, un rapport assez détaillé avec les sources citées en quelques minutes. Bon, il faudra voir la qualité des sources, mais c'est la promesse.
[
1:07] Oui, la question de la fiabilité se pose toujours. Et ce Search Live, on pointe la caméra et on discute avec la recherche. Ça vient d'Astra, ça ? C'est ça. Search Live, c'est une application de Project Astra. Tu pointes ton téléphone, tu poses une question sur ce que tu vois. C'est une interaction assez directe avec le monde réel via la recherche.
[
1:27] Intéressant. Et les capacités agentiques, Project Mariner, c'était ça le nom de code ? L'IA qui fait des trucs pour nous ? Oui, agentique, c'est ça. C'est l'idée que l'IA ne fait pas que répondre. Elle peut aussi planifier et faire des actions. Par exemple, au lieu de juste te lister des sites pour des billets de concert. Elle pourrait comparer les prix. Voilà. Comparer les prix sur différents sites, peut-être même commencer à remplir tes infos. Mais c'est toujours toi qui décides à la fin, bien sûr. D'accord, ça reste sous contrôle. Et la personnalisation, ça va plus loin aussi. L'IA qui regarde dans mes mails ? Alors, si tu l'actives, oui. Le mot dit « A » pourrait se baser sur ton historique de recherche ou même sur des infos de Gmail, par exemple. Genre, t'as réservé un hôtel, ils te suggèrent des restos à côté. Ah oui, quand même. Google dit que c'est toi qui contrôles, mais bon, ça montre bien que l'IA est
[
2:15] de plus en plus imbriquée dans nos outils persos. Clairement, une grosse évolution pour la recherche. Et cette logique dit « A » plus capable, on la retrouve pour créer des contenus, avec VO3 et Imagen 4. Ah oui, carrément. Et là, ça pourrait changer pas mal de choses.
[
2:31] VO3, c'est leur modèle vidéo. La nouveauté, c'est qu'ils génèrent la vidéo et le son qui va avec. Le son ? Genre les bruits, les voix ? Oui, les bruits d'ambiance et même des dialogues synchronisés. Ce n'est pas juste technique, ça veut dire qu'on pourrait automatiser une partie de la création vidéo. C'est un défi pour les métiers créatifs, ça. Oui, on imagine. Et Imagine 4, c'est l'équivalent pour les images. C'est ça, pour améliorer la qualité, les détails, et surtout, ils insistent là-dessus pour mieux gérer le texte dans les images. Et puis, il y a Flow. Flow. C'est un nouvel outil qui combine un peu tout ça, VO, Imagine, Gemini. L'idée, c'est de pouvoir décrire un film, plan par plan, en langage naturel, et l'IA t'aide à le faire. Et il ne faut pas oublier l'Iria 2 pour la musique. D'accord. Google parle beaucoup de SynthID pour marquer ses contenus IA. Est-ce que ça suffit face au deepfake, aux questions de droits d'auteur ? Mais c'est leur solution technique, oui. Un marquage invisible, un watermark, pour dire ça, ça vient d'une IA.
[
3:34] Ils lancent aussi un outil pour vérifier, le Sense ID Detector.
[
3:38] C'est nécessaire, c'est sûr, mais est-ce que ce sera suffisant ? Est-ce que tout le monde va l'adopter ? Ça, c'est une autre histoire. On verra. Passons à la communication. Google Beam, ça a l'air un peu science-fiction, non? La visio 3D? Ah oui, Beam, c'est la suite de Project Starline. Ça utilise l'IA et des écrans spéciaux pour te donner l'impression que la personne est vraiment là, en 3D, dans la pièce avec toi. Impressionnant. Oui, c'est développé avec HP pour les premiers appareils. On voit bien l'intérêt pour le télétravail ou les relations à distance.
[
4:08] Certainement. Et dans Google Meet, la traduction en temps réel? Ça aussi, c'est une belle avancée. Traduire ce que tu dis en direct et en essayant de garder un peu le ton, le rythme de ta voix. Ça commence avec anglais, espagnol pour certains. Ça peut vraiment faciliter les échanges internationaux. Et on retrouve nos agents IA là aussi. Oui, les capacités agentiques de Project Mariner, on les verra aussi dans l'application Jiminy.
[
4:33] Ils appellent ça un agent mode. Pour l'instant, c'est expérimental. L'idée, c'est de pouvoir lui demander des tâches plus complexes, genre « aide-moi à trouver un appart avec plein de critères » ou « organisme en déménagement ». Donc pour résumer, on a une IA Google qui est vraiment partout maintenant. Elle comprend mieux, elle crée des choses plus complexes et elle peut même agir un peu à notre place. C'est exactement ça. L'interaction devient plus naturelle, plus conversationnelle. La création est augmentée, comme on dit, et on peut déléguer certaines tâches. Le but affiché, c'est de nous aider, de nous faire gagner du temps.
[
5:07] Une dernière réflexion pour conclure ?
[
5:10] Ce qui est frappant, c'est que ces IA ne deviennent pas juste plus fortes, mais aussi plus conscientes de qui on est, de notre contexte personnel, pour mieux nous assister. Et ça pose une question essentielle, je trouve. Comment on s'assure que cette collaboration homme-IA reste bien sous notre contrôle, qu'elle répond vraiment à nos besoins, sans créer de nouvelles dépendances ou de nouveaux problèmes ? C'est vraiment le point clé à surveiller pour la suite.