🎤 Interview – Valoriser 100 ans d’archives grâce à l’IA (Philippe Petitpont, Moments Lab)
Monde Numérique10 décembre 202509:27

🎤 Interview – Valoriser 100 ans d’archives grâce à l’IA (Philippe Petitpont, Moments Lab)

L’IA permet de revaloriser des contenus vidéo anciens en permettant une recherche intelligente à l'intérieur des contenus, offrant aux médias et aux producteurs une manière radicalement nouvelle d’exploiter leurs immenses archives.

Interview : Philippe Petitpont, CEO de Moments Lab

En quoi l’IA aide-t-elle l’exploitation des archives vidéo ?

Les grands médias, les groupes sportifs ou encore certaines marques sont assis sur des volumes d’archives immenses, mais souvent mal décrites. Résultat : retrouver un extrait précis devient extrêmement compliqué. Avec notre technologie d’analyse multimodale — présentée au sein de Moments Lab — nous décrivons automatiquement tout ce qu’un humain pourrait voir ou entendre dans une vidéo, scène par scène. Cela permet de retrouver en quelques secondes des moments très précis et de produire rapidement des compilations, des best-of ou des formats courts destinés aux réseaux sociaux, des tâches qui prendraient des heures en production traditionnelle.

A qui est destinée votre technologie ?

Nous travaillons avec des acteurs comme TF1, M6, la Fédération Française de Football ou encore de grands groupes américains. Les besoins vont de la valorisation d’archives à la création de contenus courts pour toucher de nouvelles audiences. Dans le divertissement, un simple prompt permet de générer un top 5 ou une compilation en quelques minutes. Dans l’information, les rédactions s’appuient sur nos outils pour faire du fact-checking quasi instantané, en retrouvant par exemple une déclaration antérieure d’un responsable politique en quelques secondes.

Comment évolue la production audiovisuelle face aux nouveaux usages ?

La consommation se fait de plus en plus sur smartphone. Le format de 52 minutes n’est plus la norme : les audiences privilégient désormais des séquences plus courtes. Nous aidons donc les producteurs à repenser leurs tournages, par exemple en téléréalité, où des centaines d’heures de rushs peuvent donner naissance non seulement à un épisode linéaire, mais aussi à une multitude de petites histoires adaptées aux réseaux sociaux. Cela permet un ciblage plus fin des audiences et ouvre de nouveaux modèles de monétisation.


Philippe Petitpont: [0:01] La tendance de consommation de la donnée aujourd'hui, elle se fait de plus en plus sur des écrans de téléphone. Philippe Petitpont: [0:08] Et il y a un enjeu à pouvoir adapter la façon dont on produit des émissions aujourd'hui, à les réadapter, et même au niveau de la production, sur une consommation qui change complètement. Un épisode de 52 minutes, qui était un peu le standard en télé jusqu'à présent, c'est plus du tout consommé de la même façon. Ça va être 3 minutes par ci, 3 minutes par là, etc. Monde Numérique : [0:35] Bonjour, Philippe Petitpont. Philippe Petitpont: [0:37] Bonjour. Monde Numérique : [0:37] Vous êtes CEO de Moments Lab, qui est une startup française née en France, mais installée en partie aujourd'hui aux États-Unis. On se retrouve ici à Las Vegas à l'occasion du re-invent d'AWS. Vous avez une activité très particulière, mais qui nous concerne tous, j'ai envie de dire. Vous avez développé des outils d'intelligence artificielle pour aller explorer les contenus, vidéos notamment, des grands médias, etc. Expliquez-nous ça, en quoi ça consiste. Philippe Petitpont: [1:05] Oui, effectivement, tout ce monde médias, ils sont assis sur des mines d'or. Ils ont des volumes d'heures de contenus qui sont absolument démentiels. Alors on l'a dans les médias, également dans le sport notamment, et même chez certaines marques. Et il se trouve que réussir à explorer ces archives, c'est très compliqué, parce que souvent elles sont mal décrites. Personne ne se souvient bien de ce qu'il y a à l'intérieur. et quand quelqu'un par exemple cherche des images de Thomas Edison en train de parler de l'ampoule Ah. Monde Numérique : [1:31] Ça existe ça ? Ah oui, des images vidéo ? Philippe Petitpont: [1:34] Si elles n'ont pas été décrites même si elles sont stockées quelque part on ne les retrouvera pas Donc un des enjeux en fait de ces grands groupes c'est de réussir à valoriser ce patrimoine à le réutiliser, créer des compilations, des clips de 2-3 minutes pour réussir à créer une nouvelle source de revenus sur les réseaux sociaux. Par exemple, je produis Masterchef sur Banijay. Je veux fabriquer un top 5 des meilleurs plats de poissons depuis le début de l'histoire de Masterchef. Je vais pouvoir aller prompter mon agent qui va aller chercher tous ces morceaux de vidéos pour créer une compilation en l'espace de 2 minutes. Aujourd'hui, c'est presque impossible. Ça prendrait beaucoup de temps à un humain de pouvoir faire. Monde Numérique : [2:13] Et comment ça fonctionne ? L'IA analyse véritablement le contenu des images, l'audio également ? Philippe Petitpont: [2:19] Exactement. Donc, c'est un modèle qu'on dit multimodal, parce qu'il va analyser tous les éléments qu'un humain pourrait voir ou pourrait entendre, ou même prendre des métadonnées descriptives, soit le lieu de tournage, par exemple. Et on va mélanger toutes ces sources de données pour décrire tout ce qui se passe dans la vidéo, scène by scène, scène par scène. Et on va pouvoir, après, utiliser un agent qui va regarder toutes ces données et extraire ah bah tiens à une minute, Philippe Petitpont: [2:46] Il y a un plat de poisson de Masterchef et celui-ci peut être intéressant pour telle audience. Monde Numérique : [2:51] Qui sont vos clients aujourd'hui ? Qui utilise cette technologie ? Philippe Petitpont: [2:53] Alors nous, on travaille, on a commencé en France, donc on travaille avec TF1, on travaille avec M6, on travaille avec tous les grands ayant droit de contenu média ou sport. On travaille aussi avec la Fédération Française de Football, par exemple, qui a 100 ans d'archives. On travaille avec beaucoup d'acteurs en Allemagne, au Royaume-Uni également. Et maintenant, depuis quelques années, on commence à s'étendre également aux États-Unis, où on va travailler avec des très grands acteurs américains qu'on n'a souvent pas le droit de mentionner, mais qui ont des volumes de contenus qui sont absolument démentiels. Monde Numérique : [3:23] Qui travaillent plutôt du côté de la Californie et qui font des films, c'est ça ? Philippe Petitpont: [3:25] Il y en a quelques-uns qui travaillent dans l'actualité à New York aussi. Donc, on est vraiment sur les deux côtes, effectivement. Et ce qui est assez passionnant, c'est qu'ils ont cette envie de pouvoir réutiliser ce stock de contenus auprès d'audiences qui n'ont pas forcément, de par leur génération, vu ces contenus-là Ou jouer sur le côté un petit peu nostalgie, de dire « Ah bah Friends, les meilleurs moments où Joey dit telle chose ou autre, on va pouvoir les remettre en fait et en quelques minutes réussir à régénérer du revenu à partir d'un stock qui peut soit un long tail du catalogue ou autre, soit qui ne générait plus de valeur jusqu'à ce moment. Monde Numérique : [4:04] » Oui, ça permet de faire des best-of, de faire revivre des contenus sous différentes formes, j'imagine notamment pour les réseaux sociaux. Philippe Petitpont: [4:11] Exactement, alors c'est une grosse tendance, donc il y a vraiment deux choses à voir, il y a la fabrication justement de best-of, de short-form comme on dit, mais également sur du long-form, donc sur des programmes entiers où là on parle de contenu déjà existant, de programme, mais il y a aussi l'enjeu de partir des sources, on dit les rushs des contenus, pour dire, bah... Pour fabriquer un épisode de 52 minutes, par exemple, d'une téléréalité, j'ai besoin d'à peu près 150 heures de contenu. Et je vais avoir besoin de trier sur ces 150 heures quels sont les meilleurs moments qui vont me permettre de construire cet épisode aussi. Donc, on travaille à la fois sur du contenu brut et sur du contenu freiné pour Philippe Petitpont: [4:49] aider les monteurs, les créateurs de contenu à fabriquer ça. Monde Numérique : [4:52] Alors, vous parlez de contenu de divertissement, mais vous avez dit que vous travaillez aussi avec des médias d'information. Philippe Petitpont: [4:58] Absolument, oui. Monde Numérique : [4:59] Donc, ça peut s'appliquer aussi pour l'information. Philippe Petitpont: [5:01] Oui, absolument. Donc il y a un enjeu très fort, je prends un exemple sur un plateau, Je ne sais pas lesquels on a le droit de mentionner comme client, donc je ne vais pas faire d'impair. Il y a une émission qui est très connue en France, qui parle souvent de politique, et où ils sont assez spécialistes de reprendre. Monde Numérique : [5:19] Il y en a beaucoup, il y en a plusieurs, mais bon. Philippe Petitpont: [5:20] Et il y a un enjeu, en fait, quand il y a typiquement un homme politique qui intervient sur un plateau, de pouvoir très rapidement aller fact-checker ce qui se passe. Et là, en deux secondes, l'agent peut aller vérifier. OK, non, mais il a dit qu'il baisserait les taxes à ce moment-là. On retrouve l'extrait et en une minute pendant un débat on est capable d'aller, ressortir un extrait qui va contredire ou pousser ou infirmer ce que par exemple un homme politique aurait pu dire c'est un des cas d'usage je. Monde Numérique : [5:44] Crois que je vois à quelle émission on fait allusion mais est-ce que c'est des choses qui sont utilisées en direct également ça ? Philippe Petitpont: [5:51] Oui absolument, notre modèle travaille également sur des flux vidéo live qui nous permettent d'extraire en quasi temps réel des informations, des insights, des angles de façon à pouvoir valoriser en fait des contenus en live. Donc typiquement le Davos, par exemple, on va réussir à extraire, synthétiser des conférences qui peuvent se passer plusieurs fois en parallèle ou autre. Et l'enjeu, justement, c'est de pouvoir aider les journalistes à comprendre ce qui se passe et à sortir vraiment juste du report des faits, mais à les pouvoir creuser et investiguer sur des temps qui sont beaucoup plus courts. Philippe Petitpont: [6:24] Le journaliste d'investigation aujourd'hui, ça prend énormément de temps, ça coûte très cher. Et avec ces outils-là, on peut réduire l'effort pour, en l'espace de cinq minutes une heure ou deux réussir à arriver à quelque chose qui est beaucoup plus poussé que juste en fait rapporter un fait qui s'est produit par exemple pour l'innovément. Monde Numérique : [6:40] Impressionnant. Qu'est-ce que vous envisagez comme développement futur ? Jusqu'où on peut aller dans l'analyse de ces contenus pour produire d'autres contenus ? Philippe Petitpont: [6:49] Un de ce qu'on est en train de voir sur la transformation de la fabrication des programmes, c'est que la tendance de consommation de la donnée aujourd'hui, elle se fait de plus en plus sur des écrans de téléphone. Et il y a un enjeu à pouvoir adapter la façon dont on produit des émissions aujourd'hui à les réadapter et même au niveau de la production sur une consommation qui change complètement un épisode de 52 minutes qui était un peu le standard en télé jusqu'à présent, c'est plus du tout consommé de la même façon, ça va être 3 minutes par ci 3 minutes par là. Monde Numérique : [7:22] Etc. Philippe Petitpont: [7:23] Et ce qu'on aide beaucoup en ce moment, notamment les sociétés de production, c'est de dire pendant un tournage typiquement d'une émission de télé-réalité, le résultat final ne doit pas être juste un épisode de 52 ou de 25 minutes, mais ça peut donner lieu à des stories. Monde Numérique : [7:37] Tout de suite des déclinaisons. Philippe Petitpont: [7:40] Et ça, ça engage. Pourquoi ça engage beaucoup ? Parce que ça permet une contextualisation et un ciblage beaucoup plus fin de l'audience. Un exemple de télé-réalité, où deux candidats vont parler de voiture, par exemple. Ça ne va peut-être pas intéresser l'audience traditionnelle, mais ça peut intéresser une audience fan de voiture, juste sur cette petite histoire-là. Et sur ce cas-là, ça se produit beaucoup, mais Et sur un épisode linéaire, Philippe Petitpont: [8:03] 100 heures, je ne peux pas le transformer juste en une heure comme ça. Je peux faire plein de petites histoires autour de l'émission qui vont créer des nouveaux revenus sur les réseaux sociaux. Monde Numérique : [8:11] Vous avez des concurrents dans le monde qui font la même chose ? Philippe Petitpont: [8:14] Alors là où on a le plus de concurrents aujourd'hui, c'est sur le modèle qu'on utilise. Nous, on a développé nos propres modèles. C'est le modèle d'analyse de vidéos. On a une vingtaine de modèles différents qu'on utilise multimodaux. Et on a des concurrents sur la partie analyse. Monde Numérique : [8:28] Oui. Philippe Petitpont: [8:29] Des concurrents directs, aujourd'hui, on commence à en avoir quelques-uns. La plupart du temps, ça va plutôt être un client qui décide de développer lui-même sa solution avec des outils déjà existants. On a un avis assez ferme sur la faisabilité de ce genre de choses, parce que je viens de ce monde-là et je sais que c'est toujours très compliqué de développer en interne. Donc nous, c'est en général ce qui se passe quand on trouve à la concurrence, c'est quelqu'un qui va essayer de développer lui-même sa propre solution. Et tout notre enjeu, c'est d'aller montrer que ça existe déjà. Ça se déploie très facilement. L'expérience utilisateur est super simple. Il suffit de savoir pomper en avant. Monde Numérique : [9:01] Super, merci beaucoup. On pensera à vous maintenant quand on regardera des séquences courtes extraites d'émissions plus longues ou des reprises, notamment, vous l'avez dit, pour les déclarations politiques. Merci beaucoup, Philippe Petitpont, CEO de Moments Lab. Merci.
innovation,informatique,technologies,tech news,High-tech,AWS,numérique,actualités,vidéo,