
Après l’IA générative qui a bouleversé nos écrans, une nouvelle vague s’apprêterait à déferler : l’IA physique (Physical AI). Une technologie qui ne se contente plus de produire du texte, des images ou du code, mais qui agit, manipule, déplace et transforme des objets dans notre environnement réel. Il en était question à l'événement Re-invent organisé par AWS à Las Vegas.

Imaginez un robot capable de saisir une perceuse, de monter sur un échafaudage, de visser une pièce avec précision… puis de s’adapter instantanément à une tâche totalement différente simplement en recevant une instruction en langage naturel. Pas un robot programmé ligne par ligne, mais une machine qui comprend son environnement et agit en conséquence. C’est l'idée qui se cache derrière la notion d’IA physique, à laquelle une table ronde était consacrée lors de l'événement AWS Re-Invent 2025.
L’IA physique repose sur l’intégration de multiples dimensions : la vision, le toucher, la force, mais aussi l’audio, la proprioception (sens de la position et du mouvement du corps dans l'espace) et la capacité à raisonner dans l’espace. « L’IA physique brasse beaucoup plus de signaux que l’IA numérique : c’est une explosion de modalités », explique Amit Goel, responsable de la robotique et de l’edge chez NVIDIA. Cette richesse de données ouvre des possibilités inédites… mais introduit aussi de nouveaux défis.
Un besoin croissant de robots
Si l’essor de ce domaine se produit aujourd’hui, c’est grâce à une convergence de plusieurs facteurs. Les robots embarquent désormais des puces suffisamment puissantes pour faire tourner des modèles complexes en temps réel. Les environnements de simulation atteignent un niveau de précision tel qu’ils permettent de former des robots dans des mondes virtuels “aussi crédibles que des essais physiques”. Et, dans de nombreux secteurs, la pénurie de main-d’œuvre accélère l’adoption. Comme le rappelle Kevin Peterson, cofondateur de Bedrock Robotics : « Dans la construction, il manque environ 500 000 travailleurs aux États-Unis. L’autonomie n’est plus un luxe, c’est une nécessité. »
Mais la prouesse technique ne suffit pas. La grande barrière actuelle, c’est la dextérité. Pour manipuler un objet avec une main humanoïde, il faut contrôler une quinzaine de degrés de liberté, avec une précision millimétrique et une latence de quelques millisecondes. « Aucun modèle public ne sait encore produire une vraie dextérité humanoïde », souligne Joong-Hee Ryu, fondateur de Real World. Son entreprise travaille justement à créer des modèles fondamentaux robotiques capables de gérer cette complexité.

Pas droit à l'hallucination
La seconde difficulté, c’est la sécurité. Contrairement à un chatbot, un robot ne peut pas “halluciner” sans conséquence. Une mauvaise interprétation d’une instruction pourrait causer des dégâts ou blesser quelqu’un. C’est pourquoi tous les intervenants insistent : la logique de sécurité doit rester embarquée dans le robot, sans dépendre de la connexion réseau. « Il faut rendre presque impossible qu’un compromis réseau puisse mener à une action dangereuse », insiste Kevin Peterson.
Cela impose une architecture hybride où le robot prend les décisions critiques en local, tandis que le cloud sert à orchestrer, planifier, entraîner les modèles et coordonner des flottes entières. Cette hybridation est au cœur de la stratégie AWS–NVIDIA, qui combine calcul massif, simulation haute fidélité et déploiement temps réel sur machines physiques.
Un "moment robot" ?
Une question a traversé la salle : vivra-t-on un jour l’équivalent du “moment iPhone” ou du “moment ChatGPT”, mais pour les robots ? Le panel se montre optimiste, mais prudent. Plutôt qu’un choc soudain, les experts prévoient une montée en puissance progressive, portée par la démocratisation du matériel edge et par des robots de plus en plus reprogrammables à la voix. « Les plateformes edge de NVIDIA, c’est un peu l’iPhone de l’IA physique. Les applications commencent juste à éclore », résume un intervenant.
À court terme, c’est surtout l’industrie qui va bénéficier de cette rupture. Les entrepôts, les chantiers ou les sites de production devraient voir arriver, dès 2026, des robots d’inspection autonomes, des assistants logistiques intelligents, des bras robotisés capables d’apprendre en observation directe, et même les premiers humanoïdes spécialisés dans des tâches répétitives. Comme le résume Josh Gruenstein, CEO de Tutor Intelligence : « Les robots domestiques viendront un jour, mais l’industrie sera le terrain d’entraînement. »
Bref, non contents de commencer à acquérir des yeux et des bras, les robots, avec l'IA physique, seraient sur le point d'acquérir une forme d’intelligence opérationnelle.
En savoir plus : Advancing Physical AI
Partager cet article sur votre réseau préféré :












