La prochaine vague robotique s’incarne dans des gestes banals : un bras mécanique plonge dans l’évier, un autre remplit le tambour d’une machine à laver. Ce ne sont plus des scènes de science‑fiction mais des prototypes d’Enactic, start‑up tokyoïte en quête d’un nouveau Graal — faire de l’intelligence artificielle une présence tangible dans notre quotidien.
Fini les algorithmes confinés aux serveurs. L’IA s’incarne. Elle prend forme. Elle devient robot, voiture autonome, assistant domestique. Chaque geste automatisé raconte une révolution silencieuse : celle d’un monde où la pensée artificielle s’infiltre dans la matière.
Et chaque tâche ménagère accomplie par une machine humanoïde devient le symbole d’un basculement : celui d’une humanité qui délègue, qui transforme, qui s’interroge.
– La prochaine vague de l’IA matérielle –
Après l’IA générative, place à l’IA matérielle. Elle maîtrise les lois de la physique, se déplace dans notre environnement et acquiert une perception du réel. Jensen Huang, PDG de Nvidia, l’affirme : La prochaine vague, c’est celle-là.
Les géants de la tech misent gros. Des milliards investis. Objectif : inonder le monde de robots humanoïdes. D’ici 2050, plus d’un milliard pourrait circuler, selon Morgan Stanley. La machine devient masse. Le futur, marché.
Les vidéos circulent. Des androïdes dansent, soulèvent des charges, bougent avec fluidité. La plupart viennent de Chine. Leur aisance fascine. L’engouement grandit. L’illusion d’un futur proche s’installe.
Au-delà du fantasme de majordomes robotiques, surgissent des inquiétudes. D’abord l’emploi : des tâches remplacées, des postes menacés. Ensuite la vie privée : capteurs, données, surveillance. Enfin le délai : combien de temps avant une utilité réelle ? Le progrès promet — mais il inquiète.
Hiro Yamamoto, 24 ans, dirige Enactic. Il affirme que le tournant est proche. Leur outil : des bras humanoïdes, les OpenArm. Nvidia et Stanford les utilisent déjà. Enactic promet un déploiement dès l’été prochain. Conclusion: prototype à production. Le compte à rebours commence.
Ces robots sont encore en développement. Ils devront côtoyer des humains dans des lieux chaotiques et changeants. Par exemple : maisons de retraite. Ils auront une enveloppe extérieure souple. Objectif : éviter de blesser quelqu’un. M. Yamamoto l’a expliqué à l’AFP.
– « Presque tous les rôles » –
À Canton, une silhouette féminine monte sur scène. Elle porte un masque ovale, posture d’escrimeuse. Elle avance lentement sous les acclamations. C’est le dernier robot humanoïde de XPeng. Le constructeur chinois de véhicules électriques le présente comme une performance — et une promesse.
Des machines agiles existent déjà. Boston Dynamics impressionne avec ses robots‑chiens quadrupèdes. Mais la Chine avance vite. Pékin soutient les industriels. Des chaînes d’approvisionnement locales solides accélèrent la production. Unitree et EngineAI gagnent du terrain. Course technologique : innovation contre l’écosystème industriel.
« Je n’ai pas pensé au volume annuel dans dix ans. Mais ce sera sans doute plus que des voitures.» He Xiaopeng, fondateur de XPeng, l’affirme à la presse. Les robots pourraient dépasser l’automobile en marché.
Les robots IRON marchent et dansent seuls. Ils affichent une autonomie spectaculaire. Mais la manipulation d’objets reste incertaine. Attraper, saisir, manipuler demande bien plus de finesse. XPeng n’a pas encore prouvé cette compétence à grande échelle. Spectacle, oui. Preuve opérationnelle non.
Leurs doigts agiles et leur peau flexible ne devraient pas remplacer les ouvriers des usines chinoises de sitôt, reconnaît M. He. Le prix d’une main robotique, qu’il faudrait remplacer chaque mois en cas de travaux intensifs, couvrirait le salaire d’un ouvrier sur plusieurs années.
Avec assez de données et d’entraînement, les humanoïdes pourront tout faire. Nourrice. Cuisinier. Jardinier. Presque tous les rôles, affirme Brian Gu, président de XPeng. La polyvalence robotique n’est plus une utopie.
– « Large fossé » –
Si ChatGPT apprend sur des milliards de mots, les robots doivent apprendre autre chose. D’abord la vision. Ensuite les relations spatiales entre objets. Ces éléments sont plus complexes. L’IA matérielle nécessite des données sensorielles et des entraînements différents.
Piloter à distance des robots pour leur apprendre à faire des gestes simples comme attraper une tasse « est de loin le moyen le plus fiable de collecter des données », explique M. Yamamoto.
Environ 50 démonstrations de chaque tâche sont nécessaires: pour ces tests, les bras humanoïdes d’Enactic sont pilotés à distance par un opérateur équipé d’un casque de réalité virtuelle.
L’entreprise a approché des dizaines d’établissements de soins au Japon, pour que ses robots télé-opérés y prennent en charge les tâches ingrates, afin que les soignants se consacrent aux résidents âgés: cette expérience sur le terrain est censée entraîner ses modèles pour que les robots agissent ultérieurement de manière autonome.
La start-up américano-norvégienne 1X adopte une approche similaire avec son assistant humanoïde NEO, dont elle prévoit l’arrivée dans les foyers américains dès l’année prochaine.
NEO coûte 20 000 dollars, mais ses performances restent hésitantes, une vidéo montrant le robot peinant à fermer la porte d’un lave-vaisselle, même en mode téléopéré.
Le géant japonais de l’investissement SoftBank a, lui, récemment racheté pour 5,4 milliards de dollars la division robotique de l’helvético-suédois ABB, qualifiant l’IA matérielle de « prochaine frontière ».
Pour l’heure, il subsiste un « large fossé » entre les systèmes d’IA des robots et leurs capacités physiques, tempère Sara Adela Abad Guaman, professeure-assistante en robotique à l’University College de Londres.
« La nature montre que pour s’adapter à un environnement, il faut avoir le corps adéquat », explique-t-elle. « Au final, notre sens du toucher reste incomparable. »
Source: Agence France-Presse
















