Aujourd’hui, les intelligences artificielles apprennent surtout grâce au texte, aux images ou aux vidéos mises en ligne par les humains. Elles devinent ce que nous voulons dire, elles complètent des phrases, elles reconnaissent des objets… mais elles ne vivent pas physiquement ce qu’elles apprennent. Elles n’ont pas d’expérience directe du monde.
Imagine une IA qui aurait appris la physique uniquement en lisant des livres. Elle pourrait savoir que “si on pousse un objet, il bouge”, mais elle ne saurait pas comment il bouge, à quelle vitesse, avec quel frottement, avec quelle résistance, ni quelles forces entrent réellement en jeu. Autrement dit : elle peut décrire la causalité, mais elle ne la sent pas.
Notre projet part d’une question simple :
Et si l’IA apprenait la causalité du monde non pas en lisant sa description, mais en vivant les actions et leurs conséquences ?
Pour cela, il faut construire un type nouveau de données : des données qui relient ce qu’un agent perçoit, ce qu’il fait, et ce qu’il observe juste après. Pas une image seule, pas un capteur isolé, mais un fragment d’expérience qui dit :
“j’ai fait ceci → et le monde a réagi comme ça”.
Pour que cela fonctionne, il faut définir une sorte de langage universel de la perception, capable de représenter :
ce que voit un capteur (caméra, micro, lidar, force, température…)
où ce capteur se trouvait dans l’espace
quand la mesure a été faite (avec précision)
ce que l’agent était en train de faire juste avant (pousser, tirer, déplacer…)
et avec quelle incertitude ces informations sont connues
Ce n’est pas un langage humain.
C’est une structure pour enregistrer l’expérience physique.
L’idée est la suivante :
si l’on alimente un modèle d’IA avec des millions de ces “petites expériences”, il pourra découvrir par lui-même les régularités du monde physique : inertie, friction, relations entre gestes et effets, comportements des matériaux, stabilité, réactions mécaniques…
Exactement comme un enfant apprend en manipulant.
Avec suffisamment d’expériences, un modèle pourrait alors contrôler des robots, comprendre des scènes dynamiques, manipuler des objets inconnus, ou s’adapter très rapidement à un nouvel environnement industriel — sans être reprogrammé en profondeur.
Le but final est une IA incarnée :
une IA qui connaît la physique non parce qu’on la lui raconte, mais parce qu’elle l’a vécue.
C’est un projet ambitieux : créer un standard pour transformer la perception, l’action et la causalité en données apprenables. La première brique pour donner à l’IA une vraie compréhension du monde, enracinée dans la réalité matérielle.