
Why AI Will Never Solve Dark Matter
Audio Summary
AI Summary
L'intervenant souligne que l'intelligence artificielle (IA) n'a pas encore rencontré le même succès en cosmologie que dans d'autres domaines, comme l'exemple d'AlphaFold de Demis Hassabis, lauréat du prix Nobel pour le repliement des protéines. Hassabis avait défini trois critères pour une application d'IA réussie : connaître l'espace des caractéristiques, avoir une fonction objectif claire à optimiser, et disposer d'une grande quantité de données pour l'entraînement. En cosmologie, l'intervenant estime qu'aucun de ces trois critères n'est rempli.
Premièrement, l'espace des caractéristiques est inconnu. Contrairement aux 23 acides aminés dont la combinaison permet de former des protéines, nous ignorons la nature de la matière noire (particule, fluide, etc.), composante essentielle pour décrire des structures gravitationnellement liées comme les amas de galaxies. Sans connaître la matière noire, il est impossible de définir précisément cet espace.
Deuxièmement, la fonction objectif est difficile à formuler. Alors qu'AlphaFold utilisait l'énergie libre pour la minimisation, en relativité générale, la définition de l'énergie et des masses n'est pas toujours unique. Il est donc ardu d'écrire une fonction d'optimisation décrivant, par exemple, un amas de galaxies. La mécanique statistique ne suffit pas non plus.
Troisièmement, bien que les simulations fournissent de grandes quantités de données pour l'entraînement, elles sont coûteuses à produire et à stocker, et leur réalisme est remis en question. L'exemple du lentillage gravitationnel fort est cité : une IA entraînée sur des simulations a montré d'excellents taux de récupération sur ces mêmes simulations, mais des performances médiocres sur des observations réelles, suggérant que les simulations ne capturaient pas toutes les subtilités des données observationnelles.
En ce qui concerne les observations, l'intervenant mentionne les 11 millions de galaxies découvertes par DESI dans l'univers local. Bien que cela semble beaucoup, il compare ce nombre à la population du Ghana (37 millions d'habitants), soulignant que le volume cosmique échantillonné est immense, et que 11 millions de galaxies représentent un échantillonnage très faible. Il doute que cela soit suffisant pour entraîner une IA, surtout compte tenu des inconnues comme la matière noire et l'énergie sombre.
L'intervenant conclut que nous devons d'abord comprendre nous-mêmes ce que sont la matière noire et l'énergie sombre avant de pouvoir utiliser efficacement l'IA. Pour l'instant, l'IA pourrait fournir des pistes, mais ne peut pas, par exemple, comprendre la distribution globale de masse dans un événement de lentillage fort si seules des informations locales sont disponibles. L'IA pourrait produire un modèle plus sophistiqué, mais sans garantie de sa validité physique ou de sa transparence, ce qui rend difficile de le considérer comme la "vraie" solution, d'autant plus que d'autres modèles peuvent également s'adapter aux données.
L'intervenant propose ensuite une approche alternative : la résolution de problèmes inverses, qu'il compare à la résolution d'affaires criminelles. Si cette méthode était adoptée en biomédecine, en astrophysique et en cosmologie, elle impliquerait une refonte complète de la méthode scientifique. Plutôt que de modéliser "vers l'avant", cette approche construirait un "arbre de modèles" nécessaires, où chaque niveau supérieur est basé sur les hypothèses des niveaux inférieurs. Cela permettrait, en cas d'erreur à un niveau donné, de ne reculer que d'un niveau, évitant de "tomber de l'arbre entier" comme cela peut arriver avec la modélisation "vers l'avant" qui ramène parfois à la case départ.
Cette approche est jugée plus positive et encourageante pour la science, car elle réduit le risque des recherches. Au lieu d'investir massivement dans des projets à haut risque et haut rendement, on pourrait simplement étendre un "tronc de connaissances" déjà solide. De plus, à mesure que l'on progresse dans l'arbre (ou que l'on accumule des preuves dans une enquête criminelle), les choix se réduisent, nécessitant de moins en moins de ressources. Cette méthode est donc perçue comme plus efficace, économe en ressources et permettant de financer plus de projets à moindre risque.
En réponse à l'idée que les physiciens théoriciens génèrent constamment de nouveaux modèles en l'absence de données, l'intervenant compare cela à l'ajout de suspects à une liste de criminels, ce qui est l'inverse de ce qu'il faudrait faire. Il cite Neil Turok, qui prône le minimalisme et l'utilisation judicieuse des données existantes. Il rappelle également l'idée de Richard Feynman concernant la physique des particules, où de nouveaux champs et particules étaient ajoutés au fur et à mesure des découvertes, espérant qu'un jour quelqu'un viendrait "nettoyer le désordre".
L'intervenant estime que le problème actuel en cosmologie et astrophysique n'est pas le manque de modèles, mais l'absence de comparaison, d'intégration et de clarification de leurs points communs et de leurs différences. Il propose d'intégrer un nouveau modèle dans l'ensemble des modèles existants, en soulignant où il s'accorde et où il diffère. Son approche suggère que l'information maximale réside là où tous les modèles sont d'accord, ce qui permet ensuite de comprendre pourquoi et où ils divergent entre eux et par rapport aux données.