
8 mois ... C'est tout ce qu'il vous reste selon ces experts en IA
Audio Summary
AI Summary
Nous sommes à un point de bascule, confrontés à la plus grande transformation socio-économique jamais vue, annoncée par des figures clés de l'intelligence artificielle. Ce n'est pas une simple révolution technologique, mais le début d'un changement de civilisation. Il est crucial de prendre conscience de ces évolutions.
Sam Altman, PDG d'OpenAI, a publié un plan de 13 pages pour réorganiser la société autour de l'IA, allant au-delà des essais philosophiques habituels. Ce plan fait suite à son texte "The Gentle Singularity", où il expliquait que la singularité avait commencé, mais que le quotidien masquait cette réalité. Six mois plus tard, ses prédictions se réalisent.
Parallèlement, Dario Amodei, patron d'Anthropic (fondée après son départ d'OpenAI par souci des risques de l'IA), a publié un essai de 20 000 mots intitulé "The Adolescence of Technology". Il utilise la métaphore de l'adolescence pour décrire l'humanité face à un pouvoir technologique immense, sans savoir si elle a la maturité pour l'utiliser. Amodei identifie cinq catégories de risques : l'autonomie des systèmes IA, l'utilisation malveillante de l'IA, la prise de pouvoir par des entités utilisant l'IA, des destructions massives d'emplois, et des effets indirects dus à la rapidité des changements. Il estime que nous sommes bien plus proches d'un danger en 2026 qu'en 2023.
Ces deux visions, l'optimisme d'Altman face au décollage de l'IA et les avertissements d'Amodei sur les risques, se sont complétées. Début avril 2026, OpenAI a publié un document officiel de 13 pages, "La politique industrielle pour l'ère de l'intelligence", qui représente le passage de la théorie à la pratique, de la prophétie au plan d'action. Ce document est un plan pour la société entière, proposant un nouveau contrat social, comparable au New Deal de Roosevelt, pour éviter l'effondrement des sociétés.
Le document d'OpenAI reconnaît explicitement que la transition vers la super-intelligence détruira des emplois à une vitesse et une échelle sans précédent. Cette réalité se vérifie déjà : depuis début 2026, plus de 100 000 emplois ont été supprimés dans le secteur tech. Des entreprises comme Microsoft, Block, Nike et Oracle ont procédé à des licenciements massifs, citant l'IA comme raison principale. Pendant ce temps, des géants comme Amazon, Google, Meta et Microsoft investissent des centaines de milliards de dollars dans la construction de data centers et de nouveaux modèles d'IA, remplaçant les humains par des machines.
Face à ces constats, OpenAI propose trois mesures concrètes :
1. **La semaine de 4 jours :** Open AI suggère d'inciter les entreprises à tester des semaines de 32 heures sans perte de salaire, à condition que la productivité reste stable. L'idée est que les gains d'efficacité de l'IA profitent aux travailleurs sous forme de temps libre. Cette idée fait écho à la décision d'Henry Ford en 1926 de passer à la semaine de 5 jours, augmentant la productivité et la consommation.
2. **Une refonte fiscale :** L'IA augmentera massivement les profits des entreprises et les gains en capital, tout en réduisant les revenus liés aux salaires. Or, les programmes sociaux sont financés par les charges sur les salaires. OpenAI propose donc de rééquilibrer la base fiscale en taxant davantage les revenus du capital et les gains spécifiquement liés à l'automatisation par l'IA. Si une entreprise remplace 500 employés par une IA, elle devrait davantage contribuer à la collectivité.
3. **Un fonds de richesse publique :** L'idée est de créer un fonds souverain alimenté par les gains de la croissance liée à l'IA, dont les retours seraient distribués directement aux citoyens. Ce serait une forme de revenu universel, financée par la productivité illimitée de l'IA, avec la contribution des entreprises développant ces technologies.
Ces propositions sont encadrées par un volet sécurité qui intègre les avertissements d'Amodei. Le document propose des audits obligatoires pour les modèles IA avancés présentant des risques (cybersécurité, biologie), un système de signalement d'incidents, et des protocoles de confinement pour les systèmes dangereux qui seraient relâchés dans la nature (des "playbooks" pour réagir si un modèle échappe au contrôle).
L'accélération de l'IA est fulgurante. OpenAI a lancé ChatGPT 5.5, un modèle capable de contribuer à des découvertes scientifiques, seulement six semaines après ChatGPT 5.4. Cette "nouvelle classe d'intelligence" confirme les prédictions d'Altman pour 2026 concernant l'arrivée de systèmes générant des idées inédites.
La robotique suit le même rythme. Nvidia et ses partenaires ont présenté des robots humanoïdes travaillant dans de vraies usines. Boston Dynamics produit Atlas électrique en série, et Unitree a expédié des milliers de robots humanoïdes à moins de 5 000 dollars l'unité. Sony a même publié dans Nature la performance d'un système robotique autonome capable de battre des joueurs professionnels de tennis de table, une prédiction d'Altman pour 2027.
Tout converge : les modèles IA deviennent plus intelligents, les robots physiquement capables, les emplois se transforment rapidement. Le plan d'OpenAI vise à anticiper et organiser cette transition pour qu'elle profite au plus grand nombre. Le débat n'est plus de savoir si l'IA va changer le monde, mais comment s'organiser pour éviter un désastre.
La métaphore de l'adolescence technologique d'Amodei est pertinente : l'IA en 2026 possède une force d'adulte sans la maturité sociale des institutions. La transition économique, autrefois longue de 50 ans pour le pétrole ou l'électricité, pourrait ne prendre que 5 ans. Les merveilles d'hier (images, vidéos, voix générées par IA) deviennent la routine d'aujourd'hui. Des technologies comme Google Genny 3, un modèle monde générant des univers virtuels 3D photoréalistes en temps réel, sont stupéfiantes mais sont rapidement intégrées comme normales.
Le document d'OpenAI insiste sur la nécessité de construire des "amortisseurs" sociaux dès maintenant : des filets de sécurité adaptatifs, des bénéfices portables, et un "droit à l'IA" garantissant un accès de base gratuit ou à faible coût, comme un bien commun.
Nous sommes au début du plus grand transfert de capacité productive de l'histoire humaine, des travailleurs vers les machines. La question n'est plus si cela va arriver, mais comment redistribuer les richesses et les opportunités. Les deux hommes les plus influents de l'IA mondiale s'accordent sur la rapidité des changements et le risque de souffrance pour la majorité si rien n'est fait.
L'IA n'est pas un problème réservé aux dirigeants, mais concerne chacun. Les pertes d'emplois touchent tous les secteurs. Sans politiques adaptées, l'IA creusera les inégalités. Cependant, l'IA a aussi le potentiel de réduire les coûts de la santé, de l'éducation, de l'alimentation, et de résoudre des problèmes scientifiques complexes. Le futur peut être radieux ou sombre, cela dépend de ce que nous en ferons. L'IA est un amplificateur ; elle amplifie ce que nous savons faire. La maîtrise de ces outils est essentielle, car le monde n'attendra pas que nous soyons prêts. Ceux qui comprennent et intègrent l'IA dans leur quotidien en profiteront.