
DeepSeek vient d'HUMILIER OpenAI : leur IA gratuite écrase GPT 5.5
Audio Summary
AI Summary
Dipsic vient de lancer son modèle phare, Dipsic V4, un modèle massif, puissant, open source et coûtant une fraction du prix des modèles concurrents. Cela pourrait remettre en question la domination américaine dans l'IA, car la Chine semble avoir rattrapé son retard et innove d'une manière inattendue.
En janvier 2025, Dipsic R1, une startup chinoise, avait déjà secoué Wall Street en démontrant qu'il était possible de créer un modèle de haute performance pour un coût d'entraînement dérisoire de 5,6 millions de dollars, comparé aux milliards dépensés par les géants américains. Ce fut considéré comme un coup de chance, mais le 24 avril 2026, Dipsic a réitéré avec le lancement de la V4.
La V4 se compose de deux modèles : le V4 Pro avec 1600 milliards de paramètres (49 milliards actifs par requête, c'est un MoE) et le V4 Flash avec 284 milliards de paramètres (13 milliards actifs). Les deux supportent un contexte d'un million de tokens, soit environ 750 000 mots, ce qui permet de traiter des textes d'une longueur équivalente aux trois tomes du Seigneur des Anneaux et Harry Potter combinés. Ces modèles sont open source, sous licence MIT, et téléchargeables gratuitement sur Hugging Face. Le V4 Pro est désormais le plus grand modèle open source au monde, surpassant Kimik 2.6 et doublant leur précédent modèle, Dipsic V3.
Le lancement de Dipsic V4 est survenu un jour seulement après Chat GPT 5.5, rappelant la première sortie de Dipsic qui avait déjà provoqué une chute des entreprises tech. Cependant, la vraie différence avec Dipsic V4 ne réside pas seulement dans les chiffres, mais dans la manière dont ils ont été atteints. Le défi majeur de l'IA aujourd'hui n'est pas de construire des modèles plus grands, mais de les faire fonctionner à moindre coût.
Trois obstacles majeurs se posent :
1. **La fenêtre de contexte :** Chaque nouveau token à retenir remplit la mémoire de travail (KV cache). Plus cette mémoire grossit, plus la puissance de calcul nécessaire est élevée, rendant l'utilisation d'un million de tokens de contexte prohibitif en production, malgré la capacité théorique des modèles.
2. **Le coût d'entraînement :** L'entraînement des modèles prend des mois de calcul, des milliers de cartes graphiques, et consomme l'énergie d'une petite ville. Pour la Chine, les restrictions d'exportation américaines sur les puces rendent ce problème encore plus aigu, chaque GPU ayant une valeur stratégique.
3. **La croissance quadratique de l'attention :** L'algorithme d'attention du Transformer, essentiel pour comprendre les liens entre les mots, a une croissance quadratique. Doubler la quantité de texte multiplie par quatre le calcul nécessaire, créant un mur technologique.
Face à ces obstacles, les entreprises américaines ont traditionnellement misé sur l'augmentation de la puissance de calcul brute. Dipsic, privé de cette option, a dû innover. Leur solution est l'attention hybride CSA + HCA. Au lieu de traiter chaque token de la même manière, le modèle compresse sa mémoire de travail en regroupant plusieurs tokens, puis ne recherche que les morceaux les plus pertinents. La couche CSA compresse la mémoire de l'IA d'un facteur 4, et la couche HCA va plus loin avec une compression agressive, appliquant une attention complète sur une version condensée du contexte. Cette alternance permet une lecture fine et une vue d'ensemble rapide.
Les résultats sont spectaculaires : sur un contexte d'un million de tokens, V4 Pro ne consomme que 27 % de la puissance de calcul de V3.2, et le KV cache tombe à 10 % de sa taille d'origine. Cela signifie qu'avec la même carte graphique, on peut gérer 10 fois plus de contexte, rendant le million de tokens réellement utilisable.
Dipsic V4 intègre également un module de mémoire conditionnelle, un système de mémoire parallèle au mécanisme d'attention classique. Dans un Transformer normal, le même mécanisme gère la recherche de connaissances factuelles et le raisonnement complexe. Dipsic résout ce problème en séparant les fonctions : les connaissances statiques sont déchargées sur un canal dédié avec un temps de récupération constant, inspiré du concept d'oubli computationnel de la mémoire biologique humaine. Ce concept, auparavant théorique, est désormais intégré dans un modèle concret et déployé.
En termes de performance, V4 Pro Max est le meilleur modèle open source au monde en raisonnement et en codage. Sur Code Force, il atteint un rating de 3206, le plaçant 23e parmi les compétiteurs humains, rivalisant avec Chat GPT 5.2 et Gemini 3.0 Pro, et se rapprochant de Chat GPT 5.4 pour les tâches de code. En mathématiques formelles, sur le benchmark Pudman, V4 Flash Max obtient 81 points contre 26,5 pour Gemini 3 Pro, et un score parfait de 120/120 sur la version 2025 avec vérification formelle.
Malgré ces avancées, Dipsic reconnaît un retard de 3 à 6 mois sur les meilleurs modèles fermés comme Chat GPT 5.5 et Gemini 3.1 Pro, faisant preuve d'une honnêteté rare dans l'industrie.
Le prix de Dipsic V4 est un véritable séisme : V4 Flash coûte 0,14 $ par million de tokens en entrée et 0,28 $ en sortie. V4 Pro coûte environ 3,48 $ par million de tokens en sortie. En comparaison, Chat GPT 5.5 est à 30 $ et Claude 4.7 à 25 $. Dipsic est sept fois moins cher pour des performances proches, et prévoit une nouvelle baisse de prix pour V4 Pro avec la production à grande échelle des Supernodes Huawei. Cela représente un changement de catégorie pour les entreprises utilisant l'IA en production, rendant les agents IA plus intelligents du jour au lendemain.
Ce lancement dépasse le simple cadre technique. Huit jours avant la sortie de V4, Jensen Huang, le PDG de Nvidia, avait déclaré sur un podcast que "le jour où Dipsic sort d'abord sur Huawei, c'est un résultat catastrophique pour notre pays". Effectivement, Dipsic a accordé un accès anticipé aux fabricants de puces chinois, excluant Nvidia et AMD. Huawei a immédiatement annoncé la compatibilité de ses Supernodes Ascend 950 avec Dipsic V4, et l'utilisation de ses puces pour l'entraînement de V4 Flash, le tout tournant sur Cann, l'équivalent chinois de CUDA.
CUDA est l'écosystème logiciel de Nvidia sur lequel repose la quasi-totalité de l'industrie mondiale de l'IA. Dipsic et Huawei sont en train de construire un écosystème parallèle complet avec des puces, des logiciels et des modèles chinois, le tout en open source et accessible au monde entier. Cette nouvelle a eu un impact immédiat sur le marché, avec une hausse des actions des fondeurs chinois et une baisse pour les rivaux chinois de Dipsic. Bien que l'effet de surprise soit moindre qu'en 2025, l'intensité de la concurrence domestique en Chine est nouvelle, Dipsic se mesurant désormais à d'autres modèles chinois.
Le contexte politique est également tendu : la sortie de V4 est survenue un jour après que la Maison Blanche a accusé la Chine de vol de propriété intellectuelle via la "distillation de