DeepSeek publie un nouveau modèle avec 685 milliards de paramètres
Phénomène du début d'année 2025 avec son modèle de réflexion R1, l'entreprise chinoise DeepSeek vient de publier DeepSeek-V3-0324. Ce nouveau LLM open source concurrence GPT-4o et GPT-4.5. Avec 685 milliards de paramètres, il pourrait s'imposer comme une nouvelle offensive de la Chine sur l'intelligence artificielle.

Phénomène du début d'année 2025 avec son modèle de réflexion R1, l'entreprise chinoise DeepSeek vient de publier DeepSeek-V3-0324. Ce nouveau LLM open source concurrence GPT-4o et GPT-4.5. Avec 685 milliards de paramètres, il pourrait s'imposer comme une nouvelle offensive de la Chine sur l'intelligence artificielle.