DeepSeek publie un nouveau modèle avec 685 milliards de paramètres

Phénomène du début d'année 2025 avec son modèle de réflexion R1, l'entreprise chinoise DeepSeek vient de publier DeepSeek-V3-0324. Ce nouveau LLM open source concurrence GPT-4o et GPT-4.5. Avec 685 milliards de paramètres, il pourrait s'imposer comme une nouvelle offensive de la Chine sur l'intelligence artificielle.

Mar 24, 2025 - 20:03
 0
DeepSeek publie un nouveau modèle avec 685 milliards de paramètres

DeepSeek

Phénomène du début d'année 2025 avec son modèle de réflexion R1, l'entreprise chinoise DeepSeek vient de publier DeepSeek-V3-0324. Ce nouveau LLM open source concurrence GPT-4o et GPT-4.5. Avec 685 milliards de paramètres, il pourrait s'imposer comme une nouvelle offensive de la Chine sur l'intelligence artificielle.