DeepSeek выпустила новую флагманскую большую языковую модель V4

14481
1 минута
24 апреля. /MEDIA TALK/. Китайская DeepSeek анонсировала выход новой языковой модели DeepSeek‑V4. Решение выделяется на фоне разработок других производителей: по уровню знаний и скорости генерации ответов оно занимает лидирующие позиции в КНР.

Пользователям доступны две конфигурации: pro с 1,6 трлн параметров и flash (284 млрд параметров). Глубина контекста — то есть максимальный объём данных (текста, изображений, кода), который большая языковая модель (LLM) может обработать в рамках одного контекста — составляет до 1 млн токенов, что сопоставимо с объёмом 15-20 полноценных романов.

DeepSeek выпустила новую флагманскую большую языковую модель V4
Фото: DeepSeek выпустила новую флагманскую большую языковую модель V4 Freepik

Как отмечает Bloomberg, запуск в январе 2025 года предыдущей модели V3 вызвал широкий резонанс: модель составила достойную конкуренцию передовым американским разработкам, причём с заметно меньшими затратами на создание.

Читайте Медиа Ток в МАХ и Telegram
Наш канал в Дзен, подписывайся! Читай и подписывайся на наш канал в Дзен

Читайте также

Разработано в АЛЬФА Системс