Новая ИИ-модель DeepSeek cделает работу с длинным контекстом вдвое дешевле и быстрее Автор записи:Master Запись опубликована:30.09.2025 Рубрика записи:Без рубрики Комментарии к записи:0 комментариев Инженеры DeepSeek представили новую экспериментальную модель V3.2-exp, которая обеспечивает вдвое меньшую стоимость инференса и значительное ускорение для сценариев с длинным контекстом. Вам также может понравиться «Плюс. Больше. Экстра» — Nothing представит 31 июля смартфон Phone (2a) Plus 19.07.2024 Samsung будет выпускать 4-нм чипы для возглавляемого Джимом Келлером стартапа Tenstorrent 03.10.2023 В потребительских ПК скоро появятся модули памяти на 64 Гбайт — до 256 Гбайт на систему 16.12.2023 Добавить комментарий Отменить ответКомментарийВведите свое имя или имя пользователя, чтобы прокомментировать Введите свой email-адрес, чтобы прокомментировать Введите URL вашего веб-сайта (необязательно) Сохранить моё имя, email и адрес сайта в этом браузере для последующих моих комментариев.