Адрес: ул. Б. Очаковская 32 Москва Россия
Наши официальные канал и чат в telegram
Поднимем Devuan на вершину Distrowatch! Просто перейдите по ссылке один раз в день.

Mistral AI опубликовал Devstral, большую языковую модель для работы с кодом

Новости собранные из разных RSS источников
Аватара пользователя
root:#
Site Admin
Сообщения: 272
Зарегистрирован: Вт ноя 08, 2022 3:27 pm
Благодарил (а): 39 раз
Поблагодарили: 22 раза

Mistral AI опубликовал Devstral, большую языковую модель для работы с кодом

Сообщение root:# »

Mistral AI опубликовал Devstral, большую языковую модель для работы с кодом
Компания Mistral AI представила большую языковую модель Devstral, оптимизированную для решения проблем, возникающих в процессе разработки ПО. В отличие от типовых AI-моделей, Mistral AI выходит за рамки написания отдельных функций и дополнения кода, и предоставляет возможности, позволяющие анализировать и контекстуализировать (определять назначение и логику работы) большие кодовые базы, определять связи между компонентами и определять трудновыявляемые ошибки в запутанных функциях. Модель охватывает 23.6 миллиардов параметров, учитывает контекст в 128 тысяч токенов и опубликована под лицензией Apache 2.0. Загружаемый архив с Devstral занимает 47 ГБ и пригоден для использования на локальных системах - для выполнения модели достаточно одного ПК с видеокартой NVIDIA GeForce RTX 4090 и 32 ГБ ОЗУ. Модель можно использовать в открытых инструментариях SWE-agent и OpenHands для автоматизации исправления ошибок, анализа кода и внесения изменений. Система может применяться для решения конкретных проблем (issue) на GitHub и заметно опережает другие проекты в тестовом наборе SWE-Bench Verified, проверяющем корректность решения типовых проблем в коде (предлагается 500 тестов на основе реальных сообщений об ошибках на GitHub). В данном тесте модель Devstral набрала 46.8%, в то время как модель Claude 3.5 Haiku получила 40.6%, SWE-smith-LM 32B - 40.2% и GPT-4.1-mini - 23.6%. Среди прочего Devstral опередила такие крупные модели, как Deepseek-V3-0324 671B (38.8%) и Qwen3 232B-A22B (34.4%), охватывающие сотни миллиардов параметров.
Источник: https://www.opennet.ru/opennews/art.shtml?num=63286