Вышел лонгрид от ICT Moscow про отечественные LLM и различные подходы к их созданию: Остаться в седле: кто и как в России обучает модели искусственного интеллекта.
Мне материал показался интересным, достаточно системно рассмотрены релизы ИИ-моделей этого года, опрошены эксперты как из бигтеха и университетов, так и стартапов.
Наверное, в не-бигтеховую часть подборки можно было бы включить мини-модели от "Сибирских нейросетей". Но, вероятно, не вошли по дате релиза.
Мы в ИТМО свои наработки по до-обучению специализированных моделей тоже ещё пока не успели опубликовать.
P.S. Про вчерашние open-source модели от OpenAI все, вероятно, уже прочитали. По метрикам выглядит многообещающе, у себя тоже попробуем поднять GPT-OSS-20B и протестировать в составе наших мультиагентных LLM-инструментов, вместо текущей Gemma 3 27b.
Мне материал показался интересным, достаточно системно рассмотрены релизы ИИ-моделей этого года, опрошены эксперты как из бигтеха и университетов, так и стартапов.
Наверное, в не-бигтеховую часть подборки можно было бы включить мини-модели от "Сибирских нейросетей". Но, вероятно, не вошли по дате релиза.
Мы в ИТМО свои наработки по до-обучению специализированных моделей тоже ещё пока не успели опубликовать.
P.S. Про вчерашние open-source модели от OpenAI все, вероятно, уже прочитали. По метрикам выглядит многообещающе, у себя тоже попробуем поднять GPT-OSS-20B и протестировать в составе наших мультиагентных LLM-инструментов, вместо текущей Gemma 3 27b.
🔥9