Небольшое объявление для тех, кто хочет попробовать себя на научной позиции в сфере AI/ML:
У нас Институте ИИ ИТМО открылось несколько вакансий уровня junior и middle, от NSS Lab и AI Industrial Research Lab.
Среди тематики выделали три основных трека: по AI4Science, AI4Industry и по мультиагентным LLM.
В ходе работы можно будет и поучаствовать в разработке наших многочисленных open-source решений, и поресерчить на уровне A* / Q1.
Так что если ищете позицию с уклоном в разработку ПО - такие тоже есть.
Все подробности и форма для откликов - тут (по ссылке - канал NSS Lab, там периодически пишем о наших достижениях и результатах).
У нас Институте ИИ ИТМО открылось несколько вакансий уровня junior и middle, от NSS Lab и AI Industrial Research Lab.
Среди тематики выделали три основных трека: по AI4Science, AI4Industry и по мультиагентным LLM.
В ходе работы можно будет и поучаствовать в разработке наших многочисленных open-source решений, и поресерчить на уровне A* / Q1.
Так что если ищете позицию с уклоном в разработку ПО - такие тоже есть.
Все подробности и форма для откликов - тут (по ссылке - канал NSS Lab, там периодически пишем о наших достижениях и результатах).
🔥6❤1
Вышел лонгрид от ICT Moscow про отечественные LLM и различные подходы к их созданию: Остаться в седле: кто и как в России обучает модели искусственного интеллекта.
Мне материал показался интересным, достаточно системно рассмотрены релизы ИИ-моделей этого года, опрошены эксперты как из бигтеха и университетов, так и стартапов.
Наверное, в не-бигтеховую часть подборки можно было бы включить мини-модели от "Сибирских нейросетей". Но, вероятно, не вошли по дате релиза.
Мы в ИТМО свои наработки по до-обучению специализированных моделей тоже ещё пока не успели опубликовать.
P.S. Про вчерашние open-source модели от OpenAI все, вероятно, уже прочитали. По метрикам выглядит многообещающе, у себя тоже попробуем поднять GPT-OSS-20B и протестировать в составе наших мультиагентных LLM-инструментов, вместо текущей Gemma 3 27b.
Мне материал показался интересным, достаточно системно рассмотрены релизы ИИ-моделей этого года, опрошены эксперты как из бигтеха и университетов, так и стартапов.
Наверное, в не-бигтеховую часть подборки можно было бы включить мини-модели от "Сибирских нейросетей". Но, вероятно, не вошли по дате релиза.
Мы в ИТМО свои наработки по до-обучению специализированных моделей тоже ещё пока не успели опубликовать.
P.S. Про вчерашние open-source модели от OpenAI все, вероятно, уже прочитали. По метрикам выглядит многообещающе, у себя тоже попробуем поднять GPT-OSS-20B и протестировать в составе наших мультиагентных LLM-инструментов, вместо текущей Gemma 3 27b.
🔥10
Коллеги из Yandex анонсируют опенсорсные активности вокруг платформы SourceCraft:
- Рейтинг репозиториев на SourceCraft с лайками и ачивками. Про лучшие проекты обещают написать в канале, а авторов - снабдить мерчом.
Наверное, на будущее не хватает каких-то фильтров по языкам и тематикам.
- Очередной цикл уже традиционной грантовой программы от Yandex Open Source, подавать заявки можно будет с середины августа и до 15 марта 2026. Но в этом году репозитории-кандидаты должны быть размещены именно на SourceCraft-е.
- Рейтинг репозиториев на SourceCraft с лайками и ачивками. Про лучшие проекты обещают написать в канале, а авторов - снабдить мерчом.
Наверное, на будущее не хватает каких-то фильтров по языкам и тематикам.
- Очередной цикл уже традиционной грантовой программы от Yandex Open Source, подавать заявки можно будет с середины августа и до 15 марта 2026. Но в этом году репозитории-кандидаты должны быть размещены именно на SourceCraft-е.
opensource.yandex
Программа грантов Yandex Open Source × SourceCraft
Поддерживаем внешние опенсорс-проекты независимыx разработчиков — теперь совместно с SourceCraft
❤8👍2❤🔥1🔥1
В канале pythonl узнал про любопытный open-source инструмент - https://github.com/HKUDS/DeepCode
C его помощью можно генерировать полноценные репозитории с кодом (включая не только алгоритмы, но и фронтенд и бекенд) на основе текста научной статьи:
- Paper2Code — реализация идей из исследований в рабочий код;
- Text2Web — генерация веь-интерфейсов по описанию ;
- Text2Backend — автоматическое создание масштабируемой серверной части;
- Поддержка длинных документов и больших проектов.
Тестируют планируют на бенчмарке по воспроизводимости научных статей (PaperBench), но это пока future plans.
В целом, выглядит весьма интересно, часть функциональности близка к нашей разработке OSA (у нас в планах как раз авто-анализ соответствия текста статьи и документации коду). Внутренняя реализация тоже схожа - внутри MAS LLM с множеством агентов и тулов.
У авторов проекта вообще очень сильный задел - ранее они выкатывали довольно популярные AutoAgent, AI-Researcher, Auto-Deep-Research, RAG-Anything и другие LLM-based инструменты.
Насколько DeepCode будет используем на практике - надо смотреть; но вообще концептуально ситуация когда код статьи надо с нуля восстанавливать по тексту - она какая-то не очень здоровая.
C его помощью можно генерировать полноценные репозитории с кодом (включая не только алгоритмы, но и фронтенд и бекенд) на основе текста научной статьи:
- Paper2Code — реализация идей из исследований в рабочий код;
- Text2Web — генерация веь-интерфейсов по описанию ;
- Text2Backend — автоматическое создание масштабируемой серверной части;
- Поддержка длинных документов и больших проектов.
Тестируют планируют на бенчмарке по воспроизводимости научных статей (PaperBench), но это пока future plans.
В целом, выглядит весьма интересно, часть функциональности близка к нашей разработке OSA (у нас в планах как раз авто-анализ соответствия текста статьи и документации коду). Внутренняя реализация тоже схожа - внутри MAS LLM с множеством агентов и тулов.
У авторов проекта вообще очень сильный задел - ранее они выкатывали довольно популярные AutoAgent, AI-Researcher, Auto-Deep-Research, RAG-Anything и другие LLM-based инструменты.
Насколько DeepCode будет используем на практике - надо смотреть; но вообще концептуально ситуация когда код статьи надо с нуля восстанавливать по тексту - она какая-то не очень здоровая.
🔥6❤1