Forwarded from ФКН НИУ ВШЭ
Kotlin-митап: вторая встреча
💻 💻 💻 совместно с российской группой пользователей Kotlin продолжают серию митапов, посвящённых разным аспектам разработки на Kotlin и экосистемы языка. Митап подойдёт как новичкам, так и бывалым котлиновцам.
В программе:
⤵️ 18:00 — Открытие митапа
🎙️ Александр Нозик, лидер Kotlin-сообщества, Центр научного программирования, МФТИ
⤵️ 18:10 — Доклад «Алгоритмы вычисления солнечных и лунных событий: от теории к практике на Kotlin»
🎙️ Максим Сагациян, Android-разработчик, кандидат технических наук, лектор ЯрГУ
⤵️ 19:10 — Доклад «Пишут ли хорошие программисты быстрый код?»
🎙️ Александр Нозик
📆 Когда: 29 августа в 18:00
🗺️ Где: Покровский бульвар, 11, ауд. R306
Участие бесплатное по регистрации🐭
#анонсы #разработка
В программе:
Участие бесплатное по регистрации
#анонсы #разработка
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1
tencdm
В репозитории опубликован код для воспроизведения результатов работы по генерации текста с помощью диффузионных моделей. Авторы предлагают новый подход TEncDM, где диффузионная модель обучается не на стандартных векторных представлениях слов (эмбеддингах), а на выходах заранее обученных языковых моделей — так называемых кодировках. В отличие от эмбеддингов, такие кодировки содержат контекст, что облегчает восстановление текста при пошаговом удалении шума. В исследовании подробно анализируются ключевые компоненты диффузионной модели: архитектура декодера, стратегия добавления шума и механизм обуславливания на предыдущий выход - self-conditioning. Авторы показывают, что использование кодировок вместо эмбеддингов существенно повышает качество генерации, а также то, что более сложный декодер, учитывающий контекст, исправляет ошибки и делает текст более связным. Для проверки метода проведены эксперименты на задачах переформулирования вопросов, суммаризации и упрощения текста. Результаты показывают, что TEncDM превосходит существующие неавторегрессионные диффузионные модели и по ряду метрик сравним с классическими авторегрессионными методами. Работа будет полезна исследователям в области обработки текста, специалистам по генеративным моделям и разработчикам систем автоматической генерации контента.
статья | код
В репозитории опубликован код для воспроизведения результатов работы по генерации текста с помощью диффузионных моделей. Авторы предлагают новый подход TEncDM, где диффузионная модель обучается не на стандартных векторных представлениях слов (эмбеддингах), а на выходах заранее обученных языковых моделей — так называемых кодировках. В отличие от эмбеддингов, такие кодировки содержат контекст, что облегчает восстановление текста при пошаговом удалении шума. В исследовании подробно анализируются ключевые компоненты диффузионной модели: архитектура декодера, стратегия добавления шума и механизм обуславливания на предыдущий выход - self-conditioning. Авторы показывают, что использование кодировок вместо эмбеддингов существенно повышает качество генерации, а также то, что более сложный декодер, учитывающий контекст, исправляет ошибки и делает текст более связным. Для проверки метода проведены эксперименты на задачах переформулирования вопросов, суммаризации и упрощения текста. Результаты показывают, что TEncDM превосходит существующие неавторегрессионные диффузионные модели и по ряду метрик сравним с классическими авторегрессионными методами. Работа будет полезна исследователям в области обработки текста, специалистам по генеративным моделям и разработчикам систем автоматической генерации контента.
статья | код
GitHub
GitHub - M0RJIQUE/tencdm
Contribute to M0RJIQUE/tencdm development by creating an account on GitHub.
🔥10❤5❤🔥1😍1
graphland
В репозитории опубликован код и набор данных GraphLand для оценки методов машинного обучения на графах в прикладных промышленных задачах. Авторы отмечают, что большинство существующих бенчмарков ограничены узкой областью, что не отражает реального разнообразия графовых данных. GraphLand включает 14 графовых наборов из разных доменов: веб-графы с задачами предсказания посещаемости сайтов и выявления мошенничества, социальные сети художников и пользователей стриминговых платформ, дорожные сети с прогнозом скорости движения, сервисы отзывов с задачей обнаружения фейковых рецензий, а также данные электронной коммерции и рекламы. Авторы проводят масштабные эксперименты, сравнивая графовые нейронные сети с градиентным бустингом над деревьями решений. Показано, что GNN с механизмом внимания часто превосходят классические архитектуры, однако модели бустинга при расширении признаков за счёт графовой информации становятся сильным бейзлайном, особенно в регрессионных задачах. Также выявлено, что временные сдвиги в распределении данных и динамика графа существенно влияют на качество, что подчёркивает необходимость разработки более устойчивых моделей. Современные универсальные фундаментальные графовые модели продемонстрировали слабые результаты на предложенных наборах данных. Работа будет полезна исследователям в области анализа графов, разработчикам алгоритмов машинного обучения, а также инженерам, работающим с промышленными данными.
статья | код
В репозитории опубликован код и набор данных GraphLand для оценки методов машинного обучения на графах в прикладных промышленных задачах. Авторы отмечают, что большинство существующих бенчмарков ограничены узкой областью, что не отражает реального разнообразия графовых данных. GraphLand включает 14 графовых наборов из разных доменов: веб-графы с задачами предсказания посещаемости сайтов и выявления мошенничества, социальные сети художников и пользователей стриминговых платформ, дорожные сети с прогнозом скорости движения, сервисы отзывов с задачей обнаружения фейковых рецензий, а также данные электронной коммерции и рекламы. Авторы проводят масштабные эксперименты, сравнивая графовые нейронные сети с градиентным бустингом над деревьями решений. Показано, что GNN с механизмом внимания часто превосходят классические архитектуры, однако модели бустинга при расширении признаков за счёт графовой информации становятся сильным бейзлайном, особенно в регрессионных задачах. Также выявлено, что временные сдвиги в распределении данных и динамика графа существенно влияют на качество, что подчёркивает необходимость разработки более устойчивых моделей. Современные универсальные фундаментальные графовые модели продемонстрировали слабые результаты на предложенных наборах данных. Работа будет полезна исследователям в области анализа графов, разработчикам алгоритмов машинного обучения, а также инженерам, работающим с промышленными данными.
статья | код
GitHub
GitHub - yandex-research/graphland: GraphLand: Evaluating Graph Machine Learning Models on Diverse Industrial Data
GraphLand: Evaluating Graph Machine Learning Models on Diverse Industrial Data - yandex-research/graphland
🔥11❤8👍2🥰1🎉1
Всем привет!
Приглашаем вас на событие, которое организуют наши друзья из Mos.Hub.
13 сентября в 15:00 в павильоне «Цифровые технологии Москвы» (парк Музеон) в рамках фестиваля «Москва 2030» состоится открытая встреча для разработчиков, тестировщиков и ИТ-энтузиастов — Mos.Hub //Парк.Код.
Mos.Hub //Парк.Код — это городское мероприятие с ИТ-атмосферой, челленджами, живым общением и участием разработчиков, студентов, преподавателей, начинающих специалистов. Под открытым небом мы объединяем тех, кто любит кодить, учиться, экспериментировать и вдохновляться.
Участников ждут:
▫️три креативных спринта — мини-хакатоны с заданиями по генерации историй, городских технологий и образов ИТ-героев;
▫️работа внутри платформы Mos.Hub — реальная практика кодинга;
▫️возможность проявить себя, познакомиться с профессиональным комьюнити и выиграть подарки.
🏆 Подробнее о соревновании в материале.
Формат отлично подойдёт для студентов ИТ-направлений — особенно junior-разработчиков, студентов 2–4 курсов, магистров, а также для тех, кто хочет сделать первые шаги в open source и городских ИТ-сценариях.
Регистрация обязательна (возраст участников: от 18 лет): https://moscow2030.mos.ru/events/mos_hub_park_kod/
Приглашаем вас на событие, которое организуют наши друзья из Mos.Hub.
13 сентября в 15:00 в павильоне «Цифровые технологии Москвы» (парк Музеон) в рамках фестиваля «Москва 2030» состоится открытая встреча для разработчиков, тестировщиков и ИТ-энтузиастов — Mos.Hub //Парк.Код.
Mos.Hub //Парк.Код — это городское мероприятие с ИТ-атмосферой, челленджами, живым общением и участием разработчиков, студентов, преподавателей, начинающих специалистов. Под открытым небом мы объединяем тех, кто любит кодить, учиться, экспериментировать и вдохновляться.
Участников ждут:
▫️три креативных спринта — мини-хакатоны с заданиями по генерации историй, городских технологий и образов ИТ-героев;
▫️работа внутри платформы Mos.Hub — реальная практика кодинга;
▫️возможность проявить себя, познакомиться с профессиональным комьюнити и выиграть подарки.
Формат отлично подойдёт для студентов ИТ-направлений — особенно junior-разработчиков, студентов 2–4 курсов, магистров, а также для тех, кто хочет сделать первые шаги в open source и городских ИТ-сценариях.
Регистрация обязательна (возраст участников: от 18 лет): https://moscow2030.mos.ru/events/mos_hub_park_kod/
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤2😍2❤🔥1👍1🤔1🤨1
TwoToInfinity
В репозитории опубликован код для воспроизведения результатов работы по оценке специальных матричных норм в режиме без явного хранения матрицы. Авторы рассматривают две нормы операторов — от двух к бесконечности и от единицы к двум, которые позволяют контролировать структуру строк и столбцов матриц и широко применяются в теории обучения и регуляризации. Предложены новые случайные алгоритмы TwINEst и его улучшенная версия TwINEst++, которые используют только операции умножения матрицы на вектор и модифицируют классический метод Хатчинсона. Авторы доказывают сходимость и выводят оценки сложности, показывая, что новые методы точнее и устойчивее стандартных степенных итераций, которые могут расходиться. Эксперименты на синтетических и реальных данных демонстрируют эффективность предложенных алгоритмов. В частности, при обучении сверточных сетей на задачах классификации изображений регуляризация на основе двухк-бесконечности нормы улучшает обобщающую способность и повышает устойчивость к атакам. В области рекомендательных систем показано, что метод повышает надёжность моделей UltraGCN к целенаправленным возмущениям. Работа будет полезна исследователям в области численных методов линейной алгебры, специалистам по глубинному обучению и инженерам, разрабатывающим устойчивые рекомендательные системы.
статья | код
В репозитории опубликован код для воспроизведения результатов работы по оценке специальных матричных норм в режиме без явного хранения матрицы. Авторы рассматривают две нормы операторов — от двух к бесконечности и от единицы к двум, которые позволяют контролировать структуру строк и столбцов матриц и широко применяются в теории обучения и регуляризации. Предложены новые случайные алгоритмы TwINEst и его улучшенная версия TwINEst++, которые используют только операции умножения матрицы на вектор и модифицируют классический метод Хатчинсона. Авторы доказывают сходимость и выводят оценки сложности, показывая, что новые методы точнее и устойчивее стандартных степенных итераций, которые могут расходиться. Эксперименты на синтетических и реальных данных демонстрируют эффективность предложенных алгоритмов. В частности, при обучении сверточных сетей на задачах классификации изображений регуляризация на основе двухк-бесконечности нормы улучшает обобщающую способность и повышает устойчивость к атакам. В области рекомендательных систем показано, что метод повышает надёжность моделей UltraGCN к целенаправленным возмущениям. Работа будет полезна исследователям в области численных методов линейной алгебры, специалистам по глубинному обучению и инженерам, разрабатывающим устойчивые рекомендательные системы.
статья | код
GitHub
GitHub - fallnlove/TwoToInfinity: Respository for the paper "Matrix-Free Two-to-Infinity and One-to-Two Norms Estimation" (AAAI…
Respository for the paper "Matrix-Free Two-to-Infinity and One-to-Two Norms Estimation" (AAAI-26) - fallnlove/TwoToInfinity
🔥7🥰3😍2
Forwarded from Научный опенсорс
Осенний Scientific Open Source Meetup - в октябре!
Дорогие друзья и единомышленники!
С радостью приглашаем вас на очередной Scientific Open Source Meetup, который пройдет 2 октября 2025 года с 19:00 до 22:00 в Санкт-Петербурге в уютном лофте на Газовой, 10ж. Это отличная возможность встретиться, обсудить актуальные темы и поделиться опытом в мире открытого программного обеспечения.
Что вас ждет на митапе?
• Доклады от экспертов по разработке и применению Open Source
• Демонстрация новых Open Source инструментов;
• Живое общение с коллегами и единомышленниками;
• Возможность задать вопросы и обсудить последние тренды в Open Source
• Дискуссия о развитии научного опенсорса в России с участие экспертов из индустрии
А если у вас есть научный Open Source проект, опыт разработки открытых решений или пет-проект, о котором вы давно хотели рассказать, регистрируйтесь с докладом. Лучшего докладчика ждёт мерч от организаторов.
📩 Для регистрации пишите на почту [email protected] с темой «Митап Научный Open Source».
Мероприятие проходит при поддержке:
GitVerse
Среди разработок GitVerse — не только платформа с возможностью размещать, зеркалировать и импортировать репозитории, запускать CI/CD, но и инструмент для обучения ИТ-специалистов, SmartClass.
Разработчики могут использовать встроенную среду разработки GigaIDE, в том числе в облачном варианте, а также AI-ассистент GigaCode, чтобы избавиться от рутинных задач!
OpenScaler
OpenScaler — сообщества разработчиков ОС с открытым исходным кодом. Они уже несколько лет исследуют китайскую open-source экосистему.
🗓 Дата: 2 октября 2025 года
🕢 Время: 19:00 - 22:00
📍 Место: Лофт на Газовой, 10ж
Участие бесплатное, но количество очных мест ограничено
🔗 Ссылка на регистрацию
Ждем вас на митапе!
Дорогие друзья и единомышленники!
С радостью приглашаем вас на очередной Scientific Open Source Meetup, который пройдет 2 октября 2025 года с 19:00 до 22:00 в Санкт-Петербурге в уютном лофте на Газовой, 10ж. Это отличная возможность встретиться, обсудить актуальные темы и поделиться опытом в мире открытого программного обеспечения.
Что вас ждет на митапе?
• Доклады от экспертов по разработке и применению Open Source
• Демонстрация новых Open Source инструментов;
• Живое общение с коллегами и единомышленниками;
• Возможность задать вопросы и обсудить последние тренды в Open Source
• Дискуссия о развитии научного опенсорса в России с участие экспертов из индустрии
А если у вас есть научный Open Source проект, опыт разработки открытых решений или пет-проект, о котором вы давно хотели рассказать, регистрируйтесь с докладом. Лучшего докладчика ждёт мерч от организаторов.
📩 Для регистрации пишите на почту [email protected] с темой «Митап Научный Open Source».
Мероприятие проходит при поддержке:
GitVerse
Среди разработок GitVerse — не только платформа с возможностью размещать, зеркалировать и импортировать репозитории, запускать CI/CD, но и инструмент для обучения ИТ-специалистов, SmartClass.
Разработчики могут использовать встроенную среду разработки GigaIDE, в том числе в облачном варианте, а также AI-ассистент GigaCode, чтобы избавиться от рутинных задач!
OpenScaler
OpenScaler — сообщества разработчиков ОС с открытым исходным кодом. Они уже несколько лет исследуют китайскую open-source экосистему.
🗓 Дата: 2 октября 2025 года
🕢 Время: 19:00 - 22:00
📍 Место: Лофт на Газовой, 10ж
Участие бесплатное, но количество очных мест ограничено
🔗 Ссылка на регистрацию
Ждем вас на митапе!
🔥6❤🔥1👍1
G2T-FM
В репозитории опубликован код G2T-FM, позволяющего строить простую базовую модель для графов на основе TabPFNv2. Идея заключается в превращении каждой графовой задачи в табличную с добавлением к исходным признакам узлов агрегатов по соседям, классических структурных характеристик графа (степень, PageRank, собственные векторы лапласиана) и обучаемых структурных кодировок PEARL; затем на этих представлениях работает TabPFNv2. Такой конвейер позволяет обрабатывать разнородные признаки узлов и таргета, не ограничиваясь только текстовыми графами. В режиме без дообучения G2T-FM даёт сильные результаты и заметно превосходит доступные открытые бейзлайновые графовые модели; после дообучения модель обгоняет хорошо настроенные GNN, обученные с нуля. Авторы проводят оценку на наборах GraphLand с нетекстовыми признаками и на классических датасетах с текстовыми признаками; показано, что выигрыш обеспечивается сочетанием табличного бэкбона и графовых дополнений к признакам. Работа может быть полезна исследователям графового обучения, инженерам, работающим с промышленными графами и смешанными типами признаков, и командам, которым нужна переносимость между разными графовыми доменами.
статья | код
В репозитории опубликован код G2T-FM, позволяющего строить простую базовую модель для графов на основе TabPFNv2. Идея заключается в превращении каждой графовой задачи в табличную с добавлением к исходным признакам узлов агрегатов по соседям, классических структурных характеристик графа (степень, PageRank, собственные векторы лапласиана) и обучаемых структурных кодировок PEARL; затем на этих представлениях работает TabPFNv2. Такой конвейер позволяет обрабатывать разнородные признаки узлов и таргета, не ограничиваясь только текстовыми графами. В режиме без дообучения G2T-FM даёт сильные результаты и заметно превосходит доступные открытые бейзлайновые графовые модели; после дообучения модель обгоняет хорошо настроенные GNN, обученные с нуля. Авторы проводят оценку на наборах GraphLand с нетекстовыми признаками и на классических датасетах с текстовыми признаками; показано, что выигрыш обеспечивается сочетанием табличного бэкбона и графовых дополнений к признакам. Работа может быть полезна исследователям графового обучения, инженерам, работающим с промышленными графами и смешанными типами признаков, и командам, которым нужна переносимость между разными графовыми доменами.
статья | код
GitHub
GitHub - yandex-research/G2T-FM: Turning Tabular Foundation Models into Graph Foundation Models
Turning Tabular Foundation Models into Graph Foundation Models - yandex-research/G2T-FM
🔥8❤3❤🔥1
Forwarded from OpenScaler
🔥 Эта осень богата на события!
⭐ 8 октября состоится наша ежегодная конференция OpenSourceDay'2025 в городе с самыми красивыми закатами,по мнению местных жителей. В Нижнем Новгороде!
Приглашаем принять участие в одном из главных офлайн событий для российского open source комьюнити!
Что будет на конференции?
✔ Поговорим о том, как open source становится двигателем развития ИИ и цифровых технологий.
✔ Разберем успешные кейсы Китая и России по созданию аналогов мировых open source платформ.
✔ Поговорим с теми, кто уже создает открытые экосистемы и меняет правила игры.
✔ Вы узнаете, куда идти новичку, как "найти своих" и получить оффер.
✔ Разберем, какую роль играет open source и ИИ для студентов.
✔ Нетворкинг и фуршет: знакомимся, общаемся с лидерами open source комьюнити, договариваемся о совместных проектах.
Место встречи:
📍 Б. Покровская, 18, пространство DKRT, 16:30–21:30
‼ Регистрация обязательна, количество мест ограничено!
Присоединяйтесь и станьте частью нашего open source комьюнити!
⭐ 8 октября состоится наша ежегодная конференция OpenSourceDay'2025 в городе с самыми красивыми закатами,
Приглашаем принять участие в одном из главных офлайн событий для российского open source комьюнити!
Что будет на конференции?
✔ Поговорим о том, как open source становится двигателем развития ИИ и цифровых технологий.
✔ Разберем успешные кейсы Китая и России по созданию аналогов мировых open source платформ.
✔ Поговорим с теми, кто уже создает открытые экосистемы и меняет правила игры.
✔ Вы узнаете, куда идти новичку, как "найти своих" и получить оффер.
✔ Разберем, какую роль играет open source и ИИ для студентов.
✔ Нетворкинг и фуршет: знакомимся, общаемся с лидерами open source комьюнити, договариваемся о совместных проектах.
Место встречи:
📍 Б. Покровская, 18, пространство DKRT, 16:30–21:30
‼ Регистрация обязательна, количество мест ограничено!
Присоединяйтесь и станьте частью нашего open source комьюнити!
👍6❤🔥3❤2
Forwarded from ФКН НИУ ВШЭ
Митап по системному программированию
Приглашаем студентов от 2 курса и старше, интересующихся низкоуровневым программированием, ОС и компиляторами, принять участие в митапе «Взгляд индустрии vs взгляд науки» от💻 💻 💻 и YADRO.
🐦⬛️ ️️️️️️️ Среди спикеров митапа — преподаватели ФКН, а также эксперты и действующие инженеры компании YADRO.
📆 Когда: 2 октября в 18:00
🗺️ Где: Покровский бульвар, 11, ауд. R206
Программа и регистрация на сайте🐭
#анонсы #студенты
Приглашаем студентов от 2 курса и старше, интересующихся низкоуровневым программированием, ОС и компиляторами, принять участие в митапе «Взгляд индустрии vs взгляд науки» от
Программа и регистрация на сайте
#анонсы #студенты
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤🔥1😍1
На сайте HighLoad++ 2025 идет голосование за лучший Open Source проект 🏆
На странице можно подробнее познакомиться с каждым проектом и оставить свой голос.
Для участия в голосовании авторизуйтесь через личный кабинет Онтико или социальную сеть. Посмотрите на список участников, выберите лучшее Open-Source-решение и отдайте ему свой голос. Важно — проголосовать можно будет только один раз.
🥇 Презентация лауреавтой произойдет на конференции HighLoad++ 2025, 6-7 ноября в Москве.
Список проектов: https://opensource.highload.ru/vote
На странице можно подробнее познакомиться с каждым проектом и оставить свой голос.
Для участия в голосовании авторизуйтесь через личный кабинет Онтико или социальную сеть. Посмотрите на список участников, выберите лучшее Open-Source-решение и отдайте ему свой голос. Важно — проголосовать можно будет только один раз.
Список проектов: https://opensource.highload.ru/vote
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2❤🔥1
multimodal_unlearning
В репозитории опубликован код и данные для воспроизведения результатов работы по удалению информации из мультимодальных моделей — задачам машинного забывания (machine unlearning). Авторы представляют CLEAR: первый открытый бенчмарк для оценки того, насколько модели способны забывать данные одновременно в текстовой и визуальной формах. Набор данных включает сведения о 200 вымышленных авторах, их биографии и 3700 синтетических портретов. Для каждого персонажа предусмотрены пары вопрос–ответ и изображения, что позволяет проверять, как хорошо модель забывает конкретную личность сразу в двух модальностях. Исследование охватывает 11 современных методов разучивания и показывает, что одновременное разучивание обеих модальностей значительно эффективнее, чем по отдельности. Авторы подробно анализируют баланс между удалением лишней информации и сохранением полезных знаний. Показано, что даже лучшие методы (LLMU и DPO) не достигают качества эталонной модели и часто теряют способность к распознаванию или порождению связанного контента. CLEAR также вводит систему показателей для оценки качества забывания, сохранения знаний и устойчивости к утечкам между модальностями. Работа будет полезна исследователям в области защиты данных, разработчикам мультимодальных языковых моделей и специалистам, изучающим этические аспекты ИИ и реализацию права на забвение.
статья | код
В репозитории опубликован код и данные для воспроизведения результатов работы по удалению информации из мультимодальных моделей — задачам машинного забывания (machine unlearning). Авторы представляют CLEAR: первый открытый бенчмарк для оценки того, насколько модели способны забывать данные одновременно в текстовой и визуальной формах. Набор данных включает сведения о 200 вымышленных авторах, их биографии и 3700 синтетических портретов. Для каждого персонажа предусмотрены пары вопрос–ответ и изображения, что позволяет проверять, как хорошо модель забывает конкретную личность сразу в двух модальностях. Исследование охватывает 11 современных методов разучивания и показывает, что одновременное разучивание обеих модальностей значительно эффективнее, чем по отдельности. Авторы подробно анализируют баланс между удалением лишней информации и сохранением полезных знаний. Показано, что даже лучшие методы (LLMU и DPO) не достигают качества эталонной модели и часто теряют способность к распознаванию или порождению связанного контента. CLEAR также вводит систему показателей для оценки качества забывания, сохранения знаний и устойчивости к утечкам между модальностями. Работа будет полезна исследователям в области защиты данных, разработчикам мультимодальных языковых моделей и специалистам, изучающим этические аспекты ИИ и реализацию права на забвение.
статья | код
GitHub
GitHub - somvy/multimodal_unlearning: Experiments for our CLEAR benchmark of unlearning methods in a multimodal setup
Experiments for our CLEAR benchmark of unlearning methods in a multimodal setup - somvy/multimodal_unlearning
❤4🔥2❤🔥1
Forwarded from SourceCraft
Зачем мы занимаемся опенсорсом? А они? А вы?
Опенсорс давно вышел за рамки тусовки бородатых энтузиастов. Сегодня это огромная экосистема и крупнейшая коллаборация на планете. Почему люди тратят своё время на код «для всех», а компании вкладывают миллионы в то, что доступно каждому?
Серёжа Бережной, опенсорс-евангелист и участник команды SourceCraft, покажет опенсорс изнутри — от первых коммитов до миллиардных экономик. Разберёт, почему одни горят идеей, другие выгорают, а третьи превращают открытый код в бизнес.
💬 О чём поговорим:
05:28 — Таймлайн опенсорса (с цифрами и графиками)
10:18 — Кто все эти люди в крупнейшей коллаборации на планете
21:27 — Зачем вообще делать опенсорс
28:28 — Какие в нём проблемы, решения и парадоксы
37:39 — Что делать сегодня
❤️ Доклад, после которого невольно спрашиваешь себя: а что могу сделать я?
Опенсорс давно вышел за рамки тусовки бородатых энтузиастов. Сегодня это огромная экосистема и крупнейшая коллаборация на планете. Почему люди тратят своё время на код «для всех», а компании вкладывают миллионы в то, что доступно каждому?
Серёжа Бережной, опенсорс-евангелист и участник команды SourceCraft, покажет опенсорс изнутри — от первых коммитов до миллиардных экономик. Разберёт, почему одни горят идеей, другие выгорают, а третьи превращают открытый код в бизнес.
05:28 — Таймлайн опенсорса (с цифрами и графиками)
10:18 — Кто все эти люди в крупнейшей коллаборации на планете
21:27 — Зачем вообще делать опенсорс
28:28 — Какие в нём проблемы, решения и парадоксы
37:39 — Что делать сегодня
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥3🔥1😍1
non-acyclic-gfn
В репозитории опубликован код для воспроизведения результатов работы по GFlowNets в неациклических средах. Авторы упрощают теорию для дискретного случая и показывают, как корректно определять потоки состояний и рёбер, когда траектории могут иметь произвольную длину, а классические допущения DAG не выполняются. Также уточняются связи с энтропийно-регуляризованным обучением с подкреплением, что расширяет мост между GFlowNets и RL за пределы ациклических задач. Авторами предложена простая конструкция потоков через ожидаемое число посещений, обеспечивающая детальный баланс и совпадение наград, а также показано, что при фиксированной обратной политике устойчивость лосса не влияет на оптимум, а при обучаемой — минимизация ожидаемой длины траектории эквивалентна минимизации суммарного потока, для чего вводится регуляризация по потокам состояний. Работа может быть полезна исследователям в области генеративных моделей и обучения с подкреплением.
статья | код
В репозитории опубликован код для воспроизведения результатов работы по GFlowNets в неациклических средах. Авторы упрощают теорию для дискретного случая и показывают, как корректно определять потоки состояний и рёбер, когда траектории могут иметь произвольную длину, а классические допущения DAG не выполняются. Также уточняются связи с энтропийно-регуляризованным обучением с подкреплением, что расширяет мост между GFlowNets и RL за пределы ациклических задач. Авторами предложена простая конструкция потоков через ожидаемое число посещений, обеспечивающая детальный баланс и совпадение наград, а также показано, что при фиксированной обратной политике устойчивость лосса не влияет на оптимум, а при обучаемой — минимизация ожидаемой длины траектории эквивалентна минимизации суммарного потока, для чего вводится регуляризация по потокам состояний. Работа может быть полезна исследователям в области генеративных моделей и обучения с подкреплением.
статья | код
GitHub
GitHub - GreatDrake/non-acyclic-gfn: Repository for "Revisiting Non-Acyclic GFlowNets in Discrete Environments" (ICML 2025)
Repository for "Revisiting Non-Acyclic GFlowNets in Discrete Environments" (ICML 2025) - GreatDrake/non-acyclic-gfn
🔥8👍1
Итоги конкурса open-source проектов ФКН
Рады сообщить, что 23 октября мы подводим итоги первого конкурса открытых проектов для студентов ФКН!
На мероприятии будут объявлены победители конкурса и пройдет торжественное вручение наград. Также у участников будет возможность познакомиться с наиболее интересными работами.
Приходите поддержать финалистов, найти вдохновение для собственных проектов и погрузиться в мир open-source!
📅 Когда: 23 октября
📍 Где: Покровский бульвар 11, R407
⏰ Во сколько: 18:00
Ждем всех на церемонии награждения!
Рады сообщить, что 23 октября мы подводим итоги первого конкурса открытых проектов для студентов ФКН!
На мероприятии будут объявлены победители конкурса и пройдет торжественное вручение наград. Также у участников будет возможность познакомиться с наиболее интересными работами.
Приходите поддержать финалистов, найти вдохновение для собственных проектов и погрузиться в мир open-source!
📅 Когда: 23 октября
📍 Где: Покровский бульвар 11, R407
⏰ Во сколько: 18:00
Ждем всех на церемонии награждения!
🔥10
Mos.Hub //Демо
В этот четверг, 23 октября будет Mos.Hub //Демо
Приглашаем вас послушать о новых инструментах развития платформы Mos.Hub для разработки ПО
📅 Когда: 23 октября
⏰ Во сколько: 11:00 - 12:00
📍 Онлайн: https://vkvideo.ru/video-90870698_456240115
В этот четверг, 23 октября будет Mos.Hub //Демо
Приглашаем вас послушать о новых инструментах развития платформы Mos.Hub для разработки ПО
📅 Когда: 23 октября
⏰ Во сколько: 11:00 - 12:00
📍 Онлайн: https://vkvideo.ru/video-90870698_456240115
🐳2❤🔥1🔥1🥰1😍1
Открытый код ФКН ВШЭ
Итоги конкурса open-source проектов ФКН Рады сообщить, что 23 октября мы подводим итоги первого конкурса открытых проектов для студентов ФКН! На мероприятии будут объявлены победители конкурса и пройдет торжественное вручение наград. Также у участников будет…
Мы начинаем через 15 минут. Приходите!
glgenn
В репозитории опубликован код GLGENN — новой эквивариантной архитектуры нейросетей на основе геометрических алгебр. Модель сохраняет эквивариантность ко всем псевдоортогональным преобразованиям пространства, включая повороты и отражения, и при этом использует заметно меньше обучаемых параметров благодаря продуманному разделению и совместному использованию весов, согласованному со структурой геометрических алгебр. Ключевая идея — обобщённые группы Липшица и построение слоёв, которые действуют сразу на четыре фундаментальные подпространства алгебры, задаваемые инволюцией по разряду и ревёрсией. Это даёт лёгкую по параметрам реализацию без потери выразительности и автоматически гарантирует нужную эквивариантность. Предложены слои проекций, геометрического произведения и нормализации, а также слой конъюгаций с дискретными коэффициентами, что упрощает обучение и повышает устойчивость. В экспериментах на эталонных задачах архитектура либо превосходит, либо не уступает существующим эквивариантным моделям при существенно меньшем числе параметров. Показаны результаты на регрессии с симметрией O(5), оценке объёма выпуклой оболочки в пространствах O(5) и O(7), а также на задаче взаимодействия N-тел. По сравнению с CGENN достигается сопоставимое или лучшее качество, при этом число параметров и время обучения ниже; отмечена меньшая склонность к переобучению на малых выборках. Работа может быть полезна исследователям эквивариантных архитектур, специалистам по моделированию физических систем и робототехнике, а также командам, которым важны строгие симметрии при ограниченных данных и ресурсах.
статья | код
В репозитории опубликован код GLGENN — новой эквивариантной архитектуры нейросетей на основе геометрических алгебр. Модель сохраняет эквивариантность ко всем псевдоортогональным преобразованиям пространства, включая повороты и отражения, и при этом использует заметно меньше обучаемых параметров благодаря продуманному разделению и совместному использованию весов, согласованному со структурой геометрических алгебр. Ключевая идея — обобщённые группы Липшица и построение слоёв, которые действуют сразу на четыре фундаментальные подпространства алгебры, задаваемые инволюцией по разряду и ревёрсией. Это даёт лёгкую по параметрам реализацию без потери выразительности и автоматически гарантирует нужную эквивариантность. Предложены слои проекций, геометрического произведения и нормализации, а также слой конъюгаций с дискретными коэффициентами, что упрощает обучение и повышает устойчивость. В экспериментах на эталонных задачах архитектура либо превосходит, либо не уступает существующим эквивариантным моделям при существенно меньшем числе параметров. Показаны результаты на регрессии с симметрией O(5), оценке объёма выпуклой оболочки в пространствах O(5) и O(7), а также на задаче взаимодействия N-тел. По сравнению с CGENN достигается сопоставимое или лучшее качество, при этом число параметров и время обучения ниже; отмечена меньшая склонность к переобучению на малых выборках. Работа может быть полезна исследователям эквивариантных архитектур, специалистам по моделированию физических систем и робототехнике, а также командам, которым важны строгие симметрии при ограниченных данных и ресурсах.
статья | код
GitHub
GitHub - katyafilimoshina/glgenn: Generalized Lipschitz Group Equivariant Neural Networks (GLGENN) [ICML 2025]
Generalized Lipschitz Group Equivariant Neural Networks (GLGENN) [ICML 2025] - katyafilimoshina/glgenn
🔥4❤3
Forwarded from Yandex Open Source Jam /chat
Псс 👀 еще не забыли про нас?
Yandex Open Source Jam возвращается!
Уже 24 ноября мы будем ждать вас в Москве и онлайн на нашем третьем опенсорс-джеме. В этот раз мероприятие проходит при поддержке платформы для разработчиков SourceCraft: ребята подготовили для вас много интересных активностей и приятные призы.
Что еще вас ждет на джеме — смотрите на сайте. И регистрируйтесь по ссылке ❤️
До встречи!
Yandex Open Source Jam возвращается!
Уже 24 ноября мы будем ждать вас в Москве и онлайн на нашем третьем опенсорс-джеме. В этот раз мероприятие проходит при поддержке платформы для разработчиков SourceCraft: ребята подготовили для вас много интересных активностей и приятные призы.
Что еще вас ждет на джеме — смотрите на сайте. И регистрируйтесь по ссылке ❤️
До встречи!
❤2
when-punctuation-matters
В репозитории опубликован код и протокол масштабного сравнения методов повышения устойчивости моделей к формату запроса. Авторы берут 8 открытых LLM из семейств Llama, Qwen и Gemma, 52 задачи из набора Natural Instructions и системно оценивают пять подходов: калибровку батча, ансамбли шаблонов, чувствительное к возмущениям декодирование, дообучение LoRA с форматными аугментациями и LoRA с согласующим штрафом. Результаты дополнены проверкой на GPT-4.1 и DeepSeek V3, чтобы понять, как ведут себя «флагманские» модели при изменении пробелов, пунктуации и разметки вариантов ответа. Авторы выяснили, что калибровка батча одновременно повышает точность и снижает разброс качества между разными форматами, оставаясь почти бесплатной по вычислениям; однако при сильном перекосе классов её преимущество исчезает. Исследователи также проверяют переносимость под сдвигами распределения: при композиционном сдвиге по форматам влияние невелико, а при переносе между наборами данных точность LoRA зависит от домена исходного обучения. Работа может быть полезна практикам, которым нужна стабильность LLM в продакшене; исследователям оценки и калибровки; командам, внедряющим ботов и ассистентов в чувствительных сценариях, где изменение шаблона промпта недопустимо.
статья | код
В репозитории опубликован код и протокол масштабного сравнения методов повышения устойчивости моделей к формату запроса. Авторы берут 8 открытых LLM из семейств Llama, Qwen и Gemma, 52 задачи из набора Natural Instructions и системно оценивают пять подходов: калибровку батча, ансамбли шаблонов, чувствительное к возмущениям декодирование, дообучение LoRA с форматными аугментациями и LoRA с согласующим штрафом. Результаты дополнены проверкой на GPT-4.1 и DeepSeek V3, чтобы понять, как ведут себя «флагманские» модели при изменении пробелов, пунктуации и разметки вариантов ответа. Авторы выяснили, что калибровка батча одновременно повышает точность и снижает разброс качества между разными форматами, оставаясь почти бесплатной по вычислениям; однако при сильном перекосе классов её преимущество исчезает. Исследователи также проверяют переносимость под сдвигами распределения: при композиционном сдвиге по форматам влияние невелико, а при переносе между наборами данных точность LoRA зависит от домена исходного обучения. Работа может быть полезна практикам, которым нужна стабильность LLM в продакшене; исследователям оценки и калибровки; командам, внедряющим ботов и ассистентов в чувствительных сценариях, где изменение шаблона промпта недопустимо.
статья | код
GitHub
GitHub - AIRI-Institute/when-punctuation-matters
Contribute to AIRI-Institute/when-punctuation-matters development by creating an account on GitHub.
❤5🔥1
ProcrustesGPT
В репозитории опубликован код ProcrustesGPT — подхода к сжатию больших языковых моделей, который опирается на структурированные матрицы и ортогональные преобразования весов. Авторы используют тот факт, что выход трансформера не меняется, если внутри слоя повернуть скрытое пространство ортогональной матрицей и соответствующим образом скорректировать скип-соединения. Рассматриваются два семейства представлений: суммы произведений Кронекера и так называемые GS-матрицы, обобщающие известные Monarch-структуры. Эксперименты на моделях OPT и Llama2 показывают, что при сжатии порядка 14–36 % по числу параметров ProcrustesGPT даёт меньшую потерю качества, чем SliceGPT и другие методы без дообучения, как по перплексии на WikiText2, так и по нулевому обучению на задачах ARC, HellaSwag, PIQA и WinoGrande. Особенно заметен выигрыш на моделях Llama2, где средняя точность после сжатия остаётся близкой к исходной и существенно превосходит альтернативы. Работа демонстрирует, что грамотно подобранные ортогональные преобразования могут сделать структурированные разложения практичным инструментом сжатия LLM без дополнительного обучения. Код может быть полезен исследователям сжатия нейросетей, инженерам, внедряющим LLM в ресурсно-ограниченные среды, и разработчикам, работающим со структурированными матричными разложениями.
статья | код
В репозитории опубликован код ProcrustesGPT — подхода к сжатию больших языковых моделей, который опирается на структурированные матрицы и ортогональные преобразования весов. Авторы используют тот факт, что выход трансформера не меняется, если внутри слоя повернуть скрытое пространство ортогональной матрицей и соответствующим образом скорректировать скип-соединения. Рассматриваются два семейства представлений: суммы произведений Кронекера и так называемые GS-матрицы, обобщающие известные Monarch-структуры. Эксперименты на моделях OPT и Llama2 показывают, что при сжатии порядка 14–36 % по числу параметров ProcrustesGPT даёт меньшую потерю качества, чем SliceGPT и другие методы без дообучения, как по перплексии на WikiText2, так и по нулевому обучению на задачах ARC, HellaSwag, PIQA и WinoGrande. Особенно заметен выигрыш на моделях Llama2, где средняя точность после сжатия остаётся близкой к исходной и существенно превосходит альтернативы. Работа демонстрирует, что грамотно подобранные ортогональные преобразования могут сделать структурированные разложения практичным инструментом сжатия LLM без дополнительного обучения. Код может быть полезен исследователям сжатия нейросетей, инженерам, внедряющим LLM в ресурсно-ограниченные среды, и разработчикам, работающим со структурированными матричными разложениями.
статья | код
GitHub
GitHub - GrishKate/ProcrustesGPT
Contribute to GrishKate/ProcrustesGPT development by creating an account on GitHub.
🔥7❤1