Forwarded from Градиентное погружение (cene655)
Мы в Sber AI скоро представим новую диффузионную модель, которая генерирует картинки.
Что он может:
1) Генерировать картинки по тексту
2) Смешивать картинки
3) Смешивать картинки и тексты
Ждите релиз на следующей неделе, будет полный опенсурс всех весов и кода обучения)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍1
Forwarded from semeka notes
OffConcern продолжает свое развитие ✊
Мы с командой подготовили для вас реферальную программу, по которой каждый может приводить к нам клиентов и зарабатывать🛍
Для кого: для тех,кто хочет стать частью команды OffConcern и готов рассказывать о нас и наших услугах.
Вся необходимая информация в презентации➡️
Для тех кто готов подключиться или задать вопросы - пишите @semeka13 или @vstheeworld
Будем делать будущее вместе✊
@semeka_notes
Мы с командой подготовили для вас реферальную программу, по которой каждый может приводить к нам клиентов и зарабатывать
Для кого: для тех,кто хочет стать частью команды OffConcern и готов рассказывать о нас и наших услугах.
Вся необходимая информация в презентации
Для тех кто готов подключиться или задать вопросы - пишите @semeka13 или @vstheeworld
Будем делать будущее вместе
@semeka_notes
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥6
Привет всем новоприбывшим!
Не так давно была сделана и распиарена папка "беседы с аи", куда попал и мой канал.
Я Паша, сейчас занимаюсь мл-ресерчем на стажке в Яндексе, работаю в offconcern (аутсорс компания) и заканчиваю первый курс падии питерской вышки (для тех кто шарит: раньше это место называлось СПбАУ), ранее работал джуном дата саентистом в Точка Банке, тут пишу про основные события своей жизни и иногда интересные новости из мира ИИ / чего-то близкого к этой теме.
А теперь, собственно, к последним новостям:
Не так давно прошел хакатон ЛЦТ, где мы с Сережей и Никитой заняли 2е место в треке оптимизации маршрутов инкассации банкоматов и выиграли 600к). Задача не столько про машинное обучение, сколько про алгоритмы, идеи и эвристики, но тем не менее были довольно интересно и полезно
Ну и скоро уже закончится сессия и будет гораздо больше интересных постов на тему машинного обучения - как минимум на тему моего семестрового проекта, работая над которым узнал немало нового и довольно интересных неочевидных вещей в контексте image-text доменов)
Не так давно была сделана и распиарена папка "беседы с аи", куда попал и мой канал.
Я Паша, сейчас занимаюсь мл-ресерчем на стажке в Яндексе, работаю в offconcern (аутсорс компания) и заканчиваю первый курс падии питерской вышки (для тех кто шарит: раньше это место называлось СПбАУ), ранее работал джуном дата саентистом в Точка Банке, тут пишу про основные события своей жизни и иногда интересные новости из мира ИИ / чего-то близкого к этой теме.
А теперь, собственно, к последним новостям:
Не так давно прошел хакатон ЛЦТ, где мы с Сережей и Никитой заняли 2е место в треке оптимизации маршрутов инкассации банкоматов и выиграли 600к). Задача не столько про машинное обучение, сколько про алгоритмы, идеи и эвристики, но тем не менее были довольно интересно и полезно
Ну и скоро уже закончится сессия и будет гораздо больше интересных постов на тему машинного обучения - как минимум на тему моего семестрового проекта, работая над которым узнал немало нового и довольно интересных неочевидных вещей в контексте image-text доменов)
👍35❤🔥6❤5🔥4👎3
Forwarded from Complete AI (Andrey Kuznetsov)
⚡️⚡️⚡️Kandinsky 2.2 выходит в свет
Вот и наступил долгожданный знаменательный день, когда мы готовы порадовать комьюнити новой версией генеративной модели Kandinsky 2.2.
Не буду долго томить вас лирикой и историями, как мы маленькими шагами двигались к качественному скачку эти 3 месяца с момента релиза 2.1, а просто расскажу о ключевых нововведениях:
📌 разрешение генераций теперь достигло 1024 px
📌 генерировать можно с различным соотношением сторон (ура, конец монополии квадратных генераций!)
📌 изображения стали максимально близки к фотореалистичным
📌 у модели появилась возможность изменения частей изображения за счёт внедрения механики ControlNet (пока только на основе карты глубины)
📌 версии 2.1 и 2.2 встроены в самый большой и известный фреймворк генеративных моделей - Diffusers
⚡️В телеграм боте теперь 6 режимов:
1) генерация картинки по тексту
2) смешивание двух изображений
3) смешивание изображения и текста
4) создание вариаций входной картинки
5) локальные изменения с помощью ControlNet механики 💥
6) создание стикеров и стикерпаков по текстовым запросам 💥
Воспользоваться моделью можно тут:
Telegram bot
fusionbrain.ai
Diffusers
rudalle.ru
Салют
📕Почитать подробнее про Kandinsky 2.2 можно в новой статье на Хабре.
❓По вопросам сотрудничества и развития модели пишите в ЛС - с радостью обсудим все идеи😉
P.S. По неожиданной случайности сегодня еще День Фотографа, с чем всех причастных торжественно поздравляю📸 Такой вот подарок для сообщества от нашей команды🎉
@complete_ai
Вот и наступил долгожданный знаменательный день, когда мы готовы порадовать комьюнити новой версией генеративной модели Kandinsky 2.2.
Не буду долго томить вас лирикой и историями, как мы маленькими шагами двигались к качественному скачку эти 3 месяца с момента релиза 2.1, а просто расскажу о ключевых нововведениях:
📌 разрешение генераций теперь достигло 1024 px
📌 генерировать можно с различным соотношением сторон (ура, конец монополии квадратных генераций!)
📌 изображения стали максимально близки к фотореалистичным
📌 у модели появилась возможность изменения частей изображения за счёт внедрения механики ControlNet (пока только на основе карты глубины)
📌 версии 2.1 и 2.2 встроены в самый большой и известный фреймворк генеративных моделей - Diffusers
⚡️В телеграм боте теперь 6 режимов:
1) генерация картинки по тексту
2) смешивание двух изображений
3) смешивание изображения и текста
4) создание вариаций входной картинки
5) локальные изменения с помощью ControlNet механики 💥
6) создание стикеров и стикерпаков по текстовым запросам 💥
Воспользоваться моделью можно тут:
Telegram bot
fusionbrain.ai
Diffusers
rudalle.ru
Салют
📕Почитать подробнее про Kandinsky 2.2 можно в новой статье на Хабре.
❓По вопросам сотрудничества и развития модели пишите в ЛС - с радостью обсудим все идеи😉
P.S. По неожиданной случайности сегодня еще День Фотографа, с чем всех причастных торжественно поздравляю📸 Такой вот подарок для сообщества от нашей команды🎉
@complete_ai
🤡14🍾8👎5👍2❤1❤🔥1🖕1
Пост возрождения канала
⌛️Давно от меня не было никаких активностей, и за это время я успел:
- вернуться в Точку
- начал вести практики по алгоритмам
- стал следить за своим здоровьем (много работы требует соответствующего здоровья!)
📚А теперь хочу рассказать про одну полезную и классную штуку, которая помогает в тех случаях, когда есть какие то тексты, есть известные классы, но разметки нет: Snorkel https://arxiv.org/abs/1711.10160
Метод не новый, но это не мешает ему довольно успешно и быстро справляться с некоторыми задачами, особенно когда заводить LLM слишком долго/дорого. Основная суть в том, что мы пишем некоторые правила - они вполне могут пересекаться, коррелировать и тд, в общем быть невысокого качества, но под капотом snorkel обучает простую генеративку предсказывать реальную разметку исключительно на основе срабатывания правил и корреляции между ними. Написали десяток правил - и вуаля! Получили решение без единого разметчика.
Но у такой штуки есть и свои проблемы:
1) нужно побольше правил, иначе snorkel просто недообучиться (хотя бы от ~5 правил на класс)
2) это очень простой метод и к нему обязательно нужно прикрутить какую-либо модель сверху
👀 Впрочем, последний пункт отчасти даже является плюсом, ведь к сноркелю можно прикрутить другие интересные методы weak supervised и получить качество лучше, чем каким-либо способом по отдельности, например очень неплохо себя показала идея из https://arxiv.org/pdf/2204.13409.pdf - просто подгоняем распределение выхода сноркеля, но никто не мешает использовать и другие хорошие вещи, такие как:
Shoring Up the Foundations: Fusing Model Embeddings and Weak Supervision
PRBOOST: Prompt-Based Rule Discovery and Boosting for Interactive Weakly-Supervised Learning
Отдельно хочется сказать, что snorkel содержит в себе еще и удобные инструменты для анализа полученных данных: например slicing functions, позволяющие в разрезе по каждому классу смотреть его качество
UPD: теперь с красивой картинкой)
⌛️Давно от меня не было никаких активностей, и за это время я успел:
- вернуться в Точку
- начал вести практики по алгоритмам
- стал следить за своим здоровьем (много работы требует соответствующего здоровья!)
📚А теперь хочу рассказать про одну полезную и классную штуку, которая помогает в тех случаях, когда есть какие то тексты, есть известные классы, но разметки нет: Snorkel https://arxiv.org/abs/1711.10160
Метод не новый, но это не мешает ему довольно успешно и быстро справляться с некоторыми задачами, особенно когда заводить LLM слишком долго/дорого. Основная суть в том, что мы пишем некоторые правила - они вполне могут пересекаться, коррелировать и тд, в общем быть невысокого качества, но под капотом snorkel обучает простую генеративку предсказывать реальную разметку исключительно на основе срабатывания правил и корреляции между ними. Написали десяток правил - и вуаля! Получили решение без единого разметчика.
Но у такой штуки есть и свои проблемы:
1) нужно побольше правил, иначе snorkel просто недообучиться (хотя бы от ~5 правил на класс)
2) это очень простой метод и к нему обязательно нужно прикрутить какую-либо модель сверху
👀 Впрочем, последний пункт отчасти даже является плюсом, ведь к сноркелю можно прикрутить другие интересные методы weak supervised и получить качество лучше, чем каким-либо способом по отдельности, например очень неплохо себя показала идея из https://arxiv.org/pdf/2204.13409.pdf - просто подгоняем распределение выхода сноркеля, но никто не мешает использовать и другие хорошие вещи, такие как:
Shoring Up the Foundations: Fusing Model Embeddings and Weak Supervision
PRBOOST: Prompt-Based Rule Discovery and Boosting for Interactive Weakly-Supervised Learning
Отдельно хочется сказать, что snorkel содержит в себе еще и удобные инструменты для анализа полученных данных: например slicing functions, позволяющие в разрезе по каждому классу смотреть его качество
UPD: теперь с красивой картинкой)
❤🔥14🔥3👍1
Последние новости
📚 Про проекты
Последний примерно год я копил разные идеи из самых разных статей, с довольно простой затеей - проанализировать все это и запилить свою супер маленькую lm-ку, которая имела бы хорошее качество на прикладных задачах или легко бы под них тюнилась - собственно спустя год я начал реализацию этой давней мини-мечты, так что если вдруг есть что-то, что хотелось бы добавить туда - пишите, а также ждите ~к концу лета релиза новой lm-ки)
Не гарантирую, что получиться в полной мере реализовать задуманное, но что-то интересное точно получится
🍎 Всякие активности
Я человек по-своему активный, так что успел поучаствовать в самых разных мероприятиях с момента написания предыдущего поста:
1) Школа по программированию и анализу данных питерской вышки (для школьников) - штука, которая проводится в начале мая, когда школьники приезжают в кочубей-центр (это Пушкин, к югу от Петербурга) и работают над всякими проектами от компаний, под руководством самих сотрудников компаний. Штука довольно прикольная, но в этом году я был в роли куратора (принеси-подай-найди). Не знаю сколько школьников среди подписчиков моего канала, но если вдруг немало - то советую обратить внимание
2) побыл ментором на хакатоне дано (опять же штука для школьников) - тут у меня остались смешанные впечатления, конечно поруководить школьниками это прикольно, но необычно видеть, как люди называют себя аналитиками данных, и при этом очень жестко стебутся над машинным обучением)
(особенно на фоне новостей, что та же гпт очень неплохо умеет сама в аналитику 👀)
3) Помог в организации олимпиады DLS - пособирал датасеты (надеюсь участникам понравилось 😈), дали даже благодарственное письмо) - приятно делать какой-то вклад в развитие сообщества
P.S. далее по мере продвижения работы над своим проектом постараюсь писать какие-то регулярные посты про всякие интересные штуки и техники (оказывается мало кто знает, что нейронки можно очень сильно интерпретировать и улучшать/менять/вырезать слои просто посмотрев аккуратненько на градиенты)
📚 Про проекты
Последний примерно год я копил разные идеи из самых разных статей, с довольно простой затеей - проанализировать все это и запилить свою супер маленькую lm-ку, которая имела бы хорошее качество на прикладных задачах или легко бы под них тюнилась - собственно спустя год я начал реализацию этой давней мини-мечты, так что если вдруг есть что-то, что хотелось бы добавить туда - пишите, а также ждите ~к концу лета релиза новой lm-ки)
Не гарантирую, что получиться в полной мере реализовать задуманное, но что-то интересное точно получится
Я человек по-своему активный, так что успел поучаствовать в самых разных мероприятиях с момента написания предыдущего поста:
1) Школа по программированию и анализу данных питерской вышки (для школьников) - штука, которая проводится в начале мая, когда школьники приезжают в кочубей-центр (это Пушкин, к югу от Петербурга) и работают над всякими проектами от компаний, под руководством самих сотрудников компаний. Штука довольно прикольная, но в этом году я был в роли куратора (принеси-подай-найди). Не знаю сколько школьников среди подписчиков моего канала, но если вдруг немало - то советую обратить внимание
2) побыл ментором на хакатоне дано (опять же штука для школьников) - тут у меня остались смешанные впечатления, конечно поруководить школьниками это прикольно, но необычно видеть, как люди называют себя аналитиками данных, и при этом очень жестко стебутся над машинным обучением)
(особенно на фоне новостей, что та же гпт очень неплохо умеет сама в аналитику 👀)
3) Помог в организации олимпиады DLS - пособирал датасеты (надеюсь участникам понравилось 😈), дали даже благодарственное письмо) - приятно делать какой-то вклад в развитие сообщества
P.S. далее по мере продвижения работы над своим проектом постараюсь писать какие-то регулярные посты про всякие интересные штуки и техники (оказывается мало кто знает, что нейронки можно очень сильно интерпретировать и улучшать/менять/вырезать слои просто посмотрев аккуратненько на градиенты)
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡12🔥4❤2🤮2😈2🤯1
🤡3
🤩 Итак, в моем вузе завершился такой предмет как "проекты"
Их суть проста - студенту говорят "сделай вид что ты работаешь, и саму работу потом представь" - в итоге должно получится что-то типо работы стажера - таким образом у нас с первого курса каждый 2й семестр студенты делают различные проекты и пополняют свою резюме неплохими работами
📚 В этом году я был ментором у 4х команд и все они получили 8-9 !)
(в вышке 10-балльная система оценивания, 8 ~ отл, 9 ~ отл с плюсом)
⌛️У каждой из этих команд получился неплохой проект (а у одной даже заявка на хорошую конференцию по ML наклевывается), так что я решил в ближайшее время написать про каждую из этих команд, ждите)
Ну а пока краткий анонс:
1) Генерация 3D облаков точек для улучшения структурной генерации 3D моделей на основе любого числа изображений
2) Тг-бот с кучей моделей медицинской самодиагностики
3) Рекомендательная система музыки на основе эмоций человека (с квантизацией моделек и другой оптимизационной магией!)
4) "Умный светофор", показавший себя на 10-20% эффективнее по пропускной способности светофоров с эффективным расписанием
Их суть проста - студенту говорят "сделай вид что ты работаешь, и саму работу потом представь" - в итоге должно получится что-то типо работы стажера - таким образом у нас с первого курса каждый 2й семестр студенты делают различные проекты и пополняют свою резюме неплохими работами
📚 В этом году я был ментором у 4х команд и все они получили 8-9 !)
(в вышке 10-балльная система оценивания, 8 ~ отл, 9 ~ отл с плюсом)
⌛️У каждой из этих команд получился неплохой проект (а у одной даже заявка на хорошую конференцию по ML наклевывается), так что я решил в ближайшее время написать про каждую из этих команд, ждите)
Ну а пока краткий анонс:
1) Генерация 3D облаков точек для улучшения структурной генерации 3D моделей на основе любого числа изображений
2) Тг-бот с кучей моделей медицинской самодиагностики
3) Рекомендательная система музыки на основе эмоций человека (с квантизацией моделек и другой оптимизационной магией!)
4) "Умный светофор", показавший себя на 10-20% эффективнее по пропускной способности светофоров с эффективным расписанием
🔥35🤡14❤4👍4🍌2🐳1
Один мой хороший друг, которому я помогаю с его проектом по генерации 3D структур все-таки смог получить очень хорошие результаты, так что ждите скоро (надеюсь) пост про новый подход в нейронках в 3D)
🔥33🤡4❤🔥3🥱1