🔥 Полезные библиотеки Python
AcurusTrack - крутая утилита для трекинга одинаковых объектов вне зависимости от их природы.
Может следить за любыми одинаковыми объектами, хоть за людьми в масках, хоть хоккеистами, лошадьми или машинами.
⚙️ GitHub/Инструкция
#python #soft #github
@neural
AcurusTrack - крутая утилита для трекинга одинаковых объектов вне зависимости от их природы.
Может следить за любыми одинаковыми объектами, хоть за людьми в масках, хоть хоккеистами, лошадьми или машинами.
⚙️ GitHub/Инструкция
#python #soft #github
@neural
DeepFaceDrawing — нейросеть, которая позволяет создавать реалистичные изображения лиц из набросков от руки
Метод отрисовки по существу использует входные эскизы в качестве «мягких» ограничений и, таким образом, способен создавать высококачественные изображения лиц даже из грубых и/или неполных эскизов. Данный инструмент прост в использовании даже для тех кто не рисует, сохраняя при этом тонкое управление деталями формы
#GitHub | #Python #Interesting
@neural
Метод отрисовки по существу использует входные эскизы в качестве «мягких» ограничений и, таким образом, способен создавать высококачественные изображения лиц даже из грубых и/или неполных эскизов. Данный инструмент прост в использовании даже для тех кто не рисует, сохраняя при этом тонкое управление деталями формы
#GitHub | #Python #Interesting
@neural
Нейросеть Dalle-2. Вы не поверите, что может нарисовать машина… Дизайнеры больше не нужны
Текст генерации: furry monster with green eyes looking at us, the word «habrahabr» in the background, digital art, blue background, 3d
Недавно мне посчастливилось стать обладателем доступа к API Dalle-2. Если ты ещё не слышал про Dalle, то это такая CLIP-архитектура, обученная на огромном корпусе пар текст-изображение. Иначе говоря — она умеет генерировать очень качественные изображения из текста. Отличить результаты генерации от рисунков человека иногда просто невозможно! Это одновременно впечатляет и в то же время — немного шокирует.
По сравнению с предыдущей версией — DALL-E 2 умеет генерировать изображения в более высоком разрешении (1024×1024 пикселей, что в 16 раз превышает разрешение в предыдущей версии модели) да ещё и намного быстрее. Более того, DALL-E 2 позволяет редактировать уже существующие изображения.
Нет больше терпения ждать, давайте же опробуем её!
Читать
@neural
Текст генерации: furry monster with green eyes looking at us, the word «habrahabr» in the background, digital art, blue background, 3d
Недавно мне посчастливилось стать обладателем доступа к API Dalle-2. Если ты ещё не слышал про Dalle, то это такая CLIP-архитектура, обученная на огромном корпусе пар текст-изображение. Иначе говоря — она умеет генерировать очень качественные изображения из текста. Отличить результаты генерации от рисунков человека иногда просто невозможно! Это одновременно впечатляет и в то же время — немного шокирует.
По сравнению с предыдущей версией — DALL-E 2 умеет генерировать изображения в более высоком разрешении (1024×1024 пикселей, что в 16 раз превышает разрешение в предыдущей версии модели) да ещё и намного быстрее. Более того, DALL-E 2 позволяет редактировать уже существующие изображения.
Нет больше терпения ждать, давайте же опробуем её!
Читать
@neural
MarkovJunior – Вероятностный язык программирования, основанный на сопоставлении шаблонов и распространении «ограничений» (pattern matching and constraint propagation)
В языке MarkovJunior программы представляют собой комбинации правил перезаписи, а вывод выполняется с помощью распространения ограничений
Язык назван в честь математика Андрея Андреевича Маркова, который определил и изучил то, что сейчас называется алгоритмами Маркова
⤷ Ссылка на проект
⤷ Демо, Рекомендуется посмотреть
@neural | #Interesting #Language
В языке MarkovJunior программы представляют собой комбинации правил перезаписи, а вывод выполняется с помощью распространения ограничений
Язык назван в честь математика Андрея Андреевича Маркова, который определил и изучил то, что сейчас называется алгоритмами Маркова
⤷ Ссылка на проект
⤷ Демо, Рекомендуется посмотреть
@neural | #Interesting #Language
GitHub
GitHub - mxgmn/MarkovJunior: Probabilistic language based on pattern matching and constraint propagation, 153 examples
Probabilistic language based on pattern matching and constraint propagation, 153 examples - mxgmn/MarkovJunior
Forwarded from Машинное обучение RU
Как нейросети проводят лето: подборка самых ярких новостей в мире Data Science за месяц
В июле нейросети не теряли времени даром и успели предсказать структуру 200 млн белков, написать научную статью в соавторстве с человеком (и возможно на шаг приблизиться к той самой симфонии), а ещё дать футбольным фанатам надежду на крепкий сон. Подробнее об этих и других достижениях AI – в подборке новостей Data Science.
Читать дальше
@machinelearning_ru
В июле нейросети не теряли времени даром и успели предсказать структуру 200 млн белков, написать научную статью в соавторстве с человеком (и возможно на шаг приблизиться к той самой симфонии), а ещё дать футбольным фанатам надежду на крепкий сон. Подробнее об этих и других достижениях AI – в подборке новостей Data Science.
Читать дальше
@machinelearning_ru
Forwarded from C# (C Sharp) programming
ML.NET – платформа для машинного обучения с открытым исходным кодом и кроссплатформенностью для .NET
ML.NET позволяет разработчикам легко создавать, обучать, развертывать и использовать пользовательские модели в своих .NET приложениях, без предварительного опыта в разработке моделей машинного обучения или опыта работы с другими языками программирования, такими как Python или R
⤷ Ссылка на проект
@csharp_ci | #CSharp #ML
ML.NET позволяет разработчикам легко создавать, обучать, развертывать и использовать пользовательские модели в своих .NET приложениях, без предварительного опыта в разработке моделей машинного обучения или опыта работы с другими языками программирования, такими как Python или R
⤷ Ссылка на проект
@csharp_ci | #CSharp #ML
GitHub
GitHub - dotnet/machinelearning: ML.NET is an open source and cross-platform machine learning framework for .NET.
ML.NET is an open source and cross-platform machine learning framework for .NET. - dotnet/machinelearning
Компьютерное зрение. Распознаем позу человека с использованием OpenPose.
Анализ видео и изображений – одно из основных направлений применения технологий ML. Распознавание лиц и объектов позволяет автоматически анализировать данные, определяя положение тела, личность или даже эмоции человека, что может быть использовано как в системах безопасности — face id, определение действий человека, так и для улучшения клиентского опыта – детектирование эмоций клиентов и персонала.
Но каждый, кто писал программы распознавания объектов, используя opencv, знает, что выделение опорных точек и построение выпуклой оболочки — наименьшего выпуклого множества, содержащего опорные точки, дело часто тяжелое и неблагодарное.
➡️ Читать дальше
⚙️ Github
@neural
Анализ видео и изображений – одно из основных направлений применения технологий ML. Распознавание лиц и объектов позволяет автоматически анализировать данные, определяя положение тела, личность или даже эмоции человека, что может быть использовано как в системах безопасности — face id, определение действий человека, так и для улучшения клиентского опыта – детектирование эмоций клиентов и персонала.
Но каждый, кто писал программы распознавания объектов, используя opencv, знает, что выделение опорных точек и построение выпуклой оболочки — наименьшего выпуклого множества, содержащего опорные точки, дело часто тяжелое и неблагодарное.
➡️ Читать дальше
⚙️ Github
@neural
Forwarded from Машинное обучение RU
🧠 Нейросеть Stable Diffusion, генерирующая изображения высочайшего качества (вполне конкурирует с DALLE-2) теперь доступна для всех
Вы можете войти в систему с помощью своих учетных записей discord или Google или создать новую учетную запись.
➡️ Stable Diffusion регистарция
➡️ Github
@machinelearning_ru
Вы можете войти в систему с помощью своих учетных записей discord или Google или создать новую учетную запись.
➡️ Stable Diffusion регистарция
➡️ Github
@machinelearning_ru
🔥BEiT-3: Image as a Foreign Language (by Microsoft)
Представлена новая мультимодальная Foundation модель, которая побила сразу 12 рекордов! (см. картинку)
Секрет успеха прост — нужно токенизировать картинки при помощи VQ-VAE и интерпретировать визуальные токены как текст на иностранном языке (авторы назвали его «Imglish»), а пары картинка-текст превращаются в параллельные предложения. Дальше всё это обучается на куче картинок, текстов и их парах через обычный MLM (как BERT).
Примечательно, что для обучения использовались только открытые данные.
Статья, GitHub
Представлена новая мультимодальная Foundation модель, которая побила сразу 12 рекордов! (см. картинку)
Секрет успеха прост — нужно токенизировать картинки при помощи VQ-VAE и интерпретировать визуальные токены как текст на иностранном языке (авторы назвали его «Imglish»), а пары картинка-текст превращаются в параллельные предложения. Дальше всё это обучается на куче картинок, текстов и их парах через обычный MLM (как BERT).
Примечательно, что для обучения использовались только открытые данные.
Статья, GitHub
machinelearning_interview - канал подготовит к собеседованию по машинному обучению, статисике ,алгоритмам и науке о данных.
golang_interview - Вопросы с настоящих Golang собеседований, помогут Вам получить успешно пройти интервью.
python_job_interview - здесь собраны все возможные вопросы и ответы с собеседований по Python.
ai_machinelearning_big_data - Мл, Наука о данных.
golang_interview - Вопросы с настоящих Golang собеседований, помогут Вам получить успешно пройти интервью.
python_job_interview - здесь собраны все возможные вопросы и ответы с собеседований по Python.
ai_machinelearning_big_data - Мл, Наука о данных.
🤖🎨 ИИ для рисования: раскрываем секреты нейронного переноса стиля
Раскладываем по полочками, как «думает» нейронная сеть VGG-19, когда ей прилетает задача скопировать стиль художника из вида Homo sapiens.
➡️ Читать дальше
⚙️ Ноутбук на Kaggle
⚙️ Код
🧠 Нейронный алгоритм переноса стиля
@data_analysis_ml
Раскладываем по полочками, как «думает» нейронная сеть VGG-19, когда ей прилетает задача скопировать стиль художника из вида Homo sapiens.
➡️ Читать дальше
⚙️ Ноутбук на Kaggle
⚙️ Код
🧠 Нейронный алгоритм переноса стиля
@data_analysis_ml
Geo-heatmap – генератор интерактивных геотепловых карт из данных о местоположении Google
Это скрипт, который генерирует интерактивную геотепловую карту из данных истории местоположения Google с использованием Python, Folium и OpenStreetMap
⤷ Ссылка на проект
#Python #Generator
@neural
Это скрипт, который генерирует интерактивную геотепловую карту из данных истории местоположения Google с использованием Python, Folium и OpenStreetMap
⤷ Ссылка на проект
#Python #Generator
@neural
GitHub
GitHub - luka1199/geo-heatmap: :world_map: Generate an interactive geo heatmap from your Google location data
:world_map: Generate an interactive geo heatmap from your Google location data - luka1199/geo-heatmap
🚀 Про <ЭТО> или как генерить <Это>, если <Это> не включили в претрейн
Добавление новых объектов и концептов через p-tuning стало возможно в Стебле Диффузии!
Давайте представим ситуацию:
— Вы обучили огромную Text2Image модель на 1B данных
— Она умеет почти все, но не ЭТО! Время идет вперед и выходит фильм или игра, и новый сеттинг и новых персонажей сеть не знает, так как на момент тренировки этих данных в интернете просто не было
Сеть <это> не умеет, а генерировать <это> нужно... Что делать?
1) Дообучить модель добавив в датасет новые данные. Можно! Не ради же одного объекта, персонажа или концепта.. Слишком жирно будет..
2) Зафайнтюнить на новых данных. Хм, и потерять генерализацию?
3) Добвить новые зания в словарь модели, (пркатически) не трогая при этом сами веса! А вот это то, что нужно!
Ресерчеры из Университета Тель-Авива и NVIDIA решили это через старый добрый p-tuning. Работа получила имя An Image is Worth One Word (привет, VIT).
Взяв ~5 картинок они пустили градиенты
— Через 1000 шагов, тихо на денойзинге
— Через юнет и кросс-аттеншен
— Через языковой трансформер
— Прямо на эмбеддинг слой, так где находится токин с <этим> Смотри картинку к посту.
По факту это обыкновенный p-tuning, адаптированный под Imagen/Glide/LatenDiffusion модели.
Сегодня ребята адпатиорвали модель под Стебель! Так что если вы хотели генерить стеблем <Это>, то самое время!
Доступны 2 колаба:
1) для p-tuning'а стебля под <ЭТО>
2) для инференса, чтобы генерить <ЭТО>
Я сгенерировал игрушиченую машинку в стиле кота из примеров. Действительно запоминает.
📇 project
📄 paper
💻 code
🔮 train colab
👁 inference colab
@neural
Добавление новых объектов и концептов через p-tuning стало возможно в Стебле Диффузии!
Давайте представим ситуацию:
— Вы обучили огромную Text2Image модель на 1B данных
— Она умеет почти все, но не ЭТО! Время идет вперед и выходит фильм или игра, и новый сеттинг и новых персонажей сеть не знает, так как на момент тренировки этих данных в интернете просто не было
Сеть <это> не умеет, а генерировать <это> нужно... Что делать?
1) Дообучить модель добавив в датасет новые данные. Можно! Не ради же одного объекта, персонажа или концепта.. Слишком жирно будет..
2) Зафайнтюнить на новых данных. Хм, и потерять генерализацию?
3) Добвить новые зания в словарь модели, (пркатически) не трогая при этом сами веса! А вот это то, что нужно!
Ресерчеры из Университета Тель-Авива и NVIDIA решили это через старый добрый p-tuning. Работа получила имя An Image is Worth One Word (привет, VIT).
Взяв ~5 картинок они пустили градиенты
— Через 1000 шагов, тихо на денойзинге
— Через юнет и кросс-аттеншен
— Через языковой трансформер
— Прямо на эмбеддинг слой, так где находится токин с <этим> Смотри картинку к посту.
По факту это обыкновенный p-tuning, адаптированный под Imagen/Glide/LatenDiffusion модели.
Сегодня ребята адпатиорвали модель под Стебель! Так что если вы хотели генерить стеблем <Это>, то самое время!
Доступны 2 колаба:
1) для p-tuning'а стебля под <ЭТО>
2) для инференса, чтобы генерить <ЭТО>
Я сгенерировал игрушиченую машинку в стиле кота из примеров. Действительно запоминает.
📇 project
📄 paper
💻 code
🔮 train colab
👁 inference colab
@neural
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 OpenAI внедрили в DALL·E 2 "Outpainting"
Только что пришло письмо от OpenAI, где говорится, чтоиз-за опенсорса stable diffusion они решили внедрить Outpainting, про который я подробно писал весной, в интерфейс DALL-E 2.
Outpainting позволяет генерировать изображения любого размера. Но в отличие от гибкого разрешения в диффузионных UNet'ах с вниманием, Outpainting предполагает пошаговую генерацию со всеми своими плюсам и минусами.
+ Поэтапная, контролируемая генерация деталей и объектов
- Локальное рецептивное поле
Outpainting — это продолжение генерации изображения за его первоначальными границами. Outpainting добавляет визуальные элементы, развивая генерацию в новых направлениях, основываясь на вашем текстовом описании.
Это позволяет начать ваше полотно в одном стиле, а закончить в другом, уточнять элементы и менять их!
Outpainting — это Inpainting без привязки исходному разрешению..
📇 blog post
🥑 DALL-E 2 Editor
Только что пришло письмо от OpenAI, где говорится, что
Outpainting позволяет генерировать изображения любого размера. Но в отличие от гибкого разрешения в диффузионных UNet'ах с вниманием, Outpainting предполагает пошаговую генерацию со всеми своими плюсам и минусами.
+ Поэтапная, контролируемая генерация деталей и объектов
- Локальное рецептивное поле
Outpainting — это продолжение генерации изображения за его первоначальными границами. Outpainting добавляет визуальные элементы, развивая генерацию в новых направлениях, основываясь на вашем текстовом описании.
Это позволяет начать ваше полотно в одном стиле, а закончить в другом, уточнять элементы и менять их!
Outpainting — это Inpainting без привязки исходному разрешению..
📇 blog post
🥑 DALL-E 2 Editor
Multimodal Lecture Presentations (MLP)
Вышел набор данных для тестирования возможностей моделей машинного обучения в мультимодальном понимании образовательного контента. Для проверки понимания мультимодальной информации на слайдах лекций представлены две исследовательские задачи, которые должны стать первым шагом к разработке ИИ, способного объяснять и иллюстрировать слайды лекций: автоматический поиск (1) устных объяснений к рисунку (Figure-to-Text) и (2) иллюстраций, сопровождающих устное объяснение (Text-to-Figure).
Идеально, мне как раз не хватает рук и людей делать лекции, заменим ка мы их нейроночкой через пару лет 😀
📖 Датасет
Вышел набор данных для тестирования возможностей моделей машинного обучения в мультимодальном понимании образовательного контента. Для проверки понимания мультимодальной информации на слайдах лекций представлены две исследовательские задачи, которые должны стать первым шагом к разработке ИИ, способного объяснять и иллюстрировать слайды лекций: автоматический поиск (1) устных объяснений к рисунку (Figure-to-Text) и (2) иллюстраций, сопровождающих устное объяснение (Text-to-Figure).
Идеально, мне как раз не хватает рук и людей делать лекции, заменим ка мы их нейроночкой через пару лет 😀
📖 Датасет
stablediffusion-infinity – нейросеть, схожая по функциональности на DALL-E 2, которая может дорисовывать существующие иллюстрации, используя свободную Stable Diffusion
⤷ Ссылка на проект
GitHub | #Interesting
⤷ Ссылка на проект
GitHub | #Interesting