8 бесплатных топ курсов по большим языковым моделям:
1. Университет LLM
Курс дает представление о том, как работают
LLM
, их практическом применении, и направляет учащихся на использование LLM для создания и развертывания приложений.https://docs.cohere.com/docs/llmu
2. huggingface NLP course
Этот курс дает исчерпывающие знания о тарнсформерах Hugging Face, датасетах, токенизаторах и инструменте Accelerate в области обработки естественного языка (NLP).
https://huggingface.co/learn/nlp-course/chapter1/1
3. DeepLearningAI
Коллекция бесплатных курсов, созданных в сотрудничестве со многими компаниями, такими как LangChain, OpenAI, Google, Weights & Biases, Microsoft и другими.
https://www.deeplearning.ai/short-courses/
4. Weights_biases course
Этот курс показывает, как создавать приложения на базе LLM, используя
API, Langchain и W&B Prompts
. Он рассказывает про разработку, экспериментирование и оценку приложений, ориентированных на LLM.https://www.wandb.courses/courses/building-llm-powered-apps
5. Introduction to LLMs course by google cloud
Курс вводного уровня, в котором рассказывается о том, что такое LLM, о случаях их использования и о том, как повысить производительность LLM с помощью промпт-тюнинга.
https://www.cloudskillsboost.google/course_templates/539
6. Databricks курсы
Программа включает в себя два курса: "
LLMs: Application through Production
" и "LLMs: Foundation Models from the Ground Up
".https://www.databricks.com/blog/enroll-our-new-expert-led-large-language-models-llms-courses-edx
7. Курс "LangChain & Vector Databases in Production" от activeloopai, towards_AI и Intel
Серия из трех курсов познакомит слушателей со знаниями и навыками для обучения, тонкой настройки и интеграции LLM в продакшен.
https://learn.activeloop.ai/courses/langchain
8 ) LLM Bootcamp
Охватывает такие темы, как
Prompt Engineering, LLMOps, UX
для языковых пользовательских интерфейсов, дополненные языковые модели, быстрая разработка LLM-приложений, будущие тенденции в LLM, фундаментальные концепции и прохождение askFSDL.https://fullstackdeeplearning.com/llm-bootcamp/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23👍17🔥8🤗2😁1🎃1🆒1
A new benchmark in class-unconditional image generation.
RCG - новый простой, но эффективный фреймворк для генерации изображений, который устанавливает новую планку для unconditional генераций (без учета класса генерации объекта).
RCG не зависит от аннотаций человека. Вместо этого он опирается на самоконтролируемое распределение, которое сопоставляется с распределением изображений с помощью предварительно обученного кодировщика.
Во время генерации RCG делает выборку из такого распределения представлений с помощью модели диффузии представлений (RDM) и использует генератор пикселей для создания пикселей изображения на основе выбранного представления.
Такая конструкцияприводит к созданию высококачественных изображений. Протестированная на
ImageNet 256
256, RCG достигает
Frechet Inception Distance (FID) 3,31 и Inception Score (IS) 253,4.
Эти результаты не только значительно превосхоядт современное состояние генерации изображений без учета классов, но и конкурируют с ведущими методами генерации изображений с учетом классов, преодолевая давний разрыв в производительности между этими двумя задачами.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍6🔥3⚡1
In this example, we illustrate how we use LlaVa for belowing tasks:
▪Retrieval Augmented Image Captioning
▪Pydantic Structured Output
▪Multi-Modal Retrieval-Augmented Generation (RAG) using Llava-13b
Совершенно новая книга рецептов 🧑🍳, в которой рассказывается о трех способах создания приложений
LLM
путем интеграции мультимодальных моделей (LLaVa
) в остальной рабочий процесс: 1️⃣ Retrieval Augmented Image Captioning: Генерация подписей к изображению с помощью LLaVa, а затем дополнение ответа из вашей базы знаний.
2️⃣ Извлечение структурированных данных из изображений: Получив входную инструкцию и изображение, извлекаем из него структурированный объект Pydantic.
3️⃣ Multi-modal RAG: задаем вопросы по изображениям и тексту из собственной базы знаний.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍10🔥3⚡1
Очень мощная модель, построенная на основе новой модели Mistral MoE и обученная на наборе данных SlimOrca.
- Свободно используется по лицензии Apache 2.0
- превосходит Llama 2 70B и работает в 6 раз быстрее.
- Превосходит GPT3.5
- seq_len = 32K
Скачать можно здесь: https://huggingface.co/mattshumer/mistral-8x7b-chat
Почитать: https://mistral.ai/news/mixtral-of-experts/
Что такое "Mixture of Experts"?
❓ Чем МЭ отличаются от обычных трансформеров
🏋️♀️ Как их обучают
🏎️ Тонкости работы с выводами
Объяснение на тему: https://huggingface.co/blog/moe
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍8❤3👏1😁1🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
Фундаментальная модель, которая обобщает древо жизни (более 2 миллионов видов фауны и флоры), превосходя OpenAI CLIP на 18% в классификации zero-shot и поддерживает открытую классификацию почти по всему живому на земле.
Что внутри?
> Данные: TreeOfLife-10M - самый большой и разнообразный набор данных изображений организмов на сегодняшний день. Он содержит 10,4 млн изображений для более чем 450 таксонов. тем, взятых из iNaturalist, BIOSCAN и Encyclopedia of Life.
> Моделирование: Авторы применили мультимодальную модель контрастного обучения CLIP для иерархической классификации изображений.
Основные результаты
> Классификация животных/растений/грибов, включая редкие виды, с нулевым/малым числом снимков, превосходящая CLIP на 16-18 % в абсолютном выражении.
> Визуализация T-sne показывает, что кодировщик зрения BioCLIP уловил тонкую иерархическую структуру древа жизни.
> BioCLIP - это своего рода универсальный классификатор для древа жизни. Просто дайте ему изображение любого организма, и он, скорее всего, найдет правильный вид.
- paper: https://arxiv.org/abs/2311.18803
- project: https://imageomics.github.io/bioclip/
- demo: https://huggingface.co/spaces/imageomics/bioclip-demo
- model: https://huggingface.co/imageomics/bioclip
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥14❤3👀2
This media is not supported in your browser
VIEW IN TELEGRAM
DynamiCrafter новая, мощная модель, которая может анимировать неподвижные изображения с открытым доменом на основе промптов.
🌐page: https://doubiiu.github.io/projects/DynamiCrafter
📄paper: https://arxiv.org/abs/2310.12190
🧬code: https://github.com/Doubiiu/DynamiCrafter
🕸replicate: https://replicate.com/camenduru/dynami-crafter
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥5❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Новый LLM360 фреймворк, который расширяет границы открытых LLM!
Совершенно новые предварительно обученные LLM со обучающим полным кодом, данными и 360 контрольными точками модели.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥2❤1
EasyVolcap, библиотека на Pytorch для упрощения процесса захвата, реконструкции и рендеринга объемного видео, с целью унификации процесса обработки многоракурсных видео, реконструкции 4D-сцен и динамического рендеринга .
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍5🔥3👏1
PromptBench - это основанный на Pytorch пакет Python для оценки больших языковых моделей (LLM). Он предоставляет удобные API для исследователей, чтобы проводить оценку LLM.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5👌4❤1🔥1
🎨The Art of Prompt Engineering with Stable Diffusion Models!
Искусство разработки подсказок с помощью моделей стабильной диффузии!
От создания убедительных промптов до доработки результатов - это руководство обязательно к прочтению для всех, кто изучает потенциал искусственного интеллекта в создании изображений.
🔗 Guide: https://wandb.ai/geekyrakshit/diffusers-prompt-engineering/reports/A-Guide-to-Prompt-Engineering-for-Diffusion-Models--Vmlldzo1NzY4NzQ3
@ai_machinelearning_big_data
Искусство разработки подсказок с помощью моделей стабильной диффузии!
От создания убедительных промптов до доработки результатов - это руководство обязательно к прочтению для всех, кто изучает потенциал искусственного интеллекта в создании изображений.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍7🔥2
Яндекс вручил ученым премию Yandex ML Prize
Лауреатами международной премии, которую присуждают за значимый вклад в развитие науки в области машинного обучения, стали в этом году 11 человек. Работы лауреатов расширяют возможности для прикладного применения ML-технологий: например, научный сотрудник AIRI и Центра глубинного обучения и байесовских методов НИУ ВШЭ Айбек Аланов исследует генеративные модели для компьютерного зрения и синтеза речи.
@ai_machinelearning_big_data
Лауреатами международной премии, которую присуждают за значимый вклад в развитие науки в области машинного обучения, стали в этом году 11 человек. Работы лауреатов расширяют возможности для прикладного применения ML-технологий: например, научный сотрудник AIRI и Центра глубинного обучения и байесовских методов НИУ ВШЭ Айбек Аланов исследует генеративные модели для компьютерного зрения и синтеза речи.
@ai_machinelearning_big_data
👍30🔥8🤬4❤3❤🔥1
Выпущен TextDiffuser-2 с кодом и демо.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍4🔥2🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
Только что были выпущены
Animate Diff v3
и Sparse Ctrl
, модели которые позволяют качественно анимировать и стилизовать видео, генерировать переходы между кадрами.ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤4🥰3🔥1😁1
Как строится работа полного цикла ML-разработки и как в ней использовать готовые платформенные решения
Ведущий программист VK Cloud Станислав Кипрюшин показывает пример работы с Cloud ML Platform для создания сервиса распознавания лиц.
В машинном обучении (Machine Learning, ML) можно использовать два подхода: задействовать различные технологии на каждом этапе или работать с готовыми инфраструктурными решениями, которые позволяют создать MLOps-конвейер на одной платформе. Какой путь принесет больше профита — узнайте в статье.
Ведущий программист VK Cloud Станислав Кипрюшин показывает пример работы с Cloud ML Platform для создания сервиса распознавания лиц.
В машинном обучении (Machine Learning, ML) можно использовать два подхода: задействовать различные технологии на каждом этапе или работать с готовыми инфраструктурными решениями, которые позволяют создать MLOps-конвейер на одной платформе. Какой путь принесет больше профита — узнайте в статье.
👍17🥰2❤1🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ UDiffText: A Unified Framework for High-quality Text Synthesis in Arbitrary Images via Character-aware Diffusion Models ✒ Colab 🥳
UDiffText: Единая платформа для высококачественной генерации текста на изображениях с помощью моделей диффузии.
UDiffText способен синтезировать точный текст на синтетических или реальных изображениях, поэтому может применяться для решения таких задач, как редактирование текста на картинке (a), генерация произвольного текста и генерация точного текста.
🖥 code: https://github.com/ZYM-PKU/UDiffText
⚡️ page: https://udifftext.github.io
📚 paper: https://arxiv.org/abs/2312.04884
🔥 colab: https://github.com/camenduru/UDiffText-colab
ai_machinelearning_big_data
UDiffText: Единая платформа для высококачественной генерации текста на изображениях с помощью моделей диффузии.
UDiffText способен синтезировать точный текст на синтетических или реальных изображениях, поэтому может применяться для решения таких задач, как редактирование текста на картинке (a), генерация произвольного текста и генерация точного текста.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥4🎉2❤1
NeurIPS 2023 обзор лучших работ: https://youtu.be/LkED9wKI1TY
- Является ли эмерджентность больших языковых моделей миражом? https://arxiv.org/abs/2304.15004
- Масштабирование языковых моделей с ограничениями по данным. https://arxiv.org/abs/2305.16264
- Прямая оптимизация предпочтений: Your Language Model is Secretly a Reward Model. https://arxiv.org/abs/2305.18290
- DecodingTrust: Всесторонняя оценка достоверности в GPT-моделях. https://arxiv.org/abs/2306.11698
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥4❤3
GitHub только что опубликовал свой последний отчет о состоянии открых проектов. Авторы отметили тренд на использование разработчиками технологий искусственного интеллекта и тренд на создание приложений на основе искусственного интеллекта.
Они выделили основные тенденции:
🔹 Разработчики все чаще используют генеративный ИИ: Все больше разработчиков работают с моделями OpenAI ( 92% ) и с моделями других ИИ-компаний; в 2023 году проекты генеративного ИИ с открытым исходным кодом входят в десятку самых популярных проектов по количеству контрибьюторов.
🔹 Наблюдается тренд на работу с облачными приложениями:
Развертывание облаков становится стандартом; резко возросло количество использования разработчиками
Docker
контейнеров, IaC
и других облачных нативных технологий.🔹 В 2023 году на GitHub было создано 98 млн новых проектов (за 2022 год - 85.7 млн, за 2021 - 61 млн, за 2020 - 60 млн). Общее число проектов достигло отметки в 420 млн (+27%), а число публично доступных репозиториев - 284 млн (+22%).
🔸 За год добавлено около 65 тысяч новых проектов, связанных с машинным обучением, это на 248% больше, чем в прошлом году. Число AI-проектов за год выросло на 148%.
🔸 Аудитория GitHub за год выросла на 20.2 млн пользователей (+26%) и теперь достигает 114 млн (в прошлом году было 20.5 млн, позапрошлом - 73 млн, три года назад - 56 млн). На первом месте по числу разработчиков находится США, на втором - Индия, на третьем - Китай, на четвёртом Бразилия, на пятом - Великобритания, на шестом - РФ, на седьмом Германия. К 2027 году Индия обгонит США как крупнейшее сообщество разработчиков на GitHub
🔸Javascript остается самым популярным язком. Второе место сохраняет за собой Python.Популярность TypeScript выросла на 37 %. и он вытеснил на четвёртое место язык Java. 5, 6 и 7 места удержали за собой языки С#, C++ и PHP. На восьмое место поднялся язык С, который вытеснил на девятое место Shell. Десятое место занял Go.
🔸 𝗥𝘂𝘀𝘁 растет быстрее всех остальных языков в этом году (рост на 40 % по сравнению с предыдущим годом).
🔸 𝟰.𝟯 миллиона открытых и приватных репозиториев используют 𝗗𝗼𝗰𝗸𝗲𝗿𝗳𝗶𝗹𝗲𝘀. Это является следcтвием роста использования Terraform и других облачных нативных технологий, который мы наблюдали в течение последних нескольких лет.
🔸 Сингапур занял первое место по количеству новых разработчиков на душу населения.
📌 Полный отчет
📌 Видео
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
The GitHub Blog
Octoverse: The state of open source and rise of AI in 2023
In this year’s Octoverse report, we study how open source activity around AI, the cloud, and Git are changing the developer experience.
👍23🎉5🔥4❤2🥰2
A state-of-the-art-level open visual language model.
Люди проводят огромное количество времени на цифровых устройствах, используя графические пользовательские интерфейсы (GUI), например, экраны компьютеров или смартфонов.
Большие языковые модели, такие как ChatGPT, могут помочь людям в решении таких задач, как написание электронных писем и ответов на вопросы, но они не способны понимать и взаимодействовать с графическими интерфейсами, что ограничивает их потенциал в плане повышения уровня автоматизации.
CogAgent
- новая визуальная языковая модель (VLM) с 18 миллиардами параметров, которая специализируется на работе и навигации в графических интерфейсах. Используя кодировщики изображений как низкого, так и высокого разрешения, CogAgent поддерживает ввод с разрешением 1120*1120, что позволяет ему распознавать мельчайшие элементы страниц и текст.
Будучи универсальной моделью визуального языка, CogAgent достигает передовых результатов в пяти тестах VQA с большим количеством текста и четырех тестах VQA общего назначения, включая VQAv2, OK-VQA, Text-VQA, ST-VQA, ChartQA, infoVQA, DocVQA, MM-Vet и POPE. CogAgent, использующий в качестве входных данных только скриншоты, превосходит методы на основе LLM, которые принимают извлеченный HTML-текст, в задачах навигации по графическому интерфейсу на ПК и смартфонах.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥7❤2😁1