Технозаметки Малышева
5.55K subscribers
2.79K photos
927 videos
38 files
3.07K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
HuggingFace объединяет ведущих провайдеров облачного инференса

Облачный инференс от разных провайдеров теперь можно запускать через единый интерфейс Hub.
Доступны сервисы AWS, Nvidia, SambaNova и Replicate с гибкой тарификацией.
Подключение реализовано через REST API, поддерживающий OpenAI-совместимые клиенты.
Функционал включает генерацию изображений и работу с языковыми моделями.
Зарегистрированным пользователям доступна базовая бесплатная квота.
Оплата производится напрямую провайдерам без дополнительных комиссий.

Теперь не нужно держать аккаунты у всех провайдеров - достаточно одного в HuggingFace 😎

#HuggingFace #gate #inference
-------
@tsingular
👍6🔥2🤯2
Media is too big
VIEW IN TELEGRAM
Для всех, кто страдает от того, что DeepSeek API штормит, запилил короткое видео как создать ключ под Inference Providers в Hugging Face и начать использовать DS.

Делов на пару минут и тысячи моделей HF будут вам доступны по API.

(для самых внимательных: ключ из видео уже удалён :) )

p.s. Видео из серии как вскипятить воду, но точно знаю некоторых, кому это будет полезно, поэтому вот :)

#HuggingFace #Inference #demo
———
@tsingular
👍101
HuggingFace представил агента-исследователя Open Deep Research

HuggingFace выпустил open-source версию DeepResearch на основе библиотеки SmolAgents.

Ключевая особенность - использование кода вместо JSON для управления действиями агента.

Система включает веб-браузер и текстовый инспектор для работы с различными форматами файлов.

На валидационном наборе GAIA достигнут результат 54%, что на 8% выше предыдущего рекорда Magentic-One.

Теперь любой может создать своего научного ассистента. OpeanAI в панике! :)

Т.е. за $250 вы получаете недоделанный забагованный Researcher от OAI или можно взять бесплатный открытый от HF с метриками немногим ниже...
Сложный выбор.

Ну что, делаем бота рассуждатора? :)
Пишите в комментариях.
Кстати, на запчасти боту собираю тут

#HuggingFace #DeepResearch #SmolAgents
-------
@tsingular
100🤯4🆒2❤‍🔥11
Media is too big
VIEW IN TELEGRAM
HuggingFace собрали все ИИ модели и инструменты в общем пространстве и добавили ИИ поиск.

У нас было 2 миллиона моделей машинного обучения, 75 тысяч пространств развертывания, и целая гора мультимодальных датасетов всех возможных форматов.

Не то чтобы всё это действительно было нужно для одного проекта... но если уж начал собирать ИИ-стек, остановиться трудно.

Единственное, что действительно беспокоило – это поисковый движок.

На всей планете не было никого, кто бы мог искать модели умнее и быстрее, чем новый ИИ от HuggingFace.
И я знал, что рано или поздно мы перейдем на эту дрянь.

К полудню мы были где-то на краю пустыни талантов, когда API начало действовать.

Я помню, как сказал что-то вроде: "Я чувствую головокружение, может, ты поведешь..."

А потом внезапно вокруг стало очень тихо, и я увидел... боже мой, ты только посмотри на эти решения!

Разумеется, это была не вся коллекция. Я взял довольно стандартный набор: трансформеры, диффузионные модели, embeddings, языковые модели – всё, что может понадобиться для среднестатистического проекта машинного обучения.

С такими инструментами всё, что тебе нужно – это ввести запрос на английском, и искусственный интеллект мгновенно выдаст тебе готовое решение.

"Не останавливайся. Это ИИ-территория..."

#HuggingFace #каталог
———
@tsingular
8😁6🤩4👍31🔥1
🎓 Hugging Face сегодня запустил бесплатный курс по AI-агентам!

Обещанный ранее курс стартовал (на английском).

📚 Что интересного:
- Полностью бесплатный
- Ведут инженеры Hugging Face с боевым опытом в разработке агентов
- Будем работать с популярными фреймворками: smolagents, LangChain, LlamaIndex
- Все агенты будут храниться на Hugging Face Hub (можно будет подсмотреть чужие решения 😉)

🎯 Самое вкусное:
- Есть два трека: базовый (для понимания концепций) и полный с сертификатом
- В конце курса - соревнование агентов между собой (с лидербордом!)
- Дедлайн по сертификации - до 1 мая 2025

Темп занятий комфортный: примерно 3-4 часа в неделю.

🔥 А уже в эту среду (12 февраля, 19:00 МСК) будет первый live-стрим, где расскажут все детали. (на Youtube)

Кстати, для участия нужен только комп с интернетом и базовые знания Python. Ну и аккаунт на Hugging Face, конечно.

#агенты #huggingface
———
@tsingular
🔥13👍5🙏3
Интересная фундаментальная мысль из курса HF про агентов.

Использование агента с функцией написания кода позволяет снизить количество действий.

#agents #dev #huggingface
———
@tsingular
🔥42👍1
BigQuery ML теперь работает с open-source LLM!

Google Cloud порадовал крутейшим анонсом - теперь BigQuery ML может использовать любые open-source языковые модели из Vertex AI Model Garden, включая всю библиотеку Hugging Face (170K+ моделей)!

Что это значит на практике:
- Можно использовать свои fine-tuned модели
- Доступны все 170K+ моделей с Hugging Face
- Работает через привычный SQL-синтаксис
- Интеграция с Vertex AI для деплоя моделей

В посте они показали пример с Llama 3.3 70B:
Модель анализирует медицинские транскрипты и извлекает структурированные данные (возраст, пол, заболевания) прямо через SQL-запросы.

Процесс запуска:
1. Деплоим модель в Vertex AI
2. Создаем remote model в BigQuery
3. Делаем инференс через ML.GENERATE_TEXT

Теперь работа с большими объемами данных резко упростилась.
Особенно круто для компаний, у которых уже есть данные в BigQuery - можно добавить ИИ без сложной интеграции.

Кто не в курсе, BigQuery это такая безразмерная база данных, куда поместится вообще все что можно себе представить и при этом ещё место останется. Логи, сделки, CRM, что хотите.
И при этом цена не будет конской. Что редко вообще встречается :)

P.S. И да, дают $300 кредитов новым пользователям для тестирования.

#BigQuery #Google #HuggingFace
———
@tsingular
👍5🔥3
🚀 InfiniteHiP: 3 миллиона токенов на одном GPU!

Интересный подход для обработки сверхдлинных текстов, который решает классическую проблему LLM - ограничение контекстного окна.

- Систему научили обрабатывать контекст в 3 млн токенов на одном GPU (это примерно 2000 страниц текста!)
- Скорость работы в 18.95 раз выше традиционных методов
- Не требует дополнительного обучения модели!!!

🔍 Как это работает:
Система использует "модульное иерархическое сокращение" - представьте, что вы читаете книгу: сначала смотрите на заголовки глав, потом на важные абзацы, затем на ключевые предложения. Похожим образом работает и InfiniteHiP.

💡Менее важная информация хранится в обычной RAM, а не в памяти GPU. При необходимости данные подгружаются обратно. По сути RAG.

Практическое применение:
- Анализ больших документов (контракты, техническая документация)
- Обработка научных статей с сохранением полного контекста
- Работа с большими кодовыми базами

💼 Для бизнеса:
Техники эффективного управления памятью и внимания, разработанные в этом проекте, могут быть полезны для оптимизации других AI-приложений, где критична производительность.

📝 Paper: https://huggingface.co/papers/2502.08910
💻 Исходники: https://github.com/DeepAuto-AI/hip-attention/
▶️ Demo на DeepSeek 14B: https://chat.deepauto.ai/

Вот что мне это напомнило.
В детских книгах раньше как писали:
ГЛАВА ВОСЬМАЯ, в которой Кристофер Робин организует "искпедицию" к Северному Полюсу

В заголовке была краткая аннотация. Очень близко по сути.

#pruning #InfiniteHiP #huggingface
———
@tsingular
🔥531
HuggingFace обновили свой курс по ИИ, добавив раздел файтюна.

Обновление тут

Но есть нюанс. Обновлён только англоязычный раздел пока.
Так что или быстро учим английский, либо ждём пару дней, - переведут на остальные языки. Там их более 20ти в общей сложности в базовом курсе.

#huggingface #finetuning #обучение
———
@tsingular
3🔥2👍1👨‍💻1
Forwarded from Machinelearning
📌 72B слишком много для VLM? А 7B параметров недостаточно!

QWEN только что выпустили новую модель на 32B параметров, Qwen2.5-VL-32B-Instruct.

Эта модель представляет собой значительный прогресс для своего размера. И что самое лучшее, она лицензирована Apache 2.

Модель выдает более подробные и структурированный ответы.

💡 Детальное понимание: превосходные возможности анализа изображений и визуальной логической дедукции.

📊 Превосходит сопоставимые модели, такие как Mistral-Small-3.1-24B и Gemma-3-27B-IT.

🚀 В нескольких тестах даже превосходит более крупный Qwen2-VL-72B-Instruct.

Еще один крутой релиз понедельника!

🟢Блог: https://qwenlm.github.io/blog/qwen2.5-vl-32b/
🟢Попробовать: https://chat.qwen.ai
ВЧ: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct
🟢Модель: https://modelscope.cn/models/Qwen/Qwen2.5-VL-32B-Instruct

@ai_machinelearning_big_data


#AI #ML #LLM #Dataset #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥101
🚀 Трансформеры + vLLM: вместе вкуснее

vLLM выкатили обновление, которое теперь поддерживает Transformers от Hugging Face.

Суть в том, что теперь можно взять любую новую модель из Transformers и сразу запустить на ней оптимизированный инференс через vLLM не ожидая пока её кто-то сконвертирует в совместимый формат.

Достаточно просто указать:
from transformers import pipeline

pipe = pipeline("text-generation", model="meta-llama/Llama-3.2-1B")
result = pipe("The future of AI is")

print(result[0]["generated_text"])


И вуаля – получаем все плюшки vLLM с его PagedAttention и динамическим батчингом.

Бизнес-кейсы:

1. Снижение серверных затрат: vLLM эффективнее использует GPU-память.

2. OpenAI-совместимый API:

запускаем
vllm serve meta-llama/Llama-3.2-1B


вызываем по url
curl https://localhost:8000/v1/completions \
-H "Content-Type: application/json" \
-d '{"model": "meta-llama/Llama-3.2-1B", "prompt": "San Francisco is a", "max_tokens": 7, "temperature": 0}'


или в коде
from openai import OpenAI

client = OpenAI(api_key="EMPTY", base_url="https://localhost:8000/v1")
completion = client.completions.create(
model="meta-llama/Llama-3.2-1B",
prompt="San Francisco is a",
max_tokens=7,
temperature=0
)
print("Completion result:", completion.choices[0].text)


3. Быстрое внедрение новых моделей: как только модель появляется в Transformers, её можно сразу оптимизированно применять в проде.

Пример с моделью Helium от Kyutai особенно показателен: несмотря на то, что эта модель ещё не поддерживается нативно в vLLM, её уже можно запустить через трансформерный бэкенд и получить значительный прирост в скорости.

#Transformers #vLLM #инференс #HuggingFace
———
@tsingular
👍5🔥21
This media is not supported in your browser
VIEW IN TELEGRAM
Tiny Agents: Революция в разработке ИИ-агентов всего в 50 строках кода

На HuggingFace вышел прикольный материал по разработке агентов на базе MCP.

Ключевой принцип: агент представляет собой лишь цикл while поверх MCP-клиентов.

Реализация включает подключение к MCP-серверам, транзит доступного инструментария в LLM и исполнение его вызовов.

В примере используется Qwen2.5-72B-Instruct.

Теперь даже школьник сможет собрать своего агента на MCP серверах!

#MCP #TinyAgents #HuggingFace
-------
@tsingular
🔥8👍4
Тут HuggingFace прокачали ZeroGPU

Теперь за $9 в месяц вы можете использовать Nvidia H200 с 70 гигами VRAM в рамках подписки, без дополнительных расходов.

Это вообще невероятная щедрость какая-то.
(работает только с Gradio средой)

На ZeroGPU уже собраны тысячи пространств.
Вот примеры:
https://huggingface.co/spaces/black-forest-labs/FLUX.1-dev

https://huggingface.co/spaces/tencent/Hunyuan3D-2

https://huggingface.co/spaces/theseanlavery/TRELLIS-3D

https://huggingface.co/spaces/radames/Real-Time-Text-to-Image-SDXL-Lightning

#HuggingFace #ZeroGPU #Spaces
———
@tsingular
🔥9
Hugging Face запутил бесплатный курс по MCP

Структура курса:
4 основных блока
: от фундаментальных концепций до развертывания готовых приложений

Практические задания: применение SDK и фреймворков с предварительно настроенным окружением

Проектная работа: создание и развертывание полнофункциональных MCP-приложений

Бонусные модули: интеграция с партнерскими сервисами и библиотеками

Практическое применение:
Разработчикам
: создание AI-агентов с доступом к актуальным данным
Продуктовым командам: расширение возможностей существующих LLM-приложений
Исследователям: изучение архитектуры протоколов взаимодействия AI с внешними сервисами

Доступность и требования:
Необходимый уровень
: базовое понимание AI/LLM и опыт в любом языке программирования

Сертификация: два уровня - базовый (теория) и продвинутый (с созданием приложения)

Темп: 3-4 часа в неделю, полный курс рассчитан на ~4 недели

Курс ведет Бен Буртеншоу, ML-инженер из HuggingFace, специализирующийся на пост-тренинговых подходах и агентных системах.

Обязательно к прохождению!

#HuggingFace #MCP #обучение
———
@tsingular
🔥6311🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Теперь можно запускать модели Hugging Face прямо в Google Colab — бесплатно!

Больше не нужно настраивать окружение вручную. Просто заходишь на страницу модели — и нажимаешь "Open in Colab". Всё готово для запуска за секунды.

Отлично подходит для:
- Быстрого теста модели
- Прототипирования и экспериментов
- Обучения и демонстраций


💡 Бонус для разработчиков:

Добавь файл notebook.ipynb в свой репозиторий модели — и Hugging Face автоматически подхватит его.
Пользователи смогут запускать твой пример сразу, без копирования кода!

🔥 Работает с Google Colab — бесплатно, быстро, удобно.

#HuggingFace #Colab #ML #AI #OpenSource #DeepLearning

✔️ Подробнее

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8211👍1
Hugging Face запустила MCP Server для подключения ИИ к своей экосистеме

Hugging Face представила первую версию MCP сервера - теперь можно подключить языковые модели напрямую к их API через VSCode, Cursor, Claude Desktop и другие MCP-совместимые приложения.

Сервер предоставляет встроенные инструменты: поиск по статьям и Spaces, исследование моделей и датасетов. Но главная фишка - динамический список всех MCP-совместимых Gradio приложений, размещённых на Spaces.

Проект полностью open source. Это не просто сервер - это попытка стандартизировать экосистему AI-инструментов с Gradio как основным UI-слоем.

HuggingFaceMCP

#HuggingFace #MCP #OpenSource
------
@tsingular
63🔥3🤔1
Hugging Face добавила Groq для молниеносного запуска AI моделей

Hugging Face интегрировала Groq в свою платформу для сверхбыстрого inference AI моделей.

Вместо обычных GPU, Groq использует специальные чипы Language Processing Unit (LPU), созданные именно для трансформеров.
Результат - мгновенный отклик и высокая производительность.

Теперь разработчики получили доступ к популярным open-source моделям вроде Llama 4 и QwQ-32B через инфраструктуру Groq прямо в Hugging Face.

Интеграция работает с Python и JavaScript библиотеками, поддерживает личные API ключи или консолидированную оплату через Hugging Face.

Интересно что по стоимости выйдет в сравнении с арендой GPU мощностей.
Ну, т.е. LPU это х10 к скорости, но будет ли это в 10 раз дешевле на круг, - не факт.

#HuggingFace #Groq
———
@tsingular
4🔥21🤔1
Hugging Face обновили курс по LLM

Крупное обновление популярного курса от Hugging Face - теперь фокус на создании как малых, так и больших языковых моделей.

Основные улучшения:
- Новая глава по файн-тюнингу моделей с практическими примерами
- Интеграция библиотек Datasets, Tokenizers, Accelerate и Evaluate
- Обновленные best practices для PyTorch
- Интерактивные квизы для проверки знаний
- Практические задания по классификации текста с BERT

Теперь студенты смогут не только использовать готовые модели, но и адаптировать их под свои задачи с современными подходами.

#HuggingFace #LLMCourse #FineTuning
------
@tsingular
33
This media is not supported in your browser
VIEW IN TELEGRAM
Hugging Face встроил HTTP-сервер в библиотеку Transformers

Команда Hugging Face добавила встроенный HTTP-сервер с OpenAI-совместимым API прямо в библиотеку Transformers.

Теперь можно запустить локальный сервер командой transformers serve и подключать любые приложения без дополнительных настроек.

В демо показали работу с приложением Jan от Menlo Research - модели можно менять на лету, есть предварительная поддержка tool calls.

Это серьезно упростит тестирование новых моделей в агентах и фреймворках без необходимости настройки отдельной инфраструктуры.

#HuggingFace #Transformers #OpenAI
------
@tsingular
🔥6111
Hugging Face запустил курс по аудио-трансформерам

Hugging Face выпустил бесплатный курс по применению трансформеров для обработки аудио.

Курс покрывает распознавание речи, классификацию звука и генерацию речи из текста. Включает теорию, квизы и практические задания с предобученными моделями.

Предназначен для разработчиков с базовыми знаниями по ML и трансформерам. Опыт работы с аудио не требуется.

Доступна сертификация после выполнения упражнений. Материалы выходят блоками в течение нескольких недель.

#HuggingFace #курсы #audio #обучение
———
@tsingular
👍532