Технозаметки Малышева
5.53K subscribers
2.79K photos
927 videos
38 files
3.06K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
🚀 DeepSeek R2: Как китайцы задают новый темп в гонке AI-технологий

DeepSeek ускоренными темпами готовит выпуск R2, которая, судя по всему, должна появиться в ближайшие недели.

И похоже, что это будет не просто обновление, а настоящий прорыв в производительности, эффективности и доступности AI.

На той неделе компания провела "Open Source Week", выложив в открытый доступ целых 5 инструментов, которые, судя по всему, и будут лежать в основе их нового продукта.

1. FlashMLA — декодер для GPU Hopper с поддержкой BF16 и кэшем KV, разбитым на блоки по 64 элемента. Такая оптимизация значительно ускоряет работу с последовательностями переменной длины.

2. DeepEP — библиотека для коммуникации в моделях с MoE-архитектурой. Решает главную проблему MoE-моделей — узкое место при обмене данными между компонентами.

3. DeepGEMM — библиотека матричного умножения с FP8-точностью. Всего ~300 строк кода, но показывает лучшую производительность чем многие вручную оптимизированные ядра.

4. DualPipe — двунаправленный конвейерный параллелизм, устраняющий простои GPU при обучении моделей. Особенно эффективен в связке с EPLB — балансировщиком нагрузки для MoE.

5. 3FS (Fire-Flyer File System) — параллельная файловая система, показывающая скорость чтения до 6.6 ТБ/с на кластере из 180 узлов. Идеально для работы с огромными датасетами.

Если сложить всё вместе, то DeepSeek строит полноценную экосистему для эффективного обучения и инференса крупных моделей.

Интересна экономика их решения:
- Пиковая нагрузка на кластер — 278 узлов (по 8 GPU)
- Ежедневные затраты на инфраструктуру — $87 тыс (при цене $2/час за GPU H800)
- Теоретический дневной доход — $562 тыс (при текущем ценнике на DeepSeek-R1)
- Маржа прибыли — 545% 🤯

Даже с учётом скидок и бесплатных сервисов, такая экономика выглядит фантастически по сравнению с конкурентами.

Когда ждать?
По слухам, R2 появится в ближайшие недели. Будем следить!
Есть версия, что опять привяжутся к китайским праздникам и мы увидим обновление в середине апреля.

Если они еще успеют прикрутить метод от QwQ к самообучению, - будет вообще бомба, но, думаю, это уже к летнему релизу, скорее - объём данных на порядок больше, чем у QwQ все-таки.

#DeepSeek #OpenSource #R2 #Китай
———
@tsingular
🔥11👍3🤯2
🦉 OWL: Открытый AI-агент, обгоняющий Manus AI

Наконец-то! Достойная бесплатная альтернатива закрытым AI-агентам вроде Manus AI, о котором все говорят, но попасть куда можно только по инвайту.

OWL (Optimized Workforce Learning) — мультиагентный фреймворк с открытым кодом, набравший более 6000 звёзд на GitHub всего за 2 дня и занявший 1-е место среди опенсорсных систем в бенчмарке GAIA со средним баллом 58.18.

В чём фишка OWL?
Система состоит из трёх типов агентов:
- User Agents — разбивают сложные задачи на простые шаги
- Assistant Agents — создают стратегии выполнения и работают с инструментами
- Tool Agents — соединяются с API, поисковиками и другими сервисами

Это позволяет OWL делать всё — от автономных исследований и веб-серфинга до программирования. И главное — всё работает локально, ваши данные в безопасности.

Технические особенности:
1. Поддержка популярных LLM-моделей: GPT-4, Claude, Gemini, Mistral, DeepSeek, Qwen и Groq

2. Встроенные инструменты:
- Поиск через Google, DuckDuckGo, Wiki, Bocha, Baidu
- Браузерная автоматизация через Playwright
- Парсинг документов (Word, Excel, PDF, PowerPoint)
- Обработка изображений, видео и аудио
- Выполнение Python-кода
- Работа с GitHub, Reddit, арXiv и даже Notion!

3. Простое развёртывание через conda, uv или Docker

Интересно, что последние коммиты от 19-20 марта связаны с обновлением max_token в примерах и добавлением поддержки Azure и Groq в веб-приложение. Команда явно работает над совместимостью с разными провайдерами.

Для бизнеса:
В отличие от закрытых систем за $20-200/месяц, OWL абсолютно бесплатен. Если у вас уже есть ключи API к моделям вроде GPT-4, вы можете автоматизировать исследования, анализ данных и веб-взаимодействия без дополнительных затрат.

Плюс открытая архитектура позволяет настроить OWL под конкретные бизнес-задачи — например, интегрировать с внутренними базами данных или API.

Команда сейчас собирает примеры использования (дедлайн 31 марта), так что можно не только попробовать, но и получить признание сообщества за интересный кейс.

#OpenSource #Agents #Automation
———
@tsingular
🔥9👍5
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🤖 Fourier Intelligence выпустила Fourier N1 — первого полностью open-source гуманоидного робота!

Fourier N1 — это компактный робот ростом 1.3 м и весом 38 кг, способный развивать скорость до 3.5 м/с.

За плечами более 1000 часов полевых испытаний.

🌟 Всё открыто: → список комплектующих (BOM)
→ CAD-чертежи и 3D-модели
→ спецификации приводов
→ управляющий код — на GitHub

⚙️ В основе робота — фирменные приводы FSA 2.0, обеспечивающие высокую устойчивость и манёвренность даже на пересечённой местности.

🔜 Github
🔜Документация (включайте автоперевод)

#ai #robots #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
9❤‍🔥4👍2👀2👾2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Наткнулся на полезный фрейм - Transformer Lab — многофункциональную "песочницу" для экспериментов с LLM!

Главное о проекте:
• 100% Open Source с GUI для работы с LLM
• Все этапы ML-жизненного цикла под одной крышей: скачивание, обучение, файнтюнинг, общение
• Работает на вашем железе — никаких облачных зависимостей

Чем круто:
Один клик для загрузки топовых моделей: DeepSeek, Llama3, Qwen, Phi4, Gemma, Mistral
Кроссплатформенность: Windows/Mac/Linux
Гибкий инференс: MLX для Apple Silicon, HuggingFace, vLLM, Llama CPP
RLHF и preference optimization: DPO, ORPO, SIMPO, Reward Modeling (для тех, кто любит потюнить модель под себя)
Полноценный REST API для автоматизации

👨‍💻 Встроенный Monaco Code Editor позволяет писать свои плагины и видеть, что происходит под капотом.

Практика:
• Стартапы могут файнтюнить модели под свою специфику без ML-команды
• Исследователи получают полигон для экспериментов с различными подходами к обучению
• RAG-энтузиасты найдут здесь drag-and-drop интерфейс для работы с документами
• DevOps'ы оценят возможность раздельного деплоя UI и inference engine

Поддержка от Mozilla через Mozilla Builders Program.

Интересная альтернатива LMStudio, при этом с бОльшим набором полезностей для разработчиков.

#TransformerLab #OpenSource #frameworks
———
@tsingular
👍12421🔥1😐1
🚀 LTX-Video 13B — один из самых мощных open-source видеогенераторов.

Разработчики внедрили в модель мультимасштабный рендеринг.

Обычные генеративные модели видео рендерят всё изображение целиком, одним разрешением.
Когда в сцене много движущихся объектов или деталей, модель может "размазать" их, потерять чёткость или неправильно совместить фон и передний план.

📝 А мультимасштабный рендеринг — это параллельная отрисовка картинки на разных уровнях детализации:

один поток отвечает за фон (низкая детализация, большой масштаб),

другой — за объекты в центре, движущиеся элементы (высокая детализация, малый масштаб).

Потом всё объединяется в один кадр, как слои в Photoshop.

🎯 Зачем это нужно?

Фон остаётся стабильным, не "дергается"

Движущиеся объекты остаются чёткими и отдельными от фона

Картинка в целом не разваливается (нет смешивания движений, артефактов)

Такой подход помогает удерживать высокое качество картинки даже при сложном движении — например, если в кадре бежит персонаж на фоне движущегося города.

👉 По сути, это умное раздельное внимание к разным частям кадра, чтобы не терять детали ни в статике, ни в движении.

Что нового?

Модель 13 миллиардов параметров
Multiscale rendering → больше деталей, чётче текстуры
Лучше понимает движение и сцену
– Запускается локально на GPU
– Поддержка keyframes, движения камеры/персонажей, мультисценных секвенций

Запускается даже на RTX 4090.

#AI #videoAI #ltxvideo #deeplearning #generativeAI #opensource #videogeneration

Попробовать можно тутhttps://app.ltx.studio/ltx-video
Codehttps://github.com/Lightricks/LTX-Video
Weightshttps://huggingface.co/Lightricks/LTX-Video
👍94🔥1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ RealtimeVoiceChat — живой голосовой чат с ИИ.

RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.

➡️ Как работает:

1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через RealtimeSTT (на базе Whisper)
4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через RealtimeTTS (Coqui XTTSv2, Kokoro и др.)
6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через turndetect.py

Особенности:


- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API

✔️ Стек:

- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker

✔️ Требуется CUDA-совместимая видеокарта (для Whisper/TTS) и Docker.

🔥 Отличный проект для тех, кто хочет интегрировать голосовой интерфейс с LLM — например, для ассистентов, чат-ботов, презентаций или UX-экспериментов.

🔜 Репозиторий: https://github.com/KoljaB/RealtimeVoiceChat
🔜 Демо: https://www.youtube.com/watch?v=-1AD4gakCKw

@ai_machinelearning_big_data

#tts #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍321
VS Code превращается в открытую среду для ИИ разработки

Команда VS Code объявила о планах открыть исходный код расширения GitHub Copilot Chat под MIT-лицензией.

Это важный шаг в превращении редактора в полноценный open source AI-инструмент.
Ключевые компоненты расширения будут перенесены в ядро VS Code.

Разработчики также обещают выпустить инфраструктуру для тестирования промптов, чтобы сделать вклад сообщества в AI-функциональность максимально простым.

Сначала Курсор вырос из VSCode, а теперь Майкрософт такие - ящик шампанского и всех разработчиков обратно :)

#VSCode #OpenSource #кратко
———
@tsingular
5🔥4👍11
Forwarded from Machinelearning
✔️ Релиз DeepSeek R1-0528

Главное:
• Глубокое рассуждение — на уровне моделей Google
• Улучшена генерация текста — более естественно, структурировано и аккуратно
• Уникальный стиль reasoning — не просто быстро, а вдумчиво и последовательно
• Может работать над одной задачей 30–60 минут, удерживая контекст

Новая модель показывает результат почти на уровне o3 (High) на бенчмарк LiveCodeBench.

https://huggingface.co/deepseek-ai/DeepSeek-R1-0528

@ai_machinelearning_big_data

#DeepSeek #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Теперь можно запускать модели Hugging Face прямо в Google Colab — бесплатно!

Больше не нужно настраивать окружение вручную. Просто заходишь на страницу модели — и нажимаешь "Open in Colab". Всё готово для запуска за секунды.

Отлично подходит для:
- Быстрого теста модели
- Прототипирования и экспериментов
- Обучения и демонстраций


💡 Бонус для разработчиков:

Добавь файл notebook.ipynb в свой репозиторий модели — и Hugging Face автоматически подхватит его.
Пользователи смогут запускать твой пример сразу, без копирования кода!

🔥 Работает с Google Colab — бесплатно, быстро, удобно.

#HuggingFace #Colab #ML #AI #OpenSource #DeepLearning

✔️ Подробнее

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8211👍1
Hugging Face запустила MCP Server для подключения ИИ к своей экосистеме

Hugging Face представила первую версию MCP сервера - теперь можно подключить языковые модели напрямую к их API через VSCode, Cursor, Claude Desktop и другие MCP-совместимые приложения.

Сервер предоставляет встроенные инструменты: поиск по статьям и Spaces, исследование моделей и датасетов. Но главная фишка - динамический список всех MCP-совместимых Gradio приложений, размещённых на Spaces.

Проект полностью open source. Это не просто сервер - это попытка стандартизировать экосистему AI-инструментов с Gradio как основным UI-слоем.

HuggingFaceMCP

#HuggingFace #MCP #OpenSource
------
@tsingular
63🔥3🤔1
LightAutoML - быстрый AutoML фреймворк от Сбера

LightAutoML (LAMA)opensource фреймворк для создания ML моделей за несколько строк кода от команды Sber AI Lab.

Поддерживает табличные данные, временные ряды, изображения и тексты. Можно использовать готовые пресеты или собирать кастомные пайплайны из блоков.

Особенности:
- Быстрое прототипирование моделей
- Готовые решения для разных типов задач
- Гибкая настройка под конкретные нужды
- GPU и Spark поддержка в разработке

#AutoML #Сбер #OpenSource
------
@tsingular
6
Forwarded from Machinelearning
✔️ Релиз Hunyuan 3D 2.1!

Первая полностью open-source, готовая к продакшену PBR 3D генеративная модель!

PBR (Physically Based Rendering) - это технология, при которой внешний вид 3D-объектов рассчитывается с учётом реальных физических законов взаимодействия света и поверхности.

Модель выдает кинематографичное качество: синтез PBR-материалов — кожа, бронза и другие поверхности выглядят фотореалистично с красивыми эффектами освещения.

Open source: доступны веса модели, код для обучения и инференса, пайплайны — всё можно доработать под себя.

Запускается даже на потребительских GPU (Модель тестировалась на GPU A100 с Python 3.10 и PyTorch 2.5.1+cu124.) — с моделью создавать 3D-контент могут не только студии, но и любые разработчики и малые команды.

Модель: https://huggingface.co/tencent/Hunyuan3D-2.1
Github: https://github.com/Tencent-Hunyuan/Hunyuan3D-2.1
Hunyuan 3D Creation Engine: https://3d.hunyuan.tencent.com

@ai_machinelearning_big_data


#Hunyuan3D #OpenSource #3DCreation #tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍321
Коллекция руководств по созданию production-ready AI агентов

Охватывает достаточно большое количество аспектов: орекстраторы, инструменты, инструкции по установке и настройке, память, интерфейсы, фреймворки, мультиагентные сценарии, безопасность и тестирование.

Каждый урок содержит готовый к запуску код с документацией.

Включает паттерны для масштабирования от прототипа до продакшена, готовые блюпринты архитектуры и интеграционные решения.

#Agents #Production #OpenSource #каталоги
———
@tsingular
93👍3
Google выпустил Gemini CLI — открытый AI-агент для терминала

Google запустил бесплатный open-source инструмент, который приносит возможности Gemini прямо в командную строку разработчиков.

Gemini CLI может писать код, дебажить, генерировать контент и проводить исследования через естественный язык. Доступ к Gemini 2.5 Pro с окном контекста в 1 млн токенов.

Лимиты: 60 запросов в минуту и 1000 в день бесплатно — самый щедрый в индустрии. Интегрирован с Gemini Code Assist и поддерживает создание видео через Veo.

Теперь терминал станет еще мощнее для разработчиков.

#Gemini #CLI #OpenSource #Google
------
@tsingular
621👍1
Forwarded from Machinelearning
🚀 Baidu открыла исходный код серии моделей ERNIE 4.5 !

🧠 Эти модели достигли SOTA-результатов на текстовых и мультимодальных бенчмарках:
— следование инструкциям,
— запоминание фактов,
— визуальное понимание,
— мультимодальные рассуждения.

🔧 Обучены на PaddlePaddle с эффективностью до 47% MFU при претрейне крупнейшей модели.

📦 В составе релиза:
- 10 моделей ERNIE 4.5,
- MoE‑архитектуры с 3B и 47B активных параметров,
- самая крупная модель содержит 424B параметров (MoE),
- также доступна компактная dense‑версия на 0.3B.

Всего Baidu выложила сразу 23 модели на Hugging Face размерами — от 0.3B до 424B параметров! 💥

🟢Попробовать: https://ernie.baidu.com
🟢Hugging Face: https://huggingface.co/baidu
🟢GitHub: https://github.com/PaddlePaddle/ERNIE
🟢AI Studio: https://aistudio.baidu.com/overview

@ai_machinelearning_big_data

#ERNIE #opensource #Baidu
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
NotebookLLaMA: открытая альтернатива NotebookLM

Команда LlamaIndex выпустила полностью открытый аналог Google NotebookLM. Проект работает на базе LlamaCloud и позволяет создавать подкасты из документов.

Основные возможности:
- Генерация разговорных аудиосводок из загруженных файлов
- Использование нескольких моделей Llama для разных этапов обработки
- Преобразование текста в речь через Elevenlabs

Установка требует настройки PostgreSQL, Jaeger и MCP сервера. Готовое решение запускается через Streamlit на порту 8751.

Интересная альтернатива для работы с документами и создания AI-подкастов, если кто-то не хочет делать это с Гуглом.

#NotebookLM #LlamaCloud #OpenSource
------
@tsingular
751
Швейцария выпустит полностью открытую языковую модель

Исследователи из EPFL и ETH Zurich создали языковую модель, которая будет доступна под лицензией Apache 2.0 уже этим летом.

Особенность проекта — модель обучена на углеродно-нейтральном суперкомпьютере Alps.

Модель говорит на 1000+ языках и будет выпущена в двух размерах: 8 и 70 миллиардов параметров. Обучение велось на 15 триллионах токенов из более чем 1500 языков (английский, правда занял 60% всего датасета).

"Полностью открытые модели позволяют создавать высокодоверенные приложения и необходимы для исследований рисков и возможностей ИИ", — объясняет руководитель проекта Имануэль Шлаг.

Интересно будет посмотреть.

#OpenSource #Switzerland
———
@tsingular
6
This media is not supported in your browser
VIEW IN TELEGRAM
Machine Learning Visualized — интерактивные уроки по машинному обучению

Некий студент из University of Maryland создал открытый ресурс для изучения ML-алгоритмов через интерактивную визуализацию.

Проект состоит из Jupyter Notebooks с математическими выводами и наглядными примерами обучения моделей.

На данный момент включает 4 главы: оптимизация, кластеризация, линейные модели и нейросети.

Каждый алгоритм показан от теории до практики с визуализацией процесса обучения и поиска оптимальных весов.

Есть проект в GitHub.
Все блокноты можно скачать и запустить локально или в Google Colab.

#MachineLearning #обучение #OpenSource
———
@tsingular
9🍾4👍2
NuExtract 2.0 превзошёл GPT-4 в извлечении данных

Команда NuMind выпустила NuExtract 2.0 — мультимодальную модель для извлечения структурированной информации из текстов, PDF и изображений. Модель показала результат на +9 F-Score выше GPT-4.

Основные возможности: работа с несколькими языками, обучение в контексте и вывод в формате JSON. Доступны open-source версии от 2B до 8B параметров на базе Qwen 2.5 VL.

Платформа nuextract.ai позволяет настраивать задачи извлечения через веб-интерфейс и масштабировать через API. Цена: $5 за миллион токенов, но пока бесплатно на время бета-тестирования.

Модель использует синтетические данные для обучения — аннотировано 300,000 текстов для повышения точности извлечения.

#NuExtract #DataExtraction #OpenSource
------
@tsingular
🔥4322
NVIDIA выпустила семейство OpenReasoning-Nemotron для решения сложных задач

Четыре модели размером от 1.5B до 32B параметров специально обучены для математики, программирования и естественных наук. Основаны на Qwen2.5 и дообучены на 5 миллионах ответов от DeepSeek R1.

Главная особенность — режим GenSelect, который запускает несколько параллельных генераций и выбирает лучшее решение. В этом режиме 32B модель превосходит O3 (High) на математических и кодовых бенчмарках.

Интересно, что модели обучались только на математических задачах, но способности автоматически перенеслись на код и науку. Все модели доступны под лицензией CC-BY-4.0 для коммерческого и исследовательского использования.

#NVIDIA #reasoning #opensource
------
@tsingular
👍42🔥1