Forwarded from Анализ данных (Data analysis)
Media is too big
VIEW IN TELEGRAM
🧩 Rivet — визуальная среда для создания сложных AI-агентов. Этот проект предлагает необычный подход к работе с LLM: вместо написания цепочек промптов в коде, вы собираете их как ноды в визуальном редакторе.
Особенность инструмента возможность встраивать созданные графы прямо в ваше приложение через TypeScript-библиотеку. Это превращает его из просто IDE в инструмент для production-разработки.
🤖 GitHub
@data_analysis_ml
Особенность инструмента возможность встраивать созданные графы прямо в ваше приложение через TypeScript-библиотеку. Это превращает его из просто IDE в инструмент для production-разработки.
🤖 GitHub
@data_analysis_ml
✍11👍4🔥3
📚 AI в образовании: новая стратегия Трампа для подготовки цифрового поколения
Трамп подписал исполнительный указ по развитию AI-образования в США. Это масштабная инициатива, которая затрагивает всю образовательную систему — от начальной школы до профессиональной переподготовки.
Ключевые моменты программы
• Специальная рабочая группа — создается White House Task Force on AI Education под руководством директора Управления по науке и технологиям
• Президентский AI-челлендж — общенациональное соревнование для школьников и педагогов с различными возрастными категориями и региональными этапами
• Государственно-частное партнерство для разработки образовательных AI-ресурсов для K-12 школ
• Приоритетное финансирование для подготовки учителей в области AI через гранты
• Расширение программ ученичества в AI-сфере с привлечением работодателей
Техническая сторона вопроса
Программа охватывает несколько ключевых направлений:
1. Интеграция AI в учебный процесс — использование искусственного интеллекта для:
• Снижения административной нагрузки на учителей
• Создания высококачественных учебных материалов
• Персонализированного репетиторства
• Профориентации и планирования карьеры
2. Подготовка специалистов через систему регистрируемого ученичества (Registered Apprenticeships) с акцентом на AI-профессии — это позволит молодежи получать практические навыки прямо у работодателей
3. Ранняя профориентация — старшеклассники смогут проходить сертификационные программы по AI с возможностью двойного зачисления кредитов (в школе и колледже одновременно)
Практическое значение
• Школьники получат раннее знакомство с AI-технологиями, что снизит технологический барьер
• Учителя освоят новые методики и смогут интегрировать AI в предметное обучение
• Работодатели получат кадровый ресурс, подготовленный к работе с AI с самых ранних этапов
• Страна в целом укрепит технологическое лидерство через массовую подготовку AI-грамотного населения
Быстрый старт: первые публично-частные партнерства должны быть объявлены в ближайшее время, а образовательные ресурсы появятся в течение 180 дней после этого.
Это, пожалуй, первая такая комплексная программа, охватывающая все уровни образования и нацеленная на массовую AI-грамотность населения.
Действительно отличная инициатива, которая могла бы пригодиться многим странам!
#education #WhiteHouse #Gov #Trump
———
@tsingular
Трамп подписал исполнительный указ по развитию AI-образования в США. Это масштабная инициатива, которая затрагивает всю образовательную систему — от начальной школы до профессиональной переподготовки.
Ключевые моменты программы
• Специальная рабочая группа — создается White House Task Force on AI Education под руководством директора Управления по науке и технологиям
• Президентский AI-челлендж — общенациональное соревнование для школьников и педагогов с различными возрастными категориями и региональными этапами
• Государственно-частное партнерство для разработки образовательных AI-ресурсов для K-12 школ
• Приоритетное финансирование для подготовки учителей в области AI через гранты
• Расширение программ ученичества в AI-сфере с привлечением работодателей
Техническая сторона вопроса
Программа охватывает несколько ключевых направлений:
1. Интеграция AI в учебный процесс — использование искусственного интеллекта для:
• Снижения административной нагрузки на учителей
• Создания высококачественных учебных материалов
• Персонализированного репетиторства
• Профориентации и планирования карьеры
2. Подготовка специалистов через систему регистрируемого ученичества (Registered Apprenticeships) с акцентом на AI-профессии — это позволит молодежи получать практические навыки прямо у работодателей
3. Ранняя профориентация — старшеклассники смогут проходить сертификационные программы по AI с возможностью двойного зачисления кредитов (в школе и колледже одновременно)
Практическое значение
• Школьники получат раннее знакомство с AI-технологиями, что снизит технологический барьер
• Учителя освоят новые методики и смогут интегрировать AI в предметное обучение
• Работодатели получат кадровый ресурс, подготовленный к работе с AI с самых ранних этапов
• Страна в целом укрепит технологическое лидерство через массовую подготовку AI-грамотного населения
Быстрый старт: первые публично-частные партнерства должны быть объявлены в ближайшее время, а образовательные ресурсы появятся в течение 180 дней после этого.
Это, пожалуй, первая такая комплексная программа, охватывающая все уровни образования и нацеленная на массовую AI-грамотность населения.
Действительно отличная инициатива, которая могла бы пригодиться многим странам!
#education #WhiteHouse #Gov #Trump
———
@tsingular
👍7✍2🔥2
Forwarded from GigaDev — разработка GigaChat
Всё благодаря GigaChain (GitVerse, GitHub) — набору решений для быстрой и удобной разработки LLM-приложений и агентов. Что в арсенале:
• langchain-gigachat — партнерский пакет для подключения Гиги к LangChain
• gigachat — клиентская библиотека для GigaChat API
• gpt2giga — прокси OpenAI → GigaChat ⚡️ n8n, Aider, RooCode, LangFlow и другие заработают с гигой из коробки
Полная совместимость с LangChain и LangGraph
👉 ReAct, function calling, RAG, memory — работает всё
👉 Python и JavaScript, Java — скоро
Быстрый старт:
# pip install langchain-gigachat
from langchain_gigachat import GigaChat
llm = GigaChat(credentials="GIGA_KEY", model="GigaChat-2-Max")
llm.invoke("Переведи: Hello, world!")
Пример 🤖ReAct-агента с поиском:
# pip install langgraph duckduckgo-search
from langgraph.prebuilt import create_react_agent
from langchain_community.tools import DuckDuckGoSearchRun
agent = create_react_agent(llm, tools=[DuckDuckGoSearchRun()])
agent.invoke(
{"messages": [("user", "Какой курс биткоина в рублях?")]}
)
К такому агенту можно подключить готовые 🔗MCP-сервера. Например, подключим сервер, позволяющий агенту работать с диском:
# pip install langchain_mcp_adapters
from langchain_mcp_adapters.client import MultiServerMCPClient
async with MultiServerMCPClient(
{
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "."],
}
}
) as client:
agent = create_react_agent(llm, tools=[DuckDuckGoSearchRun()] + client.get_tools())
await agent.ainvoke({"messages": [("user", "Сохрани курс биткоина в рублях в файл btc.txt")]})
Посмотрим, что получилось:
> cat btc.txt
> 7 083 821.138 RUB
Агент справился, скомбинировав вызовы тулов из разных источников - сначала нашел информацию о курсе, а затем создал файл на диске с найденными данными.
⭐ Репозитарий (GitVerse, GitHub) и десятки других примеров: агенты, чат-боты, RAG, MCP-агент и другие
Попробуй запустить готовые примеры, чтобы начать погружаться в разработку LLM-приложений с Гигой. А ещё, каждому разработчику – миллион токенов в Freemium-тарифе при авторизации через Сбер ID для теста всех моделей GigaChat.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10✍4❤2👍1
Forwarded from Анализ данных (Data analysis)
🦉Модели Qwen 3 были опубликованы на ModelScope и затем были быстро удалены.
Теперь мы знаем параметры (0.6B / 1.7B / 4B / 8B / 30B-A3B / 238B ) и архитектуру.
> Tripled language coverage, новые архитектурные фишки и контекст до 32k — всё в одной серии моделей.
- 🔧 Новые техники: global-batch load balancing (MoE), qk layernorm, тонкая настройка гиперпараметров через scaling laws
- 🚀 Dens + Mixture-of-Experts линейка: разные размеры и режимы для любых задач
- 📈 Улучшена стабильность и качество выводов по сравнению с Qwen 2.5
🤖 Модель Qwen3-8B в цифрах
- Тип: causal language model
- Параметры всего: 8,2 B (6,95 B без эмбеддингов)
- Слои: 36
- Attention heads (GQA): 32 для Q и 8 для KV
- Контекстное окно: 32 768 токенов
- разработчикам — компактная, но мощная 8B-модель с длинным контекстом
- продвинутая MoE-архитектура
- это мультиязычная plug-and-play LLM и
https://modelscope.cn/collections/Qwen3-9743180bdc6b48
@data_analysis_ml
Теперь мы знаем параметры (0.6B / 1.7B / 4B / 8B / 30B-A3B / 238B ) и архитектуру.
> Tripled language coverage, новые архитектурные фишки и контекст до 32k — всё в одной серии моделей.
- 🔧 Новые техники: global-batch load balancing (MoE), qk layernorm, тонкая настройка гиперпараметров через scaling laws
- 🚀 Dens + Mixture-of-Experts линейка: разные размеры и режимы для любых задач
- 📈 Улучшена стабильность и качество выводов по сравнению с Qwen 2.5
🤖 Модель Qwen3-8B в цифрах
- Тип: causal language model
- Параметры всего: 8,2 B (6,95 B без эмбеддингов)
- Слои: 36
- Attention heads (GQA): 32 для Q и 8 для KV
- Контекстное окно: 32 768 токенов
- разработчикам — компактная, но мощная 8B-модель с длинным контекстом
- продвинутая MoE-архитектура
- это мультиязычная plug-and-play LLM и
https://modelscope.cn/collections/Qwen3-9743180bdc6b48
@data_analysis_ml
👨💻1
Кстати, кто не в курсе, - Modelscope, это такой китайский аналог HuggingFace, который за последние пол-года изрядно так подрос.
59 тыс моделей
https://modelscope.cn/models
7.6 тыс датасетов
https://modelscope.cn/datasets
Есть свои пространства для запуска моделей в облаке
https://modelscope.cn/studios
Куча полезной документации
https://modelscope.cn/docs/home
и, конечно, MCP (2436 сервера уже) с playground, уроками и студией:
https://modelscope.cn/mcp
#ModelScope #Китай
———
@tsingular
59 тыс моделей
https://modelscope.cn/models
7.6 тыс датасетов
https://modelscope.cn/datasets
Есть свои пространства для запуска моделей в облаке
https://modelscope.cn/studios
Куча полезной документации
https://modelscope.cn/docs/home
и, конечно, MCP (2436 сервера уже) с playground, уроками и студией:
https://modelscope.cn/mcp
#ModelScope #Китай
———
@tsingular
✍8🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Tiny Agents: Революция в разработке ИИ-агентов всего в 50 строках кода
На HuggingFace вышел прикольный материал по разработке агентов на базе MCP.
Ключевой принцип: агент представляет собой лишь цикл while поверх MCP-клиентов.
Реализация включает подключение к MCP-серверам, транзит доступного инструментария в LLM и исполнение его вызовов.
В примере используется Qwen2.5-72B-Instruct.
Теперь даже школьник сможет собрать своего агента на MCP серверах!
#MCP #TinyAgents #HuggingFace
-------
@tsingular
На HuggingFace вышел прикольный материал по разработке агентов на базе MCP.
Ключевой принцип: агент представляет собой лишь цикл while поверх MCP-клиентов.
Реализация включает подключение к MCP-серверам, транзит доступного инструментария в LLM и исполнение его вызовов.
В примере используется Qwen2.5-72B-Instruct.
Теперь даже школьник сможет собрать своего агента на MCP серверах!
#MCP #TinyAgents #HuggingFace
-------
@tsingular
🔥8👍4
Media is too big
VIEW IN TELEGRAM
🚀 Qwen3: Новое поколение гибридных AI-моделей с рассуждениями и MCP поддержкой
Alibaba выпустила Qwen3 — семейство моделей, которое выводит возможности ИИ на новый уровень, особенно в области агентных систем и рассуждений.
📊 Ключевые технические характеристики
Qwen3 доступна сразу в 8 вариантах:
128K контекст:
• Флагман: Qwen3-235B-A22B (235 млрд параметров, активируется только 22 млрд)
• Средняя модель: Qwen3-30B-A3B (30 млрд параметров, активируется 3 млрд)
• Малые модели: от 0.6B до 32B
Qwen3-32B, Qwen3-14B, Qwen3-8B,
32K контекст: Qwen3-4B, Qwen3-1.7B, Qwen3-0.6B
Все модели поддерживают контекстное окно 32K-128K токенов и могут работать с примерно 119 языками и диалектами, включая русский.
🧠 Гибридные режимы мышления
Инновационная особенность Qwen3 — возможность переключения между двумя режимами:
• Режим мышления (Thinking Mode): пошаговое рассуждение для сложных математических, логических задач и написания кода
• Быстрый режим (Non-Thinking Mode): мгновенные ответы на простые вопросы
Переключение выполняется через API-параметр enable_thinking=True/False или инструкциями /think и /no_think в запросах.
🛠 Агентные возможности и поддержка MCP
Интересна фокусная оптимизация под:
• MCP
• Интеграции с внешними API инструментами в режиме с размышлением и без
• Возможности работы с кодом, API и структурированными данными
📈 Производительность
Qwen3-235B-A22B превосходит ведущие модели, включая DeepSeek-R1, o1, o3-mini, Grok-3 и Gemini-2.5-Pro в бенчмарках по:
• Программированию (LiveCodeBench, HumanEval)
• Математике (MATH, AIME, BFCL)
• Общим возможностям
При этом даже небольшая модель Qwen3-4B по эффективности сравнима с Qwen2.5-72B-Instruct!
Странно, конечно, что у флагмана контекст 128К всего. Пора поднимать.
Попробовать Qwen3 можно в Qwen Chat или в демо на Hugging Face.
GitHub
HF
ModelScope
Уже доступна в Ollama
ollama run qwen3
#Qwen3 #агенты #MCP #Alibaba #Китай
———
@tsingular
Alibaba выпустила Qwen3 — семейство моделей, которое выводит возможности ИИ на новый уровень, особенно в области агентных систем и рассуждений.
📊 Ключевые технические характеристики
Qwen3 доступна сразу в 8 вариантах:
128K контекст:
• Флагман: Qwen3-235B-A22B (235 млрд параметров, активируется только 22 млрд)
• Средняя модель: Qwen3-30B-A3B (30 млрд параметров, активируется 3 млрд)
• Малые модели: от 0.6B до 32B
Qwen3-32B, Qwen3-14B, Qwen3-8B,
32K контекст: Qwen3-4B, Qwen3-1.7B, Qwen3-0.6B
Все модели поддерживают контекстное окно 32K-128K токенов и могут работать с примерно 119 языками и диалектами, включая русский.
🧠 Гибридные режимы мышления
Инновационная особенность Qwen3 — возможность переключения между двумя режимами:
• Режим мышления (Thinking Mode): пошаговое рассуждение для сложных математических, логических задач и написания кода
• Быстрый режим (Non-Thinking Mode): мгновенные ответы на простые вопросы
Переключение выполняется через API-параметр enable_thinking=True/False или инструкциями /think и /no_think в запросах.
🛠 Агентные возможности и поддержка MCP
Интересна фокусная оптимизация под:
• MCP
• Интеграции с внешними API инструментами в режиме с размышлением и без
• Возможности работы с кодом, API и структурированными данными
📈 Производительность
Qwen3-235B-A22B превосходит ведущие модели, включая DeepSeek-R1, o1, o3-mini, Grok-3 и Gemini-2.5-Pro в бенчмарках по:
• Программированию (LiveCodeBench, HumanEval)
• Математике (MATH, AIME, BFCL)
• Общим возможностям
При этом даже небольшая модель Qwen3-4B по эффективности сравнима с Qwen2.5-72B-Instruct!
Странно, конечно, что у флагмана контекст 128К всего. Пора поднимать.
Попробовать Qwen3 можно в Qwen Chat или в демо на Hugging Face.
GitHub
HF
ModelScope
Уже доступна в Ollama
ollama run qwen3
#Qwen3 #агенты #MCP #Alibaba #Китай
———
@tsingular
👍6🔥3
NVIDIA – серьёзный игрок рынка ИБ в области ИИ
NVIDIA собрала уже значительный стэк инструментов, которые позволяют обеспечить комплексный подход к безопасности агентных AI-систем, которые в отличие от стандартных моделей не просто анализируют данные, но принимают автономные решения и действуют в реальном времени.
Основные вызовы безопасности агентных AI
Агентные AI-системы могут:
• Самостоятельно взаимодействовать с инструментами и средами
• Генерировать выходные данные, запускающие цепочки процессов
• Обрабатывать конфиденциальные данные в реальном времени
Инструменты защиты от NVIDIA:
1. Red Teaming и предварительное тестирование
Для теста до запуска системы в продакшн:
• Garak — сканер уязвимостей LLM, который симулирует атаки на агентов путем проверки на устойчивость к:
• Инъекциям в промпты
• Неправильному использованию инструментов
• Ошибкам в логике рассуждений
Например: тестирование на способность агентов восстанавливаться после сбоев и противостоять манипулятивным атакам.
2. Защита во время исполнения (Runtime Guardrails)
Обеспечение контроля границ поведения во время работы агента:
• NVIDIA NeMo Guardrails — ПО для определения, развертывания и быстрого обновления правил поведения AI-агентов.
Например: Компании Amdocs, Cerence AI и Palo Alto Networks уже используют NeMo Guardrails для обеспечения безопасного взаимодействия с агентами.
3. Конфиденциальные вычисления (Confidential Computing)
Защищают данные во время их обработки:
• NVIDIA Confidential Computing — защита данных "во время использования" (data in use). Доступно у провайдеров Google Cloud и Microsoft Azure
Например: EQTYLab разработала на этой базе криптографическую систему сертификатов, обеспечивающую соответствие AI-агентов нормативным требованиям во время работы.
4. DOCA Argus — фреймворк для мониторинга угроз в реальном времени
Ускоряет обнаружение угроз:
• Работает на платформе NVIDIA BlueField
• Обеспечивает обнаружение угроз в 1000 раз быстрее традиционных решений
• Не требует установки агентов на хост
Техническое преимущество: Использует форензику памяти для мониторинга угроз в реальном времени, оставаясь невидимым для атакующих.
5. Защита инфраструктуры агентных систем
• NVIDIA BlueField DPU с DOCA Argus — изолирует угрозы на уровне инфраструктуры
• Protected PCIe — защищает до восьми GPU, позволяя масштабировать рабочие нагрузки
Реальный кейс: Cisco и NVIDIA создали архитектуру Secure AI Factory, встраивающую безопасность на каждом уровне AI-фабрики.
Контейнерная безопасность:
NVIDIA так же разработала Blueprint для анализа CVE (Common Vulnerabilities and Exposures) с использованием генеративного AI:
• Сокращает время анализа уязвимостей с дней до секунд
• Использует NVIDIA NIM microservices и Morpheus
• LLM делает разбор и автоматический анализа рисков CVE
Процесс анализа:
1. Входные данные — результаты сканирования безопасности контейнера
2. Система собирает информацию из репозиториев кода, документации и публичных баз данных
3. LLM-агент анализирует каждый пункт из сгенерированного чеклиста
4. По итогам формируется отчет с аргументированным статусом VEX (Vulnerability Exploitability eXchange)
По итогу ИБ стэк Nvidia уже может перекрыть значительное количество задач ИБ подразделения или из коробки или через интеграцию с ведущими ИБ вендорами.
#NVIDIA #AgenticAI #Cybersecurity #AI #безопасность
------
@tsingular
NVIDIA собрала уже значительный стэк инструментов, которые позволяют обеспечить комплексный подход к безопасности агентных AI-систем, которые в отличие от стандартных моделей не просто анализируют данные, но принимают автономные решения и действуют в реальном времени.
Основные вызовы безопасности агентных AI
Агентные AI-системы могут:
• Самостоятельно взаимодействовать с инструментами и средами
• Генерировать выходные данные, запускающие цепочки процессов
• Обрабатывать конфиденциальные данные в реальном времени
Инструменты защиты от NVIDIA:
1. Red Teaming и предварительное тестирование
Для теста до запуска системы в продакшн:
• Garak — сканер уязвимостей LLM, который симулирует атаки на агентов путем проверки на устойчивость к:
• Инъекциям в промпты
• Неправильному использованию инструментов
• Ошибкам в логике рассуждений
Например: тестирование на способность агентов восстанавливаться после сбоев и противостоять манипулятивным атакам.
2. Защита во время исполнения (Runtime Guardrails)
Обеспечение контроля границ поведения во время работы агента:
• NVIDIA NeMo Guardrails — ПО для определения, развертывания и быстрого обновления правил поведения AI-агентов.
Например: Компании Amdocs, Cerence AI и Palo Alto Networks уже используют NeMo Guardrails для обеспечения безопасного взаимодействия с агентами.
3. Конфиденциальные вычисления (Confidential Computing)
Защищают данные во время их обработки:
• NVIDIA Confidential Computing — защита данных "во время использования" (data in use). Доступно у провайдеров Google Cloud и Microsoft Azure
Например: EQTYLab разработала на этой базе криптографическую систему сертификатов, обеспечивающую соответствие AI-агентов нормативным требованиям во время работы.
4. DOCA Argus — фреймворк для мониторинга угроз в реальном времени
Ускоряет обнаружение угроз:
• Работает на платформе NVIDIA BlueField
• Обеспечивает обнаружение угроз в 1000 раз быстрее традиционных решений
• Не требует установки агентов на хост
Техническое преимущество: Использует форензику памяти для мониторинга угроз в реальном времени, оставаясь невидимым для атакующих.
5. Защита инфраструктуры агентных систем
• NVIDIA BlueField DPU с DOCA Argus — изолирует угрозы на уровне инфраструктуры
• Protected PCIe — защищает до восьми GPU, позволяя масштабировать рабочие нагрузки
Реальный кейс: Cisco и NVIDIA создали архитектуру Secure AI Factory, встраивающую безопасность на каждом уровне AI-фабрики.
Контейнерная безопасность:
NVIDIA так же разработала Blueprint для анализа CVE (Common Vulnerabilities and Exposures) с использованием генеративного AI:
• Сокращает время анализа уязвимостей с дней до секунд
• Использует NVIDIA NIM microservices и Morpheus
• LLM делает разбор и автоматический анализа рисков CVE
Процесс анализа:
1. Входные данные — результаты сканирования безопасности контейнера
2. Система собирает информацию из репозиториев кода, документации и публичных баз данных
3. LLM-агент анализирует каждый пункт из сгенерированного чеклиста
4. По итогам формируется отчет с аргументированным статусом VEX (Vulnerability Exploitability eXchange)
По итогу ИБ стэк Nvidia уже может перекрыть значительное количество задач ИБ подразделения или из коробки или через интеграцию с ведущими ИБ вендорами.
#NVIDIA #AgenticAI #Cybersecurity #AI #безопасность
------
@tsingular
🔥6👍3
This media is not supported in your browser
VIEW IN TELEGRAM
🌸 FLORA: Бесконечный холст для креатива с ИИ
Наткнулся на крайне интересный low-code сервис FLORA AI – экосистему для создания креативных рабочих процессов.
Суть концепции
FLORA позиционирует себя как первая AI-система для креативных профессионалов, которые мыслят системами, а не единичными результатами. Ключевая идея – "бесконечный холст" (infinite canvas) для организации творческого процесса, где инструменты ИИ соединяются в единые рабочие потоки. (похоже на n8n или langflow или тот же ComfyUI)
Технический стек
В сервис уже интегрировано более 50 различных ИИ моделей для работы с текстом, изображениями и видео:
• Генерация изображений: Flux Pro/Dev, Ideogram 2.0, SD3.5, Recraft V3, Luma Photon
• Обработка изображений: Gemini 2.0 Flash, Flux Canny/Depth/Redux
• Видеогенерация: Kling Pro (1.5/1.6), Luma Ray 2, Pika, Runway Gen-3, Veo2, WAN 2.1
• Текстовые модели: GPT-4o Mini, Claude 3 Sonnet, Gemini 2.0 Flash
• Вспомогательные инструменты: Lora Trainer, удаление фона, SVG-конвертер, транскодер
Архитектура работы
В основе модульная структура из "блоков" (Blocks). Вместо изолированных интерфейсов для каждой модели, FLORA предлагает три типа базовых блоков:
1. Text Block – для работы с текстом (Text-to-Text, Image-to-Text, Video-to-Text)
2. Image Block – для работы с изображениями (Text-to-Image, Image-to-Image)
3. Video Block – для видеоконтента
Блоки соединяются "лапшой" (noodles) – связями, которые определяют поток данных.
Почему обратил внимание, - в отличие от ComfyUI в Flora на первом месте не настройки блоков, а контент.
Это как раз и отражает их фокус на работе с творческой аудиторией.
Чем-то близко к концепции Rivet - тоже наглядность на первом плане.
Главное в блоках – результат их работы, а настройки и код спрятаны в всплывающих меню.
И ещё одна убийственная фича – одновременная работа на холсте для нескольких пользователей. Причём их курсоры и имена показываются в реальном времени!
#Flora #nodes #frameworks
———
@tsingular
Наткнулся на крайне интересный low-code сервис FLORA AI – экосистему для создания креативных рабочих процессов.
Суть концепции
FLORA позиционирует себя как первая AI-система для креативных профессионалов, которые мыслят системами, а не единичными результатами. Ключевая идея – "бесконечный холст" (infinite canvas) для организации творческого процесса, где инструменты ИИ соединяются в единые рабочие потоки. (похоже на n8n или langflow или тот же ComfyUI)
Технический стек
В сервис уже интегрировано более 50 различных ИИ моделей для работы с текстом, изображениями и видео:
• Генерация изображений: Flux Pro/Dev, Ideogram 2.0, SD3.5, Recraft V3, Luma Photon
• Обработка изображений: Gemini 2.0 Flash, Flux Canny/Depth/Redux
• Видеогенерация: Kling Pro (1.5/1.6), Luma Ray 2, Pika, Runway Gen-3, Veo2, WAN 2.1
• Текстовые модели: GPT-4o Mini, Claude 3 Sonnet, Gemini 2.0 Flash
• Вспомогательные инструменты: Lora Trainer, удаление фона, SVG-конвертер, транскодер
Архитектура работы
В основе модульная структура из "блоков" (Blocks). Вместо изолированных интерфейсов для каждой модели, FLORA предлагает три типа базовых блоков:
1. Text Block – для работы с текстом (Text-to-Text, Image-to-Text, Video-to-Text)
2. Image Block – для работы с изображениями (Text-to-Image, Image-to-Image)
3. Video Block – для видеоконтента
Блоки соединяются "лапшой" (noodles) – связями, которые определяют поток данных.
Почему обратил внимание, - в отличие от ComfyUI в Flora на первом месте не настройки блоков, а контент.
Это как раз и отражает их фокус на работе с творческой аудиторией.
Чем-то близко к концепции Rivet - тоже наглядность на первом плане.
Главное в блоках – результат их работы, а настройки и код спрятаны в всплывающих меню.
И ещё одна убийственная фича – одновременная работа на холсте для нескольких пользователей. Причём их курсоры и имена показываются в реальном времени!
#Flora #nodes #frameworks
———
@tsingular
🔥8
Forwarded from эйай ньюз
На Llama Con показали официальное API Llama
Сразу на запуске будет доступен неплохой базовый набор фич — мультимодальные API, tool calling, structured outputs. Всё совместимо с API OpenAI, но при желании можно использовать и специальные SDK, доступные для Python и TypeScript. В придачу к этому обещают скоро запустить инференс на железе от Cerebras и Groq.
Есть и полноценные тулы для файнтюна моделей, причём не только тулзы для тюна, но и для оценки моделей. Но главная фишка — возможность скачивать свои затюненные модели, что убирает вендорлок и позволяет легко мигрировать между провайдерами.
API будет доступно в превью уже сегодня. На старте будет четыре модели — Llama 4 Scout и Maverick и Llama 3.3 8B и 70B.
@ai_newz
Сразу на запуске будет доступен неплохой базовый набор фич — мультимодальные API, tool calling, structured outputs. Всё совместимо с API OpenAI, но при желании можно использовать и специальные SDK, доступные для Python и TypeScript. В придачу к этому обещают скоро запустить инференс на железе от Cerebras и Groq.
Есть и полноценные тулы для файнтюна моделей, причём не только тулзы для тюна, но и для оценки моделей. Но главная фишка — возможность скачивать свои затюненные модели, что убирает вендорлок и позволяет легко мигрировать между провайдерами.
API будет доступно в превью уже сегодня. На старте будет четыре модели — Llama 4 Scout и Maverick и Llama 3.3 8B и 70B.
@ai_newz
👍5❤🔥1
Forwarded from 🏆 Data Feeling | AI (Aleron Milenkin)
Письмо от CEO Duolingo о переходе к AI-first подходу (как когда-то был mobile-first подход)
Мой текущий страйк 13🔥 поэтому вот вам интересная новость про Дуолинго
Разделяю каждое слово в этом письме. Ждать нельзя, иначе останешься далеко позади.
Перевод письма:
🎚️ Перемены могут пугать, но я уверен — для Duolingo это будет сильный шаг вперёд. Это поможет нам лучше выполнять свою миссию. А для Duos это означает — оставаться впереди и использовать технологии, чтобы добиваться результатов.
Мой текущий страйк 13
Разделяю каждое слово в этом письме. Ждать нельзя, иначе останешься далеко позади.
Перевод письма:
Я говорил это на Q&A и многих встречах, но хочу сказать официально: Duolingo становится AI-first.
ИИ уже меняет то, как мы работаем. Вопрос не в том, случится ли это — это уже происходит. Когда изменения такого масштаба — самое худшее, что можно сделать, это ждать. В 2012 мы сделали ставку на мобильные. Пока другие делали сопутствующие приложения к сайтам, мы решили строить всё с нуля под мобильные — потому что верили, что за этим будущее. Это решение принесло нам звание «Приложение года» в App Store и дало старт нашему органическому росту.
Тогда ставка на мобильные всё изменила. Сейчас мы делаем похожую ставку, и новая платформа — это ИИ.
ИИ — это не просто рост продуктивности. Он помогает нам приблизиться к нашей миссии. Чтобы хорошо обучать, нужно создавать огромное количество контента — и вручную это не масштабируется. Одно из лучших решений, которое мы приняли недавно, — заменить наш медленный процесс создания контента на такой, где ключевую роль играет ИИ. Без него нам потребовались бы десятилетия, чтобы масштабировать контент для большего числа учеников. Мы обязаны нашим ученикам доставить им контент как можно быстрее.
ИИ также помогает нам строить такие функции, как видеозвонки, которые раньше было невозможно реализовать. Впервые в истории обучение, сравнимое с лучшими репетиторами, стало достижимо.
Быть AI-first — значит переосмыслить, как мы работаем. Маленькие изменения в системах, изначально созданных для людей, не приведут нас к цели. Во многих случаях нам придётся начать с нуля. Мы не будем перестраивать всё за ночь, и некоторые вещи — вроде обучения ИИ понимать наш код — займут время. Но мы не можем ждать, пока технологии станут идеальными. Мы предпочитаем двигаться с чувством срочности и допускать небольшие потери в качестве, чем идти медленно и упустить момент.
Мы внедрим несколько полезных ограничений, чтобы направить этот переход:
• Постепенно откажемся от подрядчиков для задач, которые может выполнять ИИ
• ИИ будет критерием при найме новых сотрудников
• ИИ будет учитывать при оценке эффективности работы
• Новые сотрудники появятся только если команда не может автоматизировать свою работу
• Большинство функций получат инициативы для фундаментального изменения рабочих процессов
При всём этом, Duolingo остаётся компанией, которая заботится о своих сотрудниках. Речь не идёт о замене Duos ИИ. Речь о снятии узких мест, чтобы наши выдающиеся Duos могли делать больше. Мы хотим, чтобы вы фокусировались на творческих задачах и решении реальных проблем, а не на рутинной работе. Мы обеспечим вас обучением, менторством и инструментами для работы с ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤4🔥4🤔4❤🔥1
Forwarded from эйай ньюз
Сбер представил первую на русском языке модель с нативным восприятием аудио
Тут прикрутили аудио-модель к GigaChat 2 LLM, то есть на вход можно подавать сразу и текст и звук, который преобразуется в токены и подаётся в LLM. Это примерно как в 4o, только пока без генерации аудио, но зато теперь есть полноценное понимание звука.
Моделька распознаёт эмоции и звуки, музыку и речь на других языках. Из фишек — длина контекста в 170 минут, хватит аж на две лекции подряд (привет студентам, как там диплом?). При этом базовые метрики упали, но незначительно.
Пишут, что скоро стоит ждать полноценную speech-to-speech модель. Тогда мы получим настоящий аналог 4o. И там уже можно закрывать все колл-центры в РФ. Ведь, как показала практика, боты куда эффективнее убеждают людей. А значит, они смогут лучше продавать.
Пост на хабре
Гигачат
@ai_newz
Тут прикрутили аудио-модель к GigaChat 2 LLM, то есть на вход можно подавать сразу и текст и звук, который преобразуется в токены и подаётся в LLM. Это примерно как в 4o, только пока без генерации аудио, но зато теперь есть полноценное понимание звука.
Моделька распознаёт эмоции и звуки, музыку и речь на других языках. Из фишек — длина контекста в 170 минут, хватит аж на две лекции подряд (привет студентам, как там диплом?). При этом базовые метрики упали, но незначительно.
Пишут, что скоро стоит ждать полноценную speech-to-speech модель. Тогда мы получим настоящий аналог 4o. И там уже можно закрывать все колл-центры в РФ. Ведь, как показала практика, боты куда эффективнее убеждают людей. А значит, они смогут лучше продавать.
Пост на хабре
Гигачат
@ai_newz
🔥6🤔4👀2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Наткнулись тут с коллегами на интересную IDE с искусственным интеллектом — Trae, который явно нацелился на территорию Cursor, GitHub Copilot и других AI-помощников для разработчиков.
Ключевая концепция: от ассистента к полноценному коллеге
В отличие от первого поколения AI-инструментов для разработки, Trae позиционирует себя как "The Real AI Engineer" — полноценный коллега по разработке.
• Вместо генерации кода по запросу — самостоятельный анализ требований и предложение архитектурных решений
• Адаптация к вашему стилю разработки через постоянное обучение
• Автоматизация рутины при сохранении человеческого контроля над творческими аспектами
Техническая архитектура
@Agent система
Ядро Trae — система @Agent, позволяющая создавать специализированных AI-агентов для разных задач:
• Использование встроенного Builder-агента
• Возможность создавать собственных агентов с настраиваемыми правилами и инструментами
• Интеграция с MCP
#Context для повышения точности
Система контекста включает несколько специализированных вариантов:
• #Web — интеграция интернет-ресурсов
• #Doc — включение проектной документации
• Rules — создание правил для более точного поведения AI
Объединение Chat и Builder
В последнем обновлении Trae объединил режимы Chat и Builder в единый интерфейс (как и Cursor, кстати):
• Chat работает как "терминал нового поколения" на обычном языке
• Сохранение полного контекста при переключении между режимами
Предлагает два основных режима:
1. Режим разработчика: вы управляете процессом, AI помогает с конкретными задачами
2. Режим архитектора: вы задаёте высокоуровневые требования, AI генерирует полноценные решения
Поддерживает любые популярные модели и есть бесплатный объем.
Го тестить (нужен VPN).
P.S. подсказывают- разработка Bytedance!
#Trae #AIIDE #разработка #агенты #dev #Китай #Bytedance
------
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7🆒3❤1
Forwarded from Техно
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Telegram получил мощное обновление — Google Meet и Zoom больше не нужны.
Тестим новые фичи.
😇 Техно
— Удобные групповые звонки без создания группы, где вы можете добавить участников прямо в звонок или по QR-коду.
— В одном звонке могут находиться до 200 человек.
— Если вам заблокировали акк, то бан можно оспорить прямо из интерфейса телеги.
— Автоматизация бизнес-аккаунтов, в которых можно добавлять сторонних чат-ботов.
— Для шера достаточно зажать кнопку «Переслать» и выскочит контекстное меню с последними чатами и «Избранным».
— Можно выбирать, какие подарки видны по умолчанию в вашем профиле.
Тестим новые фичи.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤🔥2🔥2
Грохочет страна транспорантами майскими.
Лопатами в землю саженцы молодые ввинчены.
Бокалы зовут к шашлыкам хрусталём беспечности,
Лишь взгляд бросим им праздность режущий.
В клавиатурном бою куя нейросети, пока все празднуют МИР, ТРУД, МАЙ
ТОВАРИЩ, НЕ ВЕДИСЬ НА ПРАЗДНОСТЬ ЭТУ, НЕ ПЕЙ!
РАЗРАБАТЫВАЙ AI!
#Майские #Юмор
———
@tsingular
Лопатами в землю саженцы молодые ввинчены.
Бокалы зовут к шашлыкам хрусталём беспечности,
Лишь взгляд бросим им праздность режущий.
В клавиатурном бою куя нейросети, пока все празднуют МИР, ТРУД, МАЙ
ТОВАРИЩ, НЕ ВЕДИСЬ НА ПРАЗДНОСТЬ ЭТУ, НЕ ПЕЙ!
РАЗРАБАТЫВАЙ AI!
#Майские #Юмор
———
@tsingular
11😁20🔥12⚡4👍3💯2🗿2
Visa готовится раздать кредитки AI-агентам
Visa планирует позволить искусственным интеллектуальным агентам совершать покупки от имени пользователей.
Компания разрабатывает технологию делегирования платежных полномочий AI-ассистентам.
Механизм предусматривает выдачу временных учетных данных для осуществления транзакций.
Внедрение потребует создания надежных систем защиты от мошенничества и непреднамеренных трат.
Скоро ваш холодильник будет заказывать молоко, а AI-ассистент оплачивать.
Осталось только научить их зарабатывать :)
#Visa #AIpayments #automation
------
@tsingular
Visa планирует позволить искусственным интеллектуальным агентам совершать покупки от имени пользователей.
Компания разрабатывает технологию делегирования платежных полномочий AI-ассистентам.
Механизм предусматривает выдачу временных учетных данных для осуществления транзакций.
Внедрение потребует создания надежных систем защиты от мошенничества и непреднамеренных трат.
Скоро ваш холодильник будет заказывать молоко, а AI-ассистент оплачивать.
Осталось только научить их зарабатывать :)
#Visa #AIpayments #automation
------
@tsingular
👍10🤣4⚡2❤1