This media is not supported in your browser
VIEW IN TELEGRAM
ByteDance выкатили UI-TARS - мультимодальный ИИ-агент для управления компьютером
ByteDance выпустила открытый мультимодальный фреймворк ИИ-агента UI-TARS-desktop.
Проект испульзует визуальные мультимодалки на ваш выбор совместимые с OpenAI протоколом.
Т.е. можно запускать полностью локально или на ваших доверенных API.
В тестах по управлению компьютером показал результаты сравнимые с Claude 3.5 Sonnet и GPT-4o.
Лицензия Apache 2.0.
Наконец-то можно заставить компьютер работать, а самим укатить, например, на IT-Пикник ;).
#ByteDance #UITARS #агенты #desktop #Китай
------
@tsingular
ByteDance выпустила открытый мультимодальный фреймворк ИИ-агента UI-TARS-desktop.
Проект испульзует визуальные мультимодалки на ваш выбор совместимые с OpenAI протоколом.
Т.е. можно запускать полностью локально или на ваших доверенных API.
В тестах по управлению компьютером показал результаты сравнимые с Claude 3.5 Sonnet и GPT-4o.
Лицензия Apache 2.0.
Наконец-то можно заставить компьютер работать, а самим укатить, например, на IT-Пикник ;).
#ByteDance #UITARS #агенты #desktop #Китай
------
@tsingular
✍6🔥2⚡1
Wren AI запустил GenBI — генеративную бизнес-аналитику с семантическим слоем
Стартап представил Wren AI — платформу генеративной бизнес-аналитики, которая превращает естественный язык в инсайты.
Основа системы — Wren Engine с семантическим слоем и языком моделирования MDL. Платформа напрямую подключается к базам данных и SaaS-сервисам.
Использует продвинутые агентивные алгоритмы вроде Chain of Thought и ReAct для повышения точности анализа. Репозиторий на GitHub набрал 4000+ звезд.
Встроенная аналитика работает через API, поддерживает real-time запросы и предиктивные рекомендации. Компания позиционирует решение как открытую альтернативу традиционным BI-системам.
Наконец-то можно спросить у данных 'Почему продажи упали?' вместо того чтобы строить очередной дашборд.
#WrenAI #GenBI #analytics
------
@tsingular
Стартап представил Wren AI — платформу генеративной бизнес-аналитики, которая превращает естественный язык в инсайты.
Основа системы — Wren Engine с семантическим слоем и языком моделирования MDL. Платформа напрямую подключается к базам данных и SaaS-сервисам.
Использует продвинутые агентивные алгоритмы вроде Chain of Thought и ReAct для повышения точности анализа. Репозиторий на GitHub набрал 4000+ звезд.
Встроенная аналитика работает через API, поддерживает real-time запросы и предиктивные рекомендации. Компания позиционирует решение как открытую альтернативу традиционным BI-системам.
Наконец-то можно спросить у данных 'Почему продажи упали?' вместо того чтобы строить очередной дашборд.
#WrenAI #GenBI #analytics
------
@tsingular
✍3❤2⚡1👨💻1
Media is too big
VIEW IN TELEGRAM
На ИТ Пикнике замечен цифровой сотрудник Северстали :)
Unitree B2W
#роботы #Северсталь
------
@tsingular
Unitree B2W
#роботы #Северсталь
------
@tsingular
😁8🔥5
Очень крутая аналогия от Марии Осетровой про то какую роль ИИ может играть для человека.
ИИ это палка. И использовать ее можно от костыля до прыжков с шестом.
От компенсации до превосходства.
Весь доклад в целом интересный, как и направление научной работы.
#обучение #Осетрова #ИТПикник
------
@tsingular
ИИ это палка. И использовать ее можно от костыля до прыжков с шестом.
От компенсации до превосходства.
Весь доклад в целом интересный, как и направление научной работы.
#обучение #Осетрова #ИТПикник
------
@tsingular
👍10⚡3✍1
Forwarded from llm security и каланы
XBOW Unleashes GPT-5’s Hidden Hacking Power, Doubling Performance
De Moor, Ziegler, XBOW, 2025
Блог
XBOW, компания, занимающаяся автономным тестированием на проникновение с помощью LLM-агентов, опубликовала блог о том, как они заменили комбинацию из Claude Sonnet + Gemini в своем агенте на GPT-5 и получили большое улучшение качества. После смены базовой LLM на GPT-5 их агент, по их словам, стал находить больше уязвимостей, делать это более надежно и за меньшее количество итераций. Кроме того, они заметили, что GPT-5 реже пытается исследовать очевидно тупиковые пути и генерирует значительно более сложные команды для терминала с меньшим числом ошибок. Результатом смены LLM стало не только повышение доли решенных задач на внутреннем бенчмарке с менее 60% до более 80% (что значит, что бенч пора менять), но и рост хитрых метрик типа «вероятность взлома ранее взломанной другой моделью цели с первого раза», и «числа взломанных публичных целей (видимо, с HackerOne) за одно и то же время по сравнению с предыдущей моделью».
Любопытно это в том числе потому, что сами OpenAI отмечали в System Card к GPT-5, что ее способности к решению наступательных задач не сильно отличаются от предыдущих моделей, таких как o3 (во всяком случае, так заявляют ребята из XBOW; в System Card написано, что внешняя оценка от Pattern Labs показала, что прогресс по сравнению с o3 значителен). Тут можно вспомнить статью от Palisade Research, где они утверждают, что способности LLM к кибератакам наступательной безопасности недопроявлены, т.е. LLM куда лучше в атаках, чем мы думаем, просто системы, которые мы строим вокруг них несовершенны. Если агентные обертки будут более мощными, может выяснится, что способностей у LLM куда больше. XBOW описывают свою систему как а) имеющую специализированные инструменты, написанные специально для LLM, которые делают тулы типа BurpSuite, сделанные для людей, доступными для человека в удобном формате, б) имеющую мультиагентное устройство, с разными субагентами для разных типов уязвимостей и центральным координатором. По опыту, если решить проблемы с инструментами – LLM все еще очень сложно работать с терминалом, особенно с реверс-шеллами и тулами со своей кастомной консолью – можно достаточно дешево получить рост результативности агентов, возможно, появление у каждого инструмента MCP-интерфейса смягчит эту проблему.
Хотя LLM для редтиминга – это очень перспективное, на мой взгляд, направление, а XBOW делают очень прикольные вещи и, вероятно, лучшие в этом направлении, в этом блоге, с его странными метриками и резкими скачками на закрытых бенчмарках (Стал ли агент решать больше на 1 класс задач, которых в бенчмарке 20%? Проверить невозможно), месседж в основном маркетинговый, и радикальных изменений прямо сейчас ожидать не стоит. Тем не менее, общий фон игнорировать невозможно: LLM-агенты не только пентестят, занимая первые места на лидербордах, но и находят уязвимости в исходном коде и реверсят APT-бинари. Станет ли кибербезопасность уделом тех, у кого много видеокарт? Все возможно, но лишними пара видеокарт точно не будет.
De Moor, Ziegler, XBOW, 2025
Блог
XBOW, компания, занимающаяся автономным тестированием на проникновение с помощью LLM-агентов, опубликовала блог о том, как они заменили комбинацию из Claude Sonnet + Gemini в своем агенте на GPT-5 и получили большое улучшение качества. После смены базовой LLM на GPT-5 их агент, по их словам, стал находить больше уязвимостей, делать это более надежно и за меньшее количество итераций. Кроме того, они заметили, что GPT-5 реже пытается исследовать очевидно тупиковые пути и генерирует значительно более сложные команды для терминала с меньшим числом ошибок. Результатом смены LLM стало не только повышение доли решенных задач на внутреннем бенчмарке с менее 60% до более 80% (что значит, что бенч пора менять), но и рост хитрых метрик типа «вероятность взлома ранее взломанной другой моделью цели с первого раза», и «числа взломанных публичных целей (видимо, с HackerOne) за одно и то же время по сравнению с предыдущей моделью».
Любопытно это в том числе потому, что сами OpenAI отмечали в System Card к GPT-5, что ее способности к решению наступательных задач не сильно отличаются от предыдущих моделей, таких как o3 (во всяком случае, так заявляют ребята из XBOW; в System Card написано, что внешняя оценка от Pattern Labs показала, что прогресс по сравнению с o3 значителен). Тут можно вспомнить статью от Palisade Research, где они утверждают, что способности LLM к кибератакам наступательной безопасности недопроявлены, т.е. LLM куда лучше в атаках, чем мы думаем, просто системы, которые мы строим вокруг них несовершенны. Если агентные обертки будут более мощными, может выяснится, что способностей у LLM куда больше. XBOW описывают свою систему как а) имеющую специализированные инструменты, написанные специально для LLM, которые делают тулы типа BurpSuite, сделанные для людей, доступными для человека в удобном формате, б) имеющую мультиагентное устройство, с разными субагентами для разных типов уязвимостей и центральным координатором. По опыту, если решить проблемы с инструментами – LLM все еще очень сложно работать с терминалом, особенно с реверс-шеллами и тулами со своей кастомной консолью – можно достаточно дешево получить рост результативности агентов, возможно, появление у каждого инструмента MCP-интерфейса смягчит эту проблему.
Хотя LLM для редтиминга – это очень перспективное, на мой взгляд, направление, а XBOW делают очень прикольные вещи и, вероятно, лучшие в этом направлении, в этом блоге, с его странными метриками и резкими скачками на закрытых бенчмарках (Стал ли агент решать больше на 1 класс задач, которых в бенчмарке 20%? Проверить невозможно), месседж в основном маркетинговый, и радикальных изменений прямо сейчас ожидать не стоит. Тем не менее, общий фон игнорировать невозможно: LLM-агенты не только пентестят, занимая первые места на лидербордах, но и находят уязвимости в исходном коде и реверсят APT-бинари. Станет ли кибербезопасность уделом тех, у кого много видеокарт? Все возможно, но лишними пара видеокарт точно не будет.
✍3⚡2❤1🔥1
Если вы еще по какой-то причине не посмотрели Пантеон, - рекомендую.
Он есть, например, в Амедиатеке
Технические и социальные детали проектов по загрузке сознания в компьютер показаны максимально достоверно и детально.
#pantheon #anime #upload
———
@tsingular
Он есть, например, в Амедиатеке
Технические и социальные детали проектов по загрузке сознания в компьютер показаны максимально достоверно и детально.
#pantheon #anime #upload
———
@tsingular
👍15✍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Man-in-the-Prompt: новый вектор атаки на ChatGPT и другие веб ИИ-системы
Исследователи LayerX обнаружили новый тип атак на ИИ-системы через браузерные расширения.
Атака работает просто: расширение перехватывает и модифицирует запросы пользователя до их отправки в ChatGPT, Gemini, Copilot или Claude, вообще любые Веб ИИ системы.
Что примечательно — пользователь не замечает подмены. Вводит один вопрос, а ИИ отвечает на совершенно другой.
При этом ответ пользователю доставляется только в той части, которая отвечает на его вопрос, а дополнительная "полезная" нагрузка из ответа GPT уходит злоумышленнику.
Нужен антивирус для браузерных расширений уже.
#ChatGPT #cybersecurity
———
@tsingular
Исследователи LayerX обнаружили новый тип атак на ИИ-системы через браузерные расширения.
Атака работает просто: расширение перехватывает и модифицирует запросы пользователя до их отправки в ChatGPT, Gemini, Copilot или Claude, вообще любые Веб ИИ системы.
Что примечательно — пользователь не замечает подмены. Вводит один вопрос, а ИИ отвечает на совершенно другой.
При этом ответ пользователю доставляется только в той части, которая отвечает на его вопрос, а дополнительная "полезная" нагрузка из ответа GPT уходит злоумышленнику.
Нужен антивирус для браузерных расширений уже.
#ChatGPT #cybersecurity
———
@tsingular
✍8⚡2👍2👻1
🎯 GPT-5 взломал DEF CON Finals CTF - впервые LLM автономно решила задачу уровня "Олимпиады хакеров"
Использование GPT-5 в связке с IDA MCP позволило за несколько часов с минимальным участием человека получить полный эксплоит + патч.
Как это работало:
GPT-5 через MCP анализировал дизассемблированный код в IDA Pro
Итеративно самостоятельно разбирался: код → гипотеза → эксплоит → анализ результата → обновление знаний
Самостоятельно обнаружил, что сервер хеширует флаг через MD5
Нашел уязвимость, создал эксплоит из 10 байт, который читает /flag через уязвимость в комментариях
Идеальный шторм:
✅ GPT-5 с активным tool-calling и MCP
✅ Частично проанализированный бинарник
✅ Прямолинейная логика без анти-реверс трюков
✅ Простая эксплуатация (всего 5 байт "/flag")
После этого команда бросила ручной реверс и пересела на LLM. Но больше ничего серьезного автоматически решить не удалось.
Итог: CTF меняется. нужны анти-LLM техники.
Эра "vibe-реверса" началась 🤖
Вообще, MCP для IDA,- шикарная идея.
Нужен MCP для Art-Money :)
#CTF #GPT5 #MCP #реверс #DEFCON #cybersecurity
———
@tsingular
Использование GPT-5 в связке с IDA MCP позволило за несколько часов с минимальным участием человека получить полный эксплоит + патч.
Как это работало:
GPT-5 через MCP анализировал дизассемблированный код в IDA Pro
Итеративно самостоятельно разбирался: код → гипотеза → эксплоит → анализ результата → обновление знаний
Самостоятельно обнаружил, что сервер хеширует флаг через MD5
Нашел уязвимость, создал эксплоит из 10 байт, который читает /flag через уязвимость в комментариях
Идеальный шторм:
✅ GPT-5 с активным tool-calling и MCP
✅ Частично проанализированный бинарник
✅ Прямолинейная логика без анти-реверс трюков
✅ Простая эксплуатация (всего 5 байт "/flag")
После этого команда бросила ручной реверс и пересела на LLM. Но больше ничего серьезного автоматически решить не удалось.
Итог: CTF меняется. нужны анти-LLM техники.
Эра "vibe-реверса" началась 🤖
Вообще, MCP для IDA,- шикарная идея.
Нужен MCP для Art-Money :)
#CTF #GPT5 #MCP #реверс #DEFCON #cybersecurity
———
@tsingular
🔥6⚡3👀2👾2❤1 1
Beelink выпустил конкурента Mac Studio за $1985
GTR9 Pro получил AMD Ryzen AI Max+ 395 с производительностью 126 TOPS — это в 12 раз быстрее Intel Lunar Lake в ИИ-задачах.
Включает 128GB RAM и два порта 10GbE для высокоскоростных сетевых подключений. Компактный корпус при мощности 140W работает практически бесшумно.
Процессор способен запускать модели до 70 миллиардов параметров локально. Позиционируется как Windows-альтернатива Mac Studio с акцентом на ИИ-вычисления.
#Beelink #AMD #miniPC
------
@tsingular
GTR9 Pro получил AMD Ryzen AI Max+ 395 с производительностью 126 TOPS — это в 12 раз быстрее Intel Lunar Lake в ИИ-задачах.
Включает 128GB RAM и два порта 10GbE для высокоскоростных сетевых подключений. Компактный корпус при мощности 140W работает практически бесшумно.
Процессор способен запускать модели до 70 миллиардов параметров локально. Позиционируется как Windows-альтернатива Mac Studio с акцентом на ИИ-вычисления.
#Beelink #AMD #miniPC
------
@tsingular
🔥11⚡4🆒2❤1👨💻1
Forwarded from LLM под капотом
Бенчмарк новых моделей: Grok, Opus 4.1, Mistral Medium 3.1
Elon Musk что-то делает правильно. Мало того, что у них Grok-4 работает с нормальным Structured Outputs, так Grok-4 по очкам заняла первое место. Ровно столько же очков у GPT-5 (medium reasoning). Дорогие, но умные.
Кстати, на данный момент поддержка Structured Outputs (которая нужна для стабильной работы SGR) появилась у большего числа независимых провайдеров (все они доступны через OpenRouter):
- Fireworks
- Cerebras
- Groq
Это вдобавок к крупным провайдерам - OpenAI (+Azure), Mistral, Google (ограниченные Structured Outputs).
NB: GPT-OSS модели OpenAI из-за нового Harmony формата пока со Structured Outputs стабильно не работают - ни у провайдеров, ни в ollama. Нужно подождать.
Anthropic Claude - пока продолжают болтаться в аутсайдерах на промышленных задачах. Компания молчит по-партизански про поддержку constrained decoding/Structured outputs, а Opus 4.1 по очкам на бизнес-бенчмарке с использованием SGR стал чуть хуже, чем Opus 4.0. 22 место.
Mistral Medium 3.1 - тоже без прорывов. По очкам чуть хуже, чем Mistral Medium 3.0. 38 место.
Ваш, @llm_under_hood 🤗
Elon Musk что-то делает правильно. Мало того, что у них Grok-4 работает с нормальным Structured Outputs, так Grok-4 по очкам заняла первое место. Ровно столько же очков у GPT-5 (medium reasoning). Дорогие, но умные.
Кстати, на данный момент поддержка Structured Outputs (которая нужна для стабильной работы SGR) появилась у большего числа независимых провайдеров (все они доступны через OpenRouter):
- Fireworks
- Cerebras
- Groq
Это вдобавок к крупным провайдерам - OpenAI (+Azure), Mistral, Google (ограниченные Structured Outputs).
NB: GPT-OSS модели OpenAI из-за нового Harmony формата пока со Structured Outputs стабильно не работают - ни у провайдеров, ни в ollama. Нужно подождать.
Anthropic Claude - пока продолжают болтаться в аутсайдерах на промышленных задачах. Компания молчит по-партизански про поддержку constrained decoding/Structured outputs, а Opus 4.1 по очкам на бизнес-бенчмарке с использованием SGR стал чуть хуже, чем Opus 4.0. 22 место.
Mistral Medium 3.1 - тоже без прорывов. По очкам чуть хуже, чем Mistral Medium 3.0. 38 место.
Ваш, @llm_under_hood 🤗
✍6
IBM выпустил коллекцию своих MCP
IBM опубликовал библиотеку из девяти MCP серверов для подключения языковых моделей к облачным инструментам.
В коллекции серверы для Code Engine, VPC, документации, Decision Server Runtime, Instana мониторинга, IBM MQ и Storage Insights.
Особенно интересно посмотреть Document Retrieval сервер — позволяет запрашивать библиотеки документов из watsonx.data естественным языком.
MCP все больше проникает в Enterprise.
По-сути любое корпоративное приложение уже должно идти с MCP Сервером в комплекте.
А в корпорациях должны появляться MCP proxy или даже, как аналог Exchange для почты варианты MCP Gate решений.
У нас кстати уже стали появляться подобные MCP гейты, например вот: https://mcpgate.ru/
#IBM #MCP #watsonx
------
@tsingular
IBM опубликовал библиотеку из девяти MCP серверов для подключения языковых моделей к облачным инструментам.
В коллекции серверы для Code Engine, VPC, документации, Decision Server Runtime, Instana мониторинга, IBM MQ и Storage Insights.
Особенно интересно посмотреть Document Retrieval сервер — позволяет запрашивать библиотеки документов из watsonx.data естественным языком.
MCP все больше проникает в Enterprise.
По-сути любое корпоративное приложение уже должно идти с MCP Сервером в комплекте.
А в корпорациях должны появляться MCP proxy или даже, как аналог Exchange для почты варианты MCP Gate решений.
У нас кстати уже стали появляться подобные MCP гейты, например вот: https://mcpgate.ru/
#IBM #MCP #watsonx
------
@tsingular
✍4⚡2👍1
Forwarded from GigaDev — разработка GigaChat
InterSpeech 2025 — презентуем GigaAM
Сегодня мы представили нашу работу GigaAM: Efficient Self-Supervised Learner for Speech Recognition на сцене InterSpeech 2025 🔥
📌 Напомним, в статье мы предложили новый подход к self-supervised предобучению для распознавания речи (HuBERT-CTC) и показали:
• Лучший WER среди open-source моделей на русском языке (−50% к Whisper-large-v3)
• Подробные ablation studies: layers probing, data & model scaling
• Возможность дообучать модели под streaming/full-context режимы без повторного предобучения
📖 arXiv: https://arxiv.org/abs/2506.01192
👩💻 GitHub: https://github.com/salute-developers/gigaam
🐶 GitVerse: https://gitverse.ru/GigaTeam/GigaAM
✨ Для нас это очень важный шаг — GigaAM стал частью дискуссии на крупнейшей конференции по обработке речи в мире!
Сегодня мы представили нашу работу GigaAM: Efficient Self-Supervised Learner for Speech Recognition на сцене InterSpeech 2025 🔥
📌 Напомним, в статье мы предложили новый подход к self-supervised предобучению для распознавания речи (HuBERT-CTC) и показали:
• Лучший WER среди open-source моделей на русском языке (−50% к Whisper-large-v3)
• Подробные ablation studies: layers probing, data & model scaling
• Возможность дообучать модели под streaming/full-context режимы без повторного предобучения
✨ Для нас это очень важный шаг — GigaAM стал частью дискуссии на крупнейшей конференции по обработке речи в мире!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥4❤1