Ещё одна сильная история, которая вирусится на Reddit, о том, как ИИ поставил диагноз там, где врачи не смогли.
У мужчины из Индии был 62-летний дядя с тяжёлым набором болезней: диализ, диабет, гипертония и перенесённый инсульт. Плюс сильные мигрени, которые возникали только когда он ложился спать.
Его смотрели разные специалисты, делали МРТ и другие обследования. Но никто не мог объяснить, почему боль зависит от положения тела.
И тут подключили Claude.
В итоге устройство за $317, рекомендованное Claude, решило проблему, с которой не справились годы визитов к врачам.
7 врачей: «мы сделали все, что могли»
Claude: «вот решение»
reddit.com/r/ClaudeAI/comments/1s41fny/25_years_multiple_specialists_zero_answers_one/
@ai_machinelearning_big_data
У мужчины из Индии был 62-летний дядя с тяжёлым набором болезней: диализ, диабет, гипертония и перенесённый инсульт. Плюс сильные мигрени, которые возникали только когда он ложился спать.
Его смотрели разные специалисты, делали МРТ и другие обследования. Но никто не мог объяснить, почему боль зависит от положения тела.
И тут подключили Claude.
«Он не просто указал на проблему. Он составил чёткий диагностический план: к какому врачу идти в первую очередь, какие анализы сдавать, какие вопросы задавать. Подобрал подходящий CPAP-аппарат, объяснил все настройки и даже написал инструкцию по обслуживанию на гуджарати, моём родном языке».
В итоге устройство за $317, рекомендованное Claude, решило проблему, с которой не справились годы визитов к врачам.
7 врачей: «мы сделали все, что могли»
Claude: «вот решение»
reddit.com/r/ClaudeAI/comments/1s41fny/25_years_multiple_specialists_zero_answers_one/
@ai_machinelearning_big_data
1👍128🤩88👏35❤20🙏15🤣14😁4🥰3🔥2💯2
👀 Релиз SAM 3.1 - одной из самых сильных open-source моделей для компьютерного зрения.
Модель понимает, что происходит на изображении или видео, и умеет находить объекты по текстовому описанию. Можно буквально написать «человек в красной футболке» и она найдёт нужных людей.
Работает не только с картинками, но и с видео. Объект можно задать один раз, и дальше модель будет отслеживать его между кадрами.
Ключевая идея - open-vocabulary. Модель не ограничена фиксированными классами, как старые системы. Она оперирует огромным количеством понятий и может находить практически любые объекты.
Ещё важный момент можно комбинировать способы управления: текст, клики, рамки, маски. Это даёт гораздо больше контроля и точности.
Под капотом новая архитектура, где отдельно решаются задачи поиска объектов и их отслеживания. За счёт этого модель лучше различает похожие вещи и стабильнее работает на видео.
В репозитории уже есть всё для старта: готовые веса, код, примеры и ноутбуки.
По факту это уже не просто инструмент для разметки, а полноценный vision-движок, который можно встраивать в реальные продукты от аналитики видео до автоматизации разметки данных.
Теперь модель может отслеживать до 16 объектов за один проход.
С multiplexing все объекты обрабатываются одновременно:
• меньше лишних вычислений
• нет узких мест по памяти
Результат: скорость обработки видео увеличивается примерно в 2 раза
с 16 до 32 FPS на одном NVIDIA H100!
На новом бенчмарке SA-CO, который включает 270 тысяч уникальных концептов, SAM 3 достигает 75–80% от уровня человека.
https://github.com/facebookresearch/sam3
@ai_machinelearning_big_data
#ai #ml #llm #cv #python
Модель понимает, что происходит на изображении или видео, и умеет находить объекты по текстовому описанию. Можно буквально написать «человек в красной футболке» и она найдёт нужных людей.
Работает не только с картинками, но и с видео. Объект можно задать один раз, и дальше модель будет отслеживать его между кадрами.
Ключевая идея - open-vocabulary. Модель не ограничена фиксированными классами, как старые системы. Она оперирует огромным количеством понятий и может находить практически любые объекты.
Ещё важный момент можно комбинировать способы управления: текст, клики, рамки, маски. Это даёт гораздо больше контроля и точности.
Под капотом новая архитектура, где отдельно решаются задачи поиска объектов и их отслеживания. За счёт этого модель лучше различает похожие вещи и стабильнее работает на видео.
В репозитории уже есть всё для старта: готовые веса, код, примеры и ноутбуки.
По факту это уже не просто инструмент для разметки, а полноценный vision-движок, который можно встраивать в реальные продукты от аналитики видео до автоматизации разметки данных.
Теперь модель может отслеживать до 16 объектов за один проход.
С multiplexing все объекты обрабатываются одновременно:
• меньше лишних вычислений
• нет узких мест по памяти
Результат: скорость обработки видео увеличивается примерно в 2 раза
с 16 до 32 FPS на одном NVIDIA H100!
На новом бенчмарке SA-CO, который включает 270 тысяч уникальных концептов, SAM 3 достигает 75–80% от уровня человека.
https://github.com/facebookresearch/sam3
@ai_machinelearning_big_data
#ai #ml #llm #cv #python
3🤩107👍44🎉29❤22👏12🔥11🙏1🌚1👾1
Исследователи из MWS AI (входит в MTS Web Services), Университета ИТМО и IITU представили метод, который улучшает понимание диалога. Работа принята на EACL 2026, одну из главных конференций по NLP.
Ключевая проблема диалоговых систем заключается в том, что боты теряют контекст разговора, начинают отвечать мимо запроса, и в итоге пользователь получает нерелевантный результат. Новый подход меняет сам принцип обучения. Вместо того чтобы просто показывать модели правильные ответы, ей дают возможность самой находить решения и получать сигнал за точность. Для этого используется обучение с подкреплением GRPO.
Такой подход снижает требования к данным, упрощает перенос на новые сценарии и делает внедрение быстрее и дешевле. В экспериментах модель на 8 млрд параметров показала точность 41,9%, превзойдя GPT-4 с результатом 38,7%, а также более крупную модель на 32 млрд параметров.
Отмечается, что обучение может проходить на данных из других доменов, весь процесс укладывается в одну GPU, а код открыт.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍116👏29😁17🎉16❤7💯7🔥3👀1
Media is too big
VIEW IN TELEGRAM
Из-за ошибки в CMS в открытый доступ попали около 3000 внутренних документов Anthropic. Главной утечкой стала информация о разработке новой модели, которая в черновиках упоминается как Mythos и Capybara. Представители компании подтвердили тестирование продукта.
Mythos или Capybara представляет собой новый класс моделей, стоящий на ступень выше актуальной флагманской Opus. Разработчики заявляют о качественном скачке в логике, написании кода и кибербезопасности - результаты тестов значительно превосходят показатели Opus 4.6.
В документах говорится, что возможности модели по поиску уязвимостей могут представлять угрозу. Из-за этого релиз будет крайне осторожным: сначала API откроют узкой группе раннего доступа. Другой преградой для релиза стала высокая стоимость инференса - Anthropic пытается оптимизировать архитектуру, чтобы сделать использование модели рентабельным.
fortune.com
Обновление ориентировано в первую очередь на корпоративные IT-команды, которые смогут упаковывать рабочие процессы, интеграции и настройки MCP-серверов в версионируемые пакеты. Из коробки Codex поддерживает работу с Slack, Figma, Notion и Gmail.
Через эти плагины Codex может брать на себя задачи по планированию, сбору информации и координации, которые предшествуют разработке и управлять последующими процессами.
Новая функция уже доступна в приложении Codex, CLI и расширениях для IDE. В будущем OpenAI планирует запустить официальный каталог плагинов и добавить платформу для их публикации.
OpenAI Developers в сети Х
Федеральный суд США вынес предварительное постановление, запрещающее Министерству обороны разрывать связи с разработчиком чат-бота Claude. Судья встала на сторону стартапа, расценив действия властей как незаконную месть за корпоративную позицию, а не как защиту национальной безопасности.
Суд также отверг аргументы правительства о риске саботажа со стороны Anthropic. Юристы стартапа доказали техническую невозможность подобных сценариев: после развертывания модели на стороне заказчика компания лишается доступа к ней и не может удаленно отключить нейросеть, изменить ее код или отследить, как именно военные ее применяют.
Вступление судебного приказа в силу отложено на семь дней, чтобы дать правительству время на апелляцию. Представитель Минобороны назвал вердикт «позором», сославшись на фактические ошибки суда.
bloomberg.com
Google добавила в Gemini возможность легкого перехода с конкурирующих ИИ-платформ. Теперь можно перенести предпочтения, сохраненный контекст и полную историю чатов из ChatGPT и Claude.
Механика миграции работает двумя способами. Для переноса персональных настроек используется промпт: его нужно скопировать в старый ИИ-ассистент для генерации сводки, а затем вставить ответ в Gemini. Историю диалогов предлагается загружать архивом истории в формате ZIP объемом до 5 ГБ. Это позволит продолжить старые беседы уже в интерфейсе Google.
В рамках обновления раздел Past Chats также переименован в Memory.
blog.google
Вслед за релизом инструмента Video Studio на базе Seedance 2.0, CapCut открыла доступ к функциям генерации для новых регионов. Теперь обновление доступно пользователям из Европы, Канады, Австралии, Новой Зеландии и Южной Кореи.
Опробовать возможности модели можно в бесплатном пробном периоде на всех платформах сервиса, включая мобильное приложение, десктопный клиент и веб-версию.
Для пользователей сервиса также опубликовано руководство по работе с новыми ИИ-инструментами редактора.
СupCut в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔38❤37👍24🔥6👏2😍2
Media is too big
VIEW IN TELEGRAM
27 марта года в широкий прокат вышла полуторачасовая документалка «The AI Doc: Or How I Became an Apocaloptimist».
Фильм сняли оскароносный режиссер Дэниел Рорер и Чарли Тайрелл, номинировавшийся на премию Академии за короткометражку. Премьера картины состоялась на кинофестивале «Сандэнс» 27 января этого года.
Сюжет строится на личной истории Рорера: узнав, что станет отцом, он пытается понять, в каком мире предстоит жить его ребенку. Об этом он разговаривает с ключевыми фигурами отрасли и независимыми исследователями.
Среди собеседников - глава OpenAI Сэм Альтман, основатели Anthropic Дарио и Даниэла Амодеи, руководитель Google DeepMind Демис Хассабис, лауреат премии Тьюринга Джошуа Бенжио, исследовательница этики ИИ Тимнит Гебру, а также Элиезер Юдковский, один из наиболее известных сторонников жесткого контроля над развитием ИИ-систем.
Фильм подсвечивает полярный спектр мнений: от потери рабочих мест, тотальной слежке, возможности появления неуправляемого сверхразума до аргументов в пользу того, что ИИ способен ускорить открытия в медицине и борьбе с изменением климата.
Название содержит неологизм «апокалоптимист» - так режиссер обозначил позицию, при которой человек признает серьезность угроз, но отказывается от пассивного отчаяния.
На Rotten Tomatoes картина набрала 89% положительных рецензий из 35 опубликованных, а на Metacritic средняя оценка составляет 60 баллов из 100 на основе 9 рецензий. Зрительский рейтинг на IMDb: 7,3 из 10.
Ленту показывают в оффлайн кинотеатрах США и на избранных онлайн-платформах (Fandango at Home и Apple TV). В бесплатные кинотеатры пока не завезли.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔63👍43❤10🤣10👏9🔥5🥱5🙈2💯1👻1
This media is not supported in your browser
VIEW IN TELEGRAM
Рука уменьшена в размерах на 60% и теперь практически совпадает по габаритам с ладонью взрослого человека.
Это не вопрос эстетики: при обучении робота через телеуправление оператором-человеком несовпадение пропорций приводит к деградации обучающих данных. Инженеры называют это «проблемой изоморфизма» и Xiaomi говорит, что решила ее.
Число активных степеней свободы выросло до 22–27, что на 83% больше, чем у предыдущей версии.
Площадь тактильных сенсоров, покрывающих ладонь, подушечки и фаланги пальцев стала 8200 мм².
Увеличение площади дает возможность манипулировать объектами на ощупь, без опоры на компьютерное зрение: робот может закручивать винты и удерживать перо, не повредив его.
Для сбора обучающих данных Xiaomi использует тактильные перчатки. Оператор выполняет действия руками, а система в реальном времени записывает данные о захвате и передает их собственным ИИ-моделям компании.
Предыдущие версии руки выходили из строя менее чем за 10 тыс. циклов захвата из-за износа компонентов. Новая конструкция прошла 150 тыс циклов ( это примерно 61 час непрерывной работы).
Фишка апдейта - бионические потовые железы.
Система микронасосов испаряет жидкость через каналы охлаждения, изготовленные с помощью передовых производственных технологий, и рассеивает около 10 Вт тепла.
Принцип заимствован у человеческого тела: испарение отводит тепло от встроенных моторов и предотвращает перегрев компактного корпуса при длительных силовых захватах.
Ранее Xiaomi продемонстрировала работу робота на реальной автомобильной сборочной линии - 3 часа непрерывной работы с показателем успешности 90,2%. Обновленная рука рассчитана на то, чтобы довести эту цифру до 99,9%.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍70❤26🔥17😁4👾2
Не мультимодальную сборку из отдельных компонентов, а единую нативную архитектуру, которая с первого слоя работает с текстом, изображением, аудио и видео одновременно.
Главное, что отличает модель от конкурентов: Audio-Visual Vibe Coding. Описываешь голосом в камеру что нужно сделать, модель генерирует рабочий код сайта или игры.
Плюс Script-Level Captioning, который превращает видео в полноценный сценарий с таймкодами и привязкой реплик к спикерам.
• По бенчмаркам Qwen3.5-Omni-Plus бьёт Gemini 3.1 Pro в большинстве категорий.
• По распознаванию речи WenetSpeech: 4.30/5.84 против 11.5/14.2.
• По пониманию аудио VoiceBench: 93.1 против 88.9.
•
• По зрению MVBench: 79.0 против 74.1. По тексту MMLU-Redux: 94.2 против 95.9 (тут паритет). Итого 215 SOTA-результатов по подзадачам.
Модель корректно реагирует на перебивание и не ломается от фонового шума), встроенный WebSearch и Function Calling, поддержка 74 языков в ASR и 29 в TTS.
Доступна через Qwen Chat, HuggingFace и API Alibaba Cloud.
Qwenchat: https://chat.qwen.ai
Blog: https://qwen.ai/blog?id=qwen3.5-omni
Hugging Face Offline Demo: https://huggingface.co/spaces/Qwen/Qwen3.5-Omni-Offline-Demo
Hugging Face Online Demo: https://huggingface.co/spaces/Qwen/Qwen3.5-Omni-Online-Demo
@ai_machinelearning_big_data
#ai #ml #qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥49💯31❤20🎉8👨💻4💘2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Компания Z.ai (создатели моделей GLM) выпустили AutoClaw - инструмент, который позволяет запускать OpenClaw локально, без интернета и без API-ключей других провайдеров.
OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).
В чем плюсы AutoClaw:
• Скачал - запустил. Никаких сторонних API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят
По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без сторонних подписок.
AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x
@ai_machinelearning_big_data
OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).
В чем плюсы AutoClaw:
• Скачал - запустил. Никаких сторонних API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят
По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без сторонних подписок.
AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x
@ai_machinelearning_big_data
❤64👨💻53👍35🎉17🔥10🤩4👏3🗿3😁2🌚2