223K subscribers
3.83K photos
640 videos
17 files
4.46K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🖥 Некоторые реддиторы пишут, что уже получили доступ к Gemini 2.5 Pro, а пока мы ждем анонса, Google выкатили набор новых ИИ-моделей: TxGemma для ускорения разработки лекарств и проведения научных исследований в медицине:

🌟 TxGemma – это набор открытых моделей на базе Gemma, способных обрабатывать как обычный текст, так и структурированную медицинскую информацию (молекулы, химические соединения, белки).

🟢Модели доступны в трёх размерах: 2B, 9B и 27B. Каждый размер включает версию «predict», специально адаптированную для узких задач из Therapeutic Data Commons, например, для предсказания токсичности молекулы.

Крупнейшая модель TxGemma (версия 27B predict) демонстрирует впечатляющие результаты.

Она не только превосходит или примерно равна предыдущей SOTA(Tx-LLM) почти по всем задачам, но и соперничает или обходит многие модели, специально разработанные для узких медицинских областей.

HF: https://huggingface.co/collections/google/txgemma-release-67dd92e931c857d15e4d1e87

#google #Gemma #drugdiscovery
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🔥145🌭4🥰3
А вот и Gemini 2.5 Pro Experimental — самая интеллектуальная модель Google


Без оптимизаций Gemini 2.5 Pro Experimental лидирует в таких математических и научных бнчмарках GPQA и AIME 2025.

Модель опередила на бенчмарках Sonnet 3.5.

🌌 Мультимодальный контекст до 1 миллиона токенов — анализ текста, изображений, видео, аудио и PDF.

🛠️ Поддерживае: вызовы функций, структурированный вывод, поиск Google, запуск кода.

Кроме того, модель набрала 18,8 % баллов на последнем экзамене человечества.

2.5 Pro уже появился у пользователей Advanced в GeminiApp.
Просто выберите его в выпадающем списке моделей на десктопных и мобильных приложениях. Скоро она также будет доступна на GoogleCloud.

💡 Содержит актуальные знания до января 2025 года.

🚀 Лимиты: 2 RPM, 50 запросов в день (бесплатно).

https://blog.google/technology/google-deepmind/gemini-model-thinking-updates-march-2025/#gemini-2-5-pro

Модель доступна в GoogleAI Studiohttps://ai.dev

@ai_machinelearning_big_data


#google #Gemini
1🔥42👍1815❤‍🔥3
Gemini 2.5 Pro теперь №1 в таблице лидеров Арены - это самый большой скачок в истории (+40 пт против Grok-3/GPT-4.5)! 🏆

Gemini 2.5 Pro #1 почти во ВСЕХ категориях, модель показывает результаты на уровне с Grok-3/GPT-4.5 в категориях «Hard Prompts» и «Coding», опредив всех остальных, заняв лидирующие позиции 🏇🏆

@ai_machinelearning_big_data

#google #Gemini #areana
🔥65👍2219😎3
✔️А что там OPENAI?

На стриме показали редактор изображений для ChatGPT.

Основные особенности:
🟢ChatGPT поддерживает генерацию видео через Sora(пока очень тормозит).

🟢Улучшенная генерация текста. Разработчики значительно повысили качество генераций текстовых элементов, теперь они получаются читаемыми и почти без ошибок.​

🟢Модель показывает высокий уровень реализма, генератор может создавать изображения с точной передачей деталей, которые вы задаете в промпте.

🟢ИИ хорошо следует инструкциям. Вы можете попросить его изменить небольшие части изображения и Chatgpt пришлет картинку с запрошенными вами изменениям

🟢Поддержка прозрачного фона. Пользователи могут создавать изображения с прозрачным фоном, что особенно полезно для создания стикеров, логотипов и других графических элементов.​

🟢Хорошо справляется с генерацией мемов, комиксов и других графических материалов.

📌 https://openai.com/index/introducing-4o-image-generation/

@ai_machinelearning_big_data


#openai #imagegenerator #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
42👍26🔥14❤‍🔥5🥰1
✔️ ByteDance выпустила InfiniteYou: бесконечные вариации портрета.

ByteDance представила InfiniteYou — ИИ-систему, которая генерирует фотореалистичные портреты, сохраняя сходство с оригиналом и точно следуя текстовым запросам. В отличие от PuLID-FLUX, в InfiniteYou черты лица обрабатываются отдельным слоем, что повышает качество без риска переобучения.

Технология использует двухэтапное обучение: сначала на реальных фото, затем — на синтетических изображениях. По данным тестов, 72,8% участников выбрали результаты InfiniteYou из-за детализации и отсутствия артефактов вроде «копирования» лиц. Система совместима с ControlNet и LoRA, а для генерации нужно всего 4 шага.

Исходный код и веса модели уже доступны на GitHub и Hugging Face, демо-версия доступна тут.
analyticsindiamag.com

✔️ NVIDIA представила Project G-Assist: локальный ИИ-агент для геймеров.

Компания NVIDIA анонсировала экспериментальный релиз Project G-Assist — ИИ-агента, использующего компактную языковую модель, которая обрабатывает голосовые или текстовые запросы, оптимизируя настройки игр, мониторинг производительности и даже управление подсветкой периферии от Logitech или Corsair. Всё работает оффлайн, без подписок и облачных серверов.

Для разработчиков открыт доступ к GitHub-репозиторию: там есть шаблоны для создания плагинов, интеграции со Spotify, Twitch или Google Gemini. Технические требования — RTX 30/40/50 серии, 12 ГБ видеопамяти и свежие драйверы.
nvidia.com

✔️ Роботы Figure 02 ходят почти как люди.

Figure разработала революционный метод обучения человекоподобных роботов — кастомная end-to-end нейросеть на основе RL за несколько часов «прокачала» движения Figure 02 до уровня естественной человеческой походки.

Все благодаря симулятору, где тысячи виртуальных роботов учились ходить по разным поверхностям, падать и реагировать на толчки. Ключевая фишка — перенос навыков из симуляции в реальность без доработок: помогли рандомизация параметров и мгновенная коррекция крутящего момента. Обещают, что уже скоро робот Helix на этой же базе сможет готовить и убираться.
figure.ai

✔️ Apple планирует обучать ИИ на фото из Look Around в Apple Maps.

Apple обновила раздел сайта, подтвердив использование снимков из Look Around (аналог Street View) для тренировки ИИ-моделей с марта 2025 года. Данные, собранные камерами на автомобилях и с переносных инсталляций (для пешеходных зон), включая 3D-карты, помогут улучшить распознавание изображений, генерацию контента и поиск в приложении «Фото».

Для защиты приватности Apple блюрит лица и номера машин на фото, а также готова скрыть частные строения по запросу. Обучение моделей будет проводиться только с обработанными изображениями. Подробности о конкретных алгоритмах компания пока не раскрывает, возможно о них станет известно на WWDC 2025, который пройдет с 9 по 13 июня.
9to5mac.com

✔️ Tesla покажет своего робота Optimus представителям Капитолия.

Tesla присоединится к симпозиуму по робототехнике в Капитолии, чтобы продемонстрировать своего человекоподобного робота Optimus конгрессменам и сотрудникам Белого дома. Мероприятие, организованное A3 Automate и Университетом Карнеги-Меллон. пройдёт в 26 марта в здании Cannon House Office.

В приглашении Tesla подчеркивает, что робот позволит «заглянуть в будущее», и приглашает всех желающих оценить разработку.
axios.com

✔️GROK Илона Маска — теперь официально в Telegram. Бесплатно для премиум юзеров
Бот

@ai_machinelearning_big_data

#AI #ML #Research #NLP
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36🔥1312🤬3🙈2🤷2
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ СuML от NVIDIA: Scikit-learn на скорости GPU – без единой строчки нового кода!

Все мы любим scikit-learn за его простоту и мощь. Но что если ваши модели обучаются слишком долго на больших данных? 🤔 NVIDIA предлагает решение!

Вы берете свой обычный скрипт cо scikit-learn, добавляете всего две строки в начало, и он начинает работать в 10, 50, а то и 100+ раз быстрее на NVIDIA GPU! 🔥

Как это работает?

Библиотека cuml от NVIDIA содержит супероптимизированные для GPU версии многих алгоритмов машинного обучения. С помощью простого вызова cuml.patch.apply() вы "патчите" установленный у вас scikit-learn прямо в памяти.

Теперь, когда вы вызываете, например, KNeighborsClassifier или PCA из sklearn:

▶️Патч проверяет, есть ли у вас GPU NVIDIA.
▶️Проверяет, есть ли в cuml быстрая GPU-версия этого алгоритма.
▶️Если да – запускает ускоренную версию на GPU! 🏎️
▶️Если нет (нет GPU или алгоритм не поддерживается) – спокойно запускает обычную CPU-версию scikit-learn.

Ключевые преимущества:

✔️ Нулевые изменения кода: Ваш scikit-learn код остается прежним. Добавляете только 2 строчки:
import cuml.patch и cuml.patch.apply().
✔️ Колоссальное ускорение: Получите прирост производительности на порядки для поддерживаемых алгоритмов (KNN, PCA, линейные модели, Random Forest (инференс), UMAP, DBSCAN, KMeans и др.) за счет мощи GPU.
✔️Автоматическое переключение между GPU и CPU. Ваш скрипт будет работать в любом случае.

Топ инструмент для всех, кто работает с scikit-learn на задачах, требующих значительных вычислений, и у кого есть GPU от NVIDIA.

👇 Как использовать:

Установите RAPIDS cuml (лучше через conda, см. сайт RAPIDS):


python
conda install -c rapidsai -c conda-forge -c nvidia cuml rapids-build-backend


Добавьте в начало скрипта:


import cuml.patch
cuml.patch.apply()


Используйте scikit-learn как обычно!

Попробуйте и почувствуйте разницу! 😉

Блог-пост
Colab
Github
Ускоряем Pandas

@ai_machinelearning_big_data


#python #datascience #machinelearning #scikitlearn #rapids #cuml #gpu #nvidia #ускорение #машинноеобучение #анализданных
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍79🔥4510💘3😁1
Forwarded from КПД
Scale-wise Distillation of Diffusion Models
[Статья] [Демка] [Код soon]

Введение

Диффузионные модели на протяжении последних несколько лет удерживают пальму первенства среди семейств генеративных моделей во многих приложениях. Однако их фундаментальным ограничением является многошаговое сэмплирование, из-за чего генерация занимает много времени.

Научное сообщество предложило вагон и маленькую тележку различных процедур дистилляции многошаговых моделей в малошаговые. Но при приближении количества шагов к 1-му качество неизбежно просаживается даже для самых продвинутых подходов.

Отсюда мысль 🤔 - а что если ускорить генерацию за счет удешевления шагов сэмплирования?

Мы с коллегами из Yandex Research предложили метод дистилляции в несколько-шаговую генерацию, где разрешение изображения увеличивается постепенно, на каждом шаге генерации (SwD). За счет этого удается достичь более чем 2х кратного ускорения по сравнению с эквивалентной дистилляцией в фиксированном разрешении.
👍3332🔥8
🖥 OpenAI открывает бесплатное обучение по работе с нейросетями

OpenAI запустила "Академию OpenAI", которая претендует на роль главного учебника по работе с ИИ.

Платформа поможет освоить нейросети на практике, понять их возможности и научиться эффективно использовать ChatGPT и Sora в повседневной жизни и работе.

Обширная база обучающих материалов доступна на отдельном сайте.
Live-трансляции и офлайн-мероприятия помогут глубже разобраться в технологиях.
Бесплатный доступ — OpenAI стремится расширить аудиторию, а не ограничивать её ценником.

Программа рассчитана на широкий круг слушателей — от технических специалистов до политиков, представителей бизнеса и академического сообщества.

@ai_machinelearning_big_data


📌Начать обучение
📌 Блог

#ai #freecourses #openai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6416🔥13😁7🗿6🤣4
🌟 Step-Video-TI2V: новый опенсорс генератрор видео из текста и изображения.

Команда StepFun AI выпустила Step-Video-TI2V модель для генерации видео (до 102 кадров), производительностью SOTA.
Принимает на вход текстовые описания и изображенияъ 🖼️ + ✍️ = 🎬

На бенчмарке VBench-I2V, моделька показывает лучшие результаты по сравнению с другими современными открытыми моделями для генерации видео из изображения и текста, а также лидирует в публичном рейтинге.

Ключевые особенности:

Контроль движения: Модель предлагает достойный баланс между стабильностью движения и гибкостью, позволяя управлять динамикой в кадре.
Разнообразные движения камеры: Поддерживается имитация различных движений виртуальной камеры для создания более кинематографичных эффектов.
Мастер аниме-стиля: Step-Video-TI2V особенно преуспевает в генерации видео в стиле аниме, открывая новые возможности для фанатов и создателей контента!
Поддержка разных разрешений: Модель может генерировать видео в нескольких вариантах размеров.

🟢GitHub
🟢Попробовать
🟢ComfyU
🟢HF
🟢Modelscope
🟢Tech Report

@ai_machinelearning_big_data



#AI #VideoGeneration #TextToVideo #ImageToVideo #GenerativeAI #MachineLearning #StepFunAI #ИИ #ГенерацияВидео #Нейросети #Аниме #OpenSource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4111🔥5🤔2🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Bambot — это доступный гуманоидный робот с открытым ПО, которого вы можете собрать самостоятельно.

Робот обойдется вам примерно в 300 долларов

Проект вдохновлён подобными опенсорсными роботами, такими как lerobot, , so-100 и lekiwi.

Основная цель — демократизация технологий, обеспечивая доступ к робототехнике для более широкой аудитории.

А здесь вы найдете список комплектующий, со ссылками на Ali. Здесь описано ПО для робота.

🟢github
🟢hardware
🟢software

@ai_machinelearning_big_data


#robots #ai #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
👍69🔥24😁8🤨75
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 В chat.qwenlm.ai chat теперь доступны голосовой режим + режим видеочата

Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.

Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .

Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.

Просто топ, бегом тестить.

🟢Попробовать: https://chat.qwenlm.ai
🟢Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B

@ai_machinelearning_big_data

#qwen #release #Omni
Please open Telegram to view this post
VIEW IN TELEGRAM
49👍27🔥25
This media is not supported in your browser
VIEW IN TELEGRAM
☠️ Сказка на ночь

Основатель студии Ghibli Хаяо Миядзаки назвал «ужасным оскорблением жизни», демку 2016 года, когда группа из трех разработчиков искусственного интеллекта показала ему раннюю версию ИИ -инструмента (RL Gym от OpenAI) для создания: «машины, рисующего аниме так же, «как это делают люди».

Где бы сейчас ни были эти разработки , ваше время пришло 😂

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63😭44😁1915🔥6🤓3👀3🤣2
✔️ Microsoft приостанавливает проекты создания ЦОД в США и Европе.

Microsoft решила поставить на паузу новые проекты по строительству ЦОД в США и Европе суммарной мощностью около 2 гигаватт электроэнергии. Это решение объясняется опасениями по поводу переизбытка инфраструктуры ИИ и стратегическим изменением отношений Microsoft с OpenAI.
bloomberglinea.com

✔️ Siemens приобрел Altair для создания наиболее полного портфеля промышленного ПО с ИИ.

Siemens завершил сделку по поглощению Altair Engineering за $10 млрд, усилив свои позиции в ИИ и промышленной симуляции. Технологии Altair в области электромагнитного моделирования, анализа данных и высокопроизводительных вычислений интегрируют в платформу Xcelerator — это сделает цифровые двойники ещё точнее, а симуляции доступнее даже для небольших компаний.

«С Altair мы создаём самый продвинутый AI-инструментарий для инженеров», — отметил CEO Siemens Роланд Буш. Теперь клиенты смогут оптимизировать HPC-процессы, разрабатывать ИИ-решения и ускорять вывод продуктов на рынок. Сделка также увеличит долю цифровых доходов Siemens в рамках программы ONE Tech Company.
newsroom.sw.siemens.com

✔️ Исследование: 41% работников поколения Z саботируют стратегию работодателя в области ИИ.

Основные причины — страх автоматизации, недоверие к этичности алгоритмов и низкое качество корпоративных инструментов. Исследование выявило разрыв между руководством и рядовыми работниками: 49% сотрудников осваивают ИИ самостоятельно, а 35% самостоятельно покупают сторонние сервисы, рискуя безопасностью корпоративных данных.

Кевин Чанг, стратег Writer, предполагает, что успех внедрения ИИ зависит от прозрачности, обучения и вовлечения «чемпионов ИИ» — энтузиастов, которые мотивируют коллег. «Без людей даже лучшие технологии провалятся», — резюмирует Кевин.
forbes.com

✔️ Kling обновила Elements.

Kling AI, проект китайской компании Kwai обновила свой онлайн-сервис Elements, который генерирует видео по нескольким исходным изображениям. Обновление принесло более быструю генерацию, улучшенное семантическое понимание промпта и качество выходного видео.

Добавлена новая функция "Endframes" + Extend" которая позволяет создавать расширение видео через ключевые кадры.
KlingAI в X (ex-Twitter)

✔️ Groq и PlayAI запустили голосовой ИИ с адаптивным контекстом.

Groq и PlayAI объединили усилия, чтобы представить Dialog — текстово-речевую модель, которая генерирует речь почти неотличимую от человеческой. Система работает на платформе GroqCloud, обеспечивая скорость до 140 символов в секунду благодаря LPU-чипам, что в разы быстрее GPU. Ключевая фишка проекта — механизм адаптивного контекста: ИИ анализирует историю диалога, подстраивая интонацию и эмоции под разговор.

Dialog поддерживает английский и арабский, став первым решением для Ближнего Востока. В тестах Podonos модель обошла ElevenLabs по скорости и естественности.
venturebeat.com

✔️AgentRxiv – это опенсорсный фреймворк, позволяющий агентам из разных лабораторий делиться идеями и улучшать исследования сообща, подобно тому как люди обмениваются знаниями. В эксперименте с участием трёх лабораторий такая коллаборация привела к улучшению результатов на 13.7% по сравнению с автономным самоулучшением.
Github

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3617🔥14
🌟 А вот еще ответочка для Миядзаки.

Что было бы, если студия Ghibli сняла «Властелина колец»?

Бюджет в 250 долларов на Kling и 9 часов на монтаж трейлера «Братства Кольца», чтобы воплотить эту идею в жизнь.

- Сначала автор сделал скриншоты всех 102 кадров трейлера (смотри 2 видео со сравнением оригинала и генерации)
- Затем ремикс на них в стиле Ghibli в Sora
- Далее анимация в Kling
и Luma
- Повторный монтаж синхронизирован с трейлером.

А вот промпт, который использовал автор:

"Recreate this in the style of Studio Ghibli, intricately detailed. Make sure the composition, colors and vibe is similar. The scene pictured shows black cloaked figures on black horses riding away from a massive wave of water on a riverbed that is chasing the riders."


🔗 Полный процес создания описан здесь.

Теперь всё — от студии Ghibli. Даже Властелин колец.

@ai_machinelearning_big_data

#sora #kling #Luma
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85🔥4119🥱6🤬4🥰3😢2👏1🤓1
This media is not supported in your browser
VIEW IN TELEGRAM
🌐 Nanobrowser – Мультиагентная AI-ситсема для веб-автоматизации.

Это open-source инструмент, который использует LLM для автоматизации работы у вас в браузере.

По сути это альтернатива OpenAI Operator, работающая локально.

Оператору можно задавать промпты на естественном языке (или через код), а умные агенты (Планировщик, Навигатор, Валидатор) выполняют их в веб-окружении.

Чем полезен ?

🟢 Автоматизация тестирования UI: Быстро просит пользовательские сценарии, заполнение форм, клики по элементам без написания сложного Selenium/Puppeteer кода.
🟢 Прототипирование веб-скрапинга/сбора данных: Легко настраивайте сбор нужной информации с веб-страниц.
🟢 Ускорение рутинных задач: Автоматизируйте взаимодействие с внутренними админками, дашбордами или любыми веб-интерфейсами.

Главное, что ваши данные не уходят на сторонние серверы (если вы используете локальную LLM).

Поддерживает различные большие языковые модели, не привязывая вас к одному провайдеру.

🔗GitHub: https://github.com/nanobrowser/nanobrowser

@ai_machinelearning_big_data


#Nanobrowser #AI #WebAutomation #OpenSource #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍72🔥1812
Media is too big
VIEW IN TELEGRAM
✔️ Новое исследование Anthropic: Отслеживание размышлений большой языковой модели.

Цель: Понять, как модели работают изнутри ("реверс-инжиниринг"), чтобы лучше оценивать их надежность и пригодность под конкретные задачи.

Несмотря на впечатляющие возможности, внутренние алгоритмы работы больших языковых моделей остаются в значительной степени "черным ящиком".

Модели обучаются, а не программируются напрямую, поэтому мы не понимаем, как они делают большинство вещей, которые они делают.

Новые методы интерпретации позволяют Anthropic проследить этапы «мышления» LLM.

Anthropic разработали новый инструмент – графы атрибуции (attribution graphs).

Он позволяет частично отслеживать цепочку промежуточных шагов, которые модель использует для обработки входных данных и получения результата.

Метод помогает идентифицировать ключевые внутренние представления ("features") и картировать связи между ними (подобно "схеме соединений" мозга).

Это позволяет сформулировать гипотезы о механизмах работы модели, которые затем проверяются экспериментально.

Метод был применен для изучения конкретной модели Claude 3.5 Haiku.

Авторы описывают десять тематических аспектов работы модели, каждое из которых иллюстрирует один из аспектов «биологии ИИ».

Вот некоторые открытия:
🟢Многоязычное понимание: Исследования показывают, что Claude использует общие представления для концепций через разные языки. Например, концепция "маленький" в английском и "petit" во французском отображаются в универсальной форме "маленькость", прежде чем переводиться в нужный язык. Это указывает на универсальное понимание, не связанное с конкретным языком.

🟢Планирование генерации текста: Модель способна планировать будущие шаги при генерации текста, что видно, например, в создании рифмованных куплетов. Она учитывает будущие слова и корректирует текущий вывод, чтобы сохранить рифму, что напоминает человеческое когнитивное планирование.

🟢Ментальная арифметика: Несмотря на то, что Claude в первую очередь обучена предсказывать текст, она выполняет арифметические операции, используя сложные параллельные вычислительные пути. Это показывает, что модель может развивать собственные методы для числовых операций, что обещает большую универсальность.

🟢Галлюцинации: Исследование объясняет, как определенные особенности модели могут приводить к галлюцинациям. Оказывается, у модели есть механизм по умолчанию отказываться от ответа, если она не знает, но функция "известный ответ" иногда активируется ошибочно, что и вызывает галлюцинации. Понимание этого механизма критично для повышения надежности модели.

🟢Мотивированное рассуждение: В одном из примеров показано, что, если дать подсказку о конечном ответе на задачу, Claude может работать задним числом, чтобы построить правдоподобные промежуточные шаги, ведущие к этому ответу, даже если она не решает задачу genuinely. Это подчеркивает способность модели рационализировать и строить объяснения, даже если они не основаны на точном решении.


🟢Сложность деталей: Даже если общая схема работы механизма была предсказуема, конкретные детали, такие как цепочки промежуточных шагов (например, как именно функция « сказать "rabbit"» влияет на формирование строки стиха или роль «нового предложения» при анализе jailbreak), оказались неожиданными и сложными для точного предположения.

🟢Множественные параллельные процессы: Наблюдалось, что в одном процессе могут одновременно работать несколько механизмов – например, модель одновременно использует как двухшаговое рассуждение, так и более прямые кратчайшие пути, или совмещает жестко заданный смещённый приоритет с логическими рассуждениями, что свидетельствует о сложности внутренней структуры.

Эти выводы подчеркивают, что даже при наличии общих представлений о работе модели, детали и взаимодействие её компонентов могут быть весьма неожиданными и многообразными.

https://transformer-circuits.pub/2025/attribution-graphs/biology.html

Описания методов, используемых в исселдованиях: https://transformer-circuits.pub/2025/attribution-graphs/methods.html
Please open Telegram to view this post
VIEW IN TELEGRAM
69👍43🔥26👏6
✔️ R²D²: набор решений для робототехники от NVIDIA.

NVIDIA Research предлагает 4 решения: MobilityGen генерирует синтетические данные в Isaac Sim, экономя время на сбор реальных данных, COMPASS создаёт универсальные алгоритмы передвижения для роботов любого типа — от двуногих до колесных, обеспечивая мгновенное внедрение из симуляции в реальность.

Для гуманоидов важен контроль всего тела: HOVER объединяет управление балансом, движением и манипуляциями в единую нейросеть, а ReMEmbR добавляет «память» — робот анализирует окружение с помощью ИИ-моделей (LLM, VLM) и действует на основе контекста.

Уже сейчас эти решения тестируют компании Under Control Robotics и Advantech: роботы собирают данные, перемещают грузы и избегают препятствий в динамичных условиях. Для разработчиков доступны исходники на GitHub и набор учебных материалов.
developer.nvidia.com

✔️ Google анонсировала ИИ-инструменты для планирования путешествий.

Google тизернула набор функций с ИИ для организации летних поездок. В Поиске теперь доступны AI Overviews — сводки, которые генерируют маршруты по запросам вроде «создать план поездки в Коста-Рику с акцентом на природу». В Gemini появился инструмент, позволяющий настраивать «экспертов» под конкретные задачи — например, для подбора направлений или списка вещей в дорогу. Отдельное внимание уделили отслеживанию цен: теперь, кроме авиабилетов, система уведомит о снижении стоимости отелей через email.

Обновление коснулось и Google Maps: приложение научилось анализировать скриншоты с сохраненными локациями. Достаточно открыть доступ к фото — и ИИ автоматически распознает места, предложив добавить их в список.

Пока функция доступна в США на iOS, версия для Android ожидается в ближайшее время.
techcrunch.com

✔️ Garmin запустил платный сервис с ИИ-аналитикой.

Garmin открыла платную подписку Connect+ за $7 в месяц, предлагающую ИИ-функции для анализа тренировок - персонализированные рекомендации, дашборд эффективности и советы для бегунов и велосипедистов. Сервис использует историю активности, чтобы оптимизировать прогресс и уведомления LiveTrack для безопасности.

В отличие от Strava (от $12/месяц), Garmin сохраняет доступную цену, делая AI-инструменты привлекательнее для любителей и профи. Хотя часть пользователей критикует переход на монетизацию, 30-дневный тест-период позволяет оценить новинку.
gizmodo.com

✔️ Vamba: новая архитектура для анализ длинных видео.

Vamba — гибридная архитектура на основе Mamba и Transformer для обработки длинных видео. Она позволяет анализировать до 100 тыс. видеотокенов без сжатия, сохраняя ключевые сцены и действия. За счёт замены части операций на модули Mamba-2, сложность вычислений снижается с квадратичной до линейной, что ускоряет обучение в 2 раза и сокращает потребление памяти на 50%.

В тестах На LVBench Vamba обошла конкурентов по точности (плюс 4,3%) и по стабильности обработки: даже при 512 кадрах потребление памяти не превышала 12 ГБ. Дополнительные тесты на датасетах с шумом и динамичными сценами доказали, что архитектура сохраняет детализацию без «провалов» в сложных условиях. Модель уже доступна в открытом доступе — код, веса.
tiger-ai-lab.github.io

✔️ Apple обновила Final Cut: поддержка Apple Intelligence и новые инструменты.

Apple выпустила обновления для Final Cut Pro на Mac, iPad и приложения Final Cut Camera. Главным новшеством стала интеграция Apple Intelligence: теперь в Image Playground можно быстро генерировать стилизованные изображения на основе описаний или фото из библиотеки.

Для Mac добавлены коррекция цвета, аудиоэффект Quantec QRS и улучшенный Magnetic Mask. На iPad появилась портретная ориентация и хоткеи для монтажа. Final Cut Camera обзавелась переключением на 48-мм телеобъектив (для iPhone 14 Pro и новее), поддержкой Apple Log LUT и записью в Spatial Audio (требуется iPhone 16).

Технические требования: macOS 15.2 и новее для Mac на M1+, iOS 18.2 для устройств с A17 Pro/M1.
9to5mac.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
32👍25🔥7🤔3