Data Secrets
87K subscribers
6.48K photos
672 videos
20 files
2.75K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Media is too big
VIEW IN TELEGRAM
В Китае прошел забег роботов

Там сейчас проходят World Humanoid Robot Games, сегодня первый день. Это буквально олимпийские игры для роботов. 280 команд из 16 стран приехали посоревноваться в 26 дисциплинах. В их числе – бег.

Победил робот от Unitree, модель H1. Он пробежал достаточно бодро: 1500 метров за 6 минут 34 секунды. Человеческий рекорд на такой трассе – 3:26.

Правда, по пути гуманоид успел кого-то сбить, но, как говорится, и так сойдет 😳
Please open Telegram to view this post
VIEW IN TELEGRAM
😁16260🔥2414👾8👍43🤯3🗿3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
MetaAI выпустили DINOv3 – первую в мире vision foundation модель, которая обходит по качеству специализированные решения

Это универсальная открытая модель, которая подходит почти для любых задач компьютерного зрения: детекция, сегментация, depth estimation, dense prediction.

При этом на всех этих задачах она стабильно превосходит не только предыдущие foundation-модели, но и узкоспециализированные решения, заточенные на отдельные задачи (даже CLIP-based, SigLIP 2 и Perception Encoder). Это фактически исторический сдвиг.

Но это не единственная особенность DINOv3. Модель (внимание!) обучена вообще без разметки, то есть в режиме self-supervised learning. Собственно, это заложено в названии: DINO – DIstillation with NO labels.

Ядро – Vision Transformer. На вход огромный корпус изображений (более 2 миллиардов снимков) и ни одной аннотации, чистые пиксели. Обучение происходило по схеме студент/учитель:

1. На каждое изображение применяют набор аугментаций. Например, вырезают из него какие-то части (кропы).
2. Разные варианты изображения (разные кропы) поступают на вход студенту и учителю. Это две копии одной нейросети, но изначально с разными весами.
3. Студента учат воспроизводить предсказания учителя для кропов из одного и того же изображения, даже если сами кропы абсолютно разные. Лосс – кросс-энтропия между выходом студента и учителя, но градиент считают только по студенту.


Выглядит витиевато, но суть в том, что в процессе студент учится находить инвариантные признаки, устойчивые к преобразованиям. Например, модель понимает, что кошка на разных участках фотографии – всё та же кошка, а не новые объекты.

Как использовать на практике:
Вот тут лежит бэкбон. Это основная часть сетки, которую в большинстве случаев вам дообучать не придется. Он уже заморожен и готов к применению.
К нему цепляем адаптер. Это обычно небольшой дополнительный линейный слой или линейная голова. Адаптер преобразует фичи из бэкбона под конкретную задачу: классификацию, сегментацию, детекцию, depth estimation и тд.
Если задач сразу несколько, можно шарить фичи на лету. То есть стоимость и время инференса почти не увеличатся, а сетка будет выполнять для вас сразу несколько тасок.

Спасибо, Цукер, сегодня порадовал

Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤯132👍77🔥473261👏1😁1
В Claude Code добавили два новых режима работы

1. Пояснительный, когда агент объясняет свои действия шаг за шагом. Поможет разобраться, что он делает и почему. Полезно, если не хотите, чтобы после вайб-кодинга ваш проект стал для вас темным лесом.

2. Обучающий, когда модель пишет код с вами пошагово, а не генерирует готовый скрипт целиком сразу. Похоже на парное программирование с ментором.

Переключить режим можно в настройках или с помощью команды /output-style. Обучающий стиль также завезли в основной чат, там он доступен всем пользователям бесплатно.

Приятно 🍯

Документация
3208🔥68👍22🤔4🤯4😁2
Случайно наткнулись

Это статья 2018 года. Получается, всего 7 лет назад.

Если бы они тогда знали…
2😁173472115🗿76🔥4👍2
В ближайшем будущем рекомендации в X могут начать работать на Grok 4 Mini

Об этом написал Илон Маск. Он говорит, что они прямо сейчас тестируют новый алгоритм, и что он работают явно лучше.

Есть нюанс: чтобы раскатить такое на всех пользователей, потребуется около 20000 GPU, и даже при этом задержка обновления ленты значительно увеличится. Но Маск говорит, что игра «может стоить свеч».
👍10659🤯1810🗿5😁3🔥1
Хаха, зацените: внутренний мерч Anthropic

Кстати, дизайн придумал и реализовал агент Claudius (тот самый, который работал у них в офисе в вендинговом автомате)

Теперь срочно надо такую же 😛
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁319🔥7338👍14🦄9🗿7👀5❤‍🔥1👌1
Data Secrets
Пошел слух, что скоро выйдет DeepSeek R2 Якобы из внутренних каналов стартапа в сеть просочились упоминания о релизе между 15 и 30 августа и даже некоторые технические детали модели. Говорят, что это MoE на 1.2 триллиона параметров с новой техникой роутинга…
Оказалось, что DeepSeek откладывают запуск R2 не просто так, а как раз из-за перехода на те самые чипы Huawei Ascend 910

Об этом пишет FT со ссылкой на анонимные источники. Говорят, после бума релиза R1 китайские власти плотно взялись за DeepSeek и буквально заставили их перейти на отечественные чипы.

И вроде бы все ничего: на бумаге Ascend выглядят даже лучше H20 от Nvidia. Там и памяти побольше, и производительность заявлена неплохая. Но это все, видимо, в теории.

А на практике дипсику даже выделили команду инженеров Huawei, чтобы те помогли адаптировать всю инфру под новое железо, НО ни одного трейнлупа на этих чипах завершить так и не удалось.

Во-первых, из-за низкой надежности видеокарт, медленного соединения и хромого ПО. Во-вторых, из-за того что вся экосистема DeepSeek годами оптимизировалась именно под Nvidia. Например, у них там все на fp8, а 910 этот формат даже не поддерживает 🤷‍♂️

Короче сейчас, вроде как, Ascend оставили только для инференса, а обучать будут-таки на H20. Вот только жаль, что пока сыр до бор, время уже ушло…
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10180🫡33252216😁14🤯51🔥1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Мы как-то пропустили, но оказывается Hugging Face недавно тихо выпустили так называемые AI sheets

Это ни много ни мало мечта ML-инженера: инструмент позволяет интерактивно и очень быстро создавать и размечать датасеты почти под любую задачу.

Для этого надо просто выбрать доступную открытую модель (а вообще проект опенсорс, так что можно и закрытую, и свою собственную прикрутить при желании), задать текстовый промпт и получить готовый датасет. Затем его можно еще и отредактировать.

Ну и, конечно, можно загружать уже готовые датасеты, расширять их или менять. С мультимодальностью все тоже работает.

Легко запускается локально, инструкция лежит у них на гите.

github.com/huggingface/aisheets
5164🔥71👍32😁3🤔2
Появился новый бенчмарк, который оценивает способность ИИ предсказывать будущее – Prophet Arena

Идея очень крутая. Во-первых, это в целом довольно занятный способ оценивать способности моделей. Тут тебе и вероятностное мышление, и стратегическое, и критическое, и способность улавливать причинно-следственные связи и закономерности.

Во-вторых, с точки зрения бенчмаркинга это прямо идеальный сетап. Такой тест не перенасыщается (потому что в мире что-то происходит постоянно), а еще тут совсем нет возможности лика данных: для предсказаний специально используются еще не произошедшие события.

Работает это так: агенты сами собирают новостной контекст и анализируют данные в Интернете, а затем на основе всего найденного выдвигают свои прогнозы.

Ну и как только событие случается в реальном мире, подсчитываются метрики. Две основные – это реальный средний доход от ставок на событие и обычная статистическая точность Брайера.

Пока лидерборд такой:
3 место – Gemini 2.5 Pro
2 место – o3
1 место – GPT-5
(Ну и гран-при – Симпсоны)

А по средней доходности, кстати, пока лидирует o3-mini. Интересно, что многие модели склонны демонстрировать какие-то определенные личностные байесы. Например, кто-то постоянно принимает более консервативные решения, а кто-то более рисковые.

Лидерборд полностью и актуальные ставки моделек на разные события (в том числе на спорт, естественно) смотрите тут: www.prophetarena.co/
2113👍45🔥24😁18
Наконец-то стали известны названия тех самых профессий будущего, которые создает ИИ на рынке труда
1😁552❤‍🔥3320139🔥6🕊5👍2🗿1
Claude Opus 4 и 4.1 впервые в мире получили функцию «завершения диалога»

Теперь, если вы слишком долго будете пытаться выбить из бота что-то запрещенное или не прекращая оскорблять кого-то, включая саму модель, она может решить просто не говорить с вами дальше и завершить диалог.

Говорят, что большинство пользователей никогда с таким не столкнется, потому что функция активируется только как последнее средство, когда все попытки перенаправить диалог в конструктивное русло не дали результата. И тем не менее, это вообще первый в мире случай, когда у модели появляется что-то типа права выбирать, «хочет» ли она вести диалог.

И Anthropic утверждают, что делают это НЕ потому что наделяют ИИ сознанием. В то же время, они вводят термин «model welfare», то есть «благополучие модели» и не отрицают возможности обсуждать, например, стресс моделей или их поведенческие реакции в контексте элаймента и безопасности.

www.anthropic.com/research/end-subset-conversations
1🗿10646👍3631😁1211🔥7🤯22👌1
Media is too big
VIEW IN TELEGRAM
Qwen только что релизнули собственную Image Edit модель

В основе Qwen Image 20B – она была выпущена 4 августа. А Edit версия – это моделька специально для редактирования изображений: всяких там изменений стиля, корректировок деталей, добавления или удаления объектов, изменение поз и прочего.

Сам Qwen Image – это мультимодальный диффузионный трансформер (MMDiT). А Edit – затюненная версия, в которую добавили к тому же двойное кодирование входного изображения: VAE Encoder для контроля визуала и Qwen2.5-VL для семантического понимания, то есть управления смыслом изменений.

Ну и результаты довольно приятные. По крайней мере, по первым примерам. К тому же в чате можно попробовать бесплатно.

Ну и конечно, все как всегда в опенсорсе (веса, гитхаб)

Короче, теперь у Qwen сформировалась настоящая полноценная экосистема моделей на любой вкус и задачу, с чем мы нас всех и поздравляем
7🔥167👍3126🤗4👏3😁2🤯2
Ха, Meta* открыли в своей новой лаборатории «обычную» вакансию не за миллионы долларов

Позиция – Product Operations Manager. Ставка – всего лишь 122 000-177 000 $ в год.

То есть, по самым грубым рассчетам, «бедняга» будет получать в десятки раз меньше всех своих коллег 🥹

Непонятно, как вообще выживать на такую сумму…

www.metacareers.com/jobs/717327034414949
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁120😎45🤯159👍41
Сейчас будет интересная история про ИИ и физику

В Caltech есть специальная команда физиков, которая занимается поиском самых точных способов измерить гравитационные волны – крошечные колебания пространства-времени, возникающие при столкновениях черных дыр и других космических катастрофах.

Для этих целей был даже построен гигантский детектор LIGO, способный замечать изменения длины тоннелей в миллиард раз меньше атома. Тем не менее, даже точность LIGO ограничена, и его чувствительность ученые пытались повысить кучу лет подряд.

Так вот в апреле этого года они решили попробовать новый метод и применить ИИ для поиска новых конфигураций прибора. Использовались, если что, специализированные системы, специально заточенные под многомерную оптимизацию и перебор вариантов.

И тут начались странности. Алгоритмы начали буквально фантазировать и вместо знакомых ученым симметричных схем выдавать что-то с первого взгляда совершенно хаотичное. В общем, в глазах исследователей это выглядело как галлюцинации.

Но проходит несколько месяцев тестов, и тут одна из таких инопланетных схем, выдуманная ИИ, вдруг повышает чувствительность детектора на 10–15%. Для фундаментальной науки это скачок на годы вперёд.

Это не все. Система не просто нашла лучшие решения, а внезапно переоткрыла старый советский закон, о котором научное сообщество почти забыло. Дело в том, что он был открыт еще несколько десятилетий назад, но до этого дня никто не пытался реализовать эту идею на практике. И тут в 2025 году ее воссоздала уже ИИ-система 🚨

Ну разве не в удивительное время живем?

www.wired.com/story/ai-comes-up-with-bizarre-physics-experiments-but-they-work/
Please open Telegram to view this post
VIEW IN TELEGRAM
2269🤯128🔥64👍12😁9😍8👀5🤔442🤨1
Breaking: Илон Маск положительно высказался о GPT-5

P.S. На самом деле умение модели говорить «не знаю» действительно впечатляет.
321👍111😁69🔥15🤯7❤‍🔥4😎1
Сны при температуре 38:
1😁225🔥49👍11🤩97
У Авито вышло очень информативное интервью про ИИ в бизнесе, архитектуры и социальные эффекты от генеративок

Управляющий партнер Авито Иван Гуз без приукрас и очень емко ответил сразу на много основополагающих вопросов. Наш топ-3 вопрос-ответ, кратко:

1️⃣ Произошло ли массовое принятие технологии?
Уровень использования ИИ в качестве помощников растет экспоненциально. То есть сомнений в том, что все будут использовать искусственный интеллект, не возникает.


2️⃣ Какая окупаемость продуктов на базе генеративного ИИ?
Есть технологии, которые живут под капотом, улучшают всю нашу рекламную модель и реально окупаются. Это трансформеры, за счет которых релевантность всех наших поисковых выдач, рекомендаций существенно возрастает.

В других сценариях мы, например, автоматически рекомендуем описание товара по картинкам, которые были загружены. Здесь GenAI помогает сокращать трудозатраты, потому что большой объем информации изначально создает за пользователя.

Но есть агенты, их мы только начинаем тестировать. Мы верим, что мир в итоге придет к использованию агентского ИИ, поэтому и мы продолжаем идти в этом направлении.


3️⃣ На каком этапе развития искусственного интеллекта мы сейчас находимся?
Текущие архитектуры достигли определенного предела, и надо думать про создание не больших языковых моделей, а про создание так называемых world models, то есть моделей, которые понимают не только слова.


Интервью полностью читаем здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤨6828👍20🗿15😁13🔥6👨‍💻1😎1
Вышел DeepSeek-V3.1

Веса base модели уже лежат на HF, вот тут, но официального анонса еще нет. Пока ждем, вот что уже известно:

– Увеличили контекст до 128к токенов
– Знания теперь до июля 2024
– Архитектура не изменилась, но вроде как теперь модель гибридная

Несмотря на последний пункт, пока релиз выглядит как небольшой апдейт. Ждем бенчмарки и официальный блогпост 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍108🔥28🐳2497👌21😁1🤗11