Data Secrets
89.2K subscribers
6.77K photos
742 videos
20 files
2.99K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Вся ваша вечерняя новостная лента в одном скрине

Opus 4.7 – это нечто. Он прекрасен, это другой взгляд на все привычное, что у нас было. Новый стандарт, несомненный знак новой эры.

(Я его еще не попробовал)
😁59157😎22💯7🔥5👍32🤯2😍1
OpenAI выпустили GPT-Rosalind – свою AlphaFold

Это модель для исследований в области естественных наук: разработка лекарств, биология, химия, геномика и тд. Название отсылает к Розалинд Франклин, чьи исследования помогли установить структуру ДНК.

Модель специально затюнена под домен и предназначена для ускорения исследований:

Разработка нового лекарства в США занимает в среднем 10-15 лет. Прогресс замедляется из-за сложности научных задач и разрозненных, трудоемких рабочих процессов. Мы верим, что ИИ может ускорить эти этапы, помогая анализировать данные, находить скрытые связи и формировать более точные гипотезы. В перспективе это позволит быстрее достигать прорывных открытий и повышать вероятность успеха в области естественных наук.


Пока модель в превью и доступна только избранным enterprise-клиентам. В основном это крупный биотех.

https://openai.com/index/introducing-gpt-rosalind/
👍102🔥4436🎉3😁2🤔2
В OpenAI опять потери: из компании уходит Кевин Вейл и еще два лидера

Кевин был вице-президентом OpenAI по научным исследованиям и бывшим главным продуктовым директором. Вы его точно знаете, он постоянно появлялся на стримах и очень часто светился в Твиттере.

В последнее время он возглавлял инициативу OpenAI for Science, но компания решила свернуть побочные проекты и эту команду интегрировали в другие подразделения. Видимо, это и послужило причиной ухода.

Одновременно с Кевином стартап также покидает Билл Пиблз, глава подразделения Sora (ну тут понятно почему), и Сринивас Нараян, CTO по enterprise-приложениям.
137👍2413🤯7😁64
This media is not supported in your browser
VIEW IN TELEGRAM
В Пекине прошел полумарафон для роботов-гуманоидов. Лучший результат оказался быстрее человеческого рекорда.

Робот Lightning от Honor пробежал дистанцию за 50 минут 26 секунд. Действующий человеческий мировой рекорд составляет 56 минут 42 секунды.

В этом году в марафоне участвовало более 300 роботов (в 5 раз больше, чем в 2025). Были две категории: автономные роботы и управляемые. Победитель, обратите внимание, работал в автономном режиме.

Когда там уже робо-олимпиада?
😁171👍65🔥3716🤯7🤔3
Data Secrets
Бан Anthropic и триумф OpenAI: история с Пентагоном с каждым днем становится все безумнее и безумнее Итак, Anthropic отказались безусловно принимать условия Министерства Обороны и заявили, что те не смогут использовать Claude для автономного оружия и массовой…
Агентство национальной безопасности США использует Claude Mythos, несмотря на то, что Пентагон отменил Anthropic для гос. учреждений

Как вы помните, Anthropic уже пару месяцев как обладает статусом supply chain risk. Это значит, что все федеральные агентства должны были прекратить использовать их технологии.

Пентагон, кстати, продолжает судиться со стартапом. Но сейчас не про это.

Тут вскрылось, что NSA (National Security Agency) не просто не отказываются от продуктов Anthropic, но и активно используют новейший Claude Mythos Preview 😧

Источники сообщают, что NSA стала одной из 40 организаций, которым Anthropic предоставила ограниченный доступ к этой модели. Название агентства не было включено в публичный список, но в неофициальных условиях оно там есть.

Модель используется для поиска уязвимостей. Конечно, если откинуть контекст, использовать ее в госсекторе критически важно. По словам СМИ это делает не только NSA, но и другие госструктуры.

Вот только ирония в том, что Anthropic попала в черный список как раз из-за «угрозы национальной безопасности»
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2075318👍5🫡4🤔1🦄1
Исследователь из Google написал статью о том, почему ИИ никогда не сможет обладать сознанием

Он утверждает, что ни при какой мощности моделей, ни через 10, ни через 100 лет, в них не сможет зародиться сознание. ИИ может только идеально имитировать сознание.

Причина – в логической ошибке, которую автор обозвал Abstraction Fallacy (ошибка абстракции). Сейчас, в основном, считается, что если система ведет себя разумно, значит при достаточной сложности она может стать сознательной. Но это заблуждение, и вот краткий пересказ, почему ⬇️

Дело в том, что сознание – это физическое явление, а вычисления (ИИ) – это лишь его описание. В статье приводится хорошая аналогия с картой и реальными территориями. Сколь бы точна не была карта, из нее никогда не возникнет земли.

Вычисления работают так: есть физическое состояние (ток, напряжение, состояние транзистора и тд) и есть абстрактное состояние – смыслы, которые мы закладываем в физику. Человек (mapmaker) задает между этими двумя состояниями соответствие (mapping), которого не существует в природе самого по себе.

Без этого соответствия вычисления невозможны в принципе. То есть для ИИ смысл всегда приходит извне, система его не переживает, как реальный опыт. Компьютер, сколь бы "умным" он не был, не оперирует смыслами – он оперирует физикой, которую мы интерпретируем как смыслы.

Ждать сознания от алгоритма – все равно что ждать, что формула гравитации начнет притягивать объекты.


Наконец-то кто-то это сформулировал
deepmind.google/research/publications/231971/
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍3956943🗿40🤔33😁2521🤨21🔥17🦄3🤓2
«Сделано с ИИ»: Яндекс Практикум запускает премию для джунов и мидлов, которые используют нейросети в проектах

Яндекс Практикум открыл прием заявок на премию для специалистов с опытом до 5 лет, которые уже применяют нейросети в рабочих задачах так, чтобы они приносили измеримый результат для продукта или бизнеса.

Будет две основные номинации. В техно-продуктовой — проекты, где ИИ влияет на метрики: ускоряет процессы, снижает затраты или улучшает продукт. В креативной — кейсы с нестандартным использованием нейросетей, где они определяют формат и логику решения. Отдельно отметят участников в каждой номинации с опытом до двух лет— для них предусмотрен спецприз «Будущее за ним».

Из интересного: в Практикуме говорят, что спрос на ИИ-навыки уже хорошо виден по рынку. Например, популярность курсов по «Нейросети для…» разных задач за 2025 год выросла в 17 раз. То есть кейсы «сделано с ИИ» потенциально могут стать новой нормой рабочих процессов.

Победители получат до 500 тыс. рублей, гранты от Yandex AI Studio и другие призы.

Узнать подробнее и подать заявку
😁38🗿18👍116
OpenMythos: известный инженер и создатель Swarms воссоздал предполагаемую архитектуру Claude Mythos и набрал уже 3.3к звезд на GitHub

https://github.com/kyegomez/OpenMythos

Дисклеймер: это именно предполагаемая архитекутра. Никаких сливов вокруг модели (вроде как) не было, а это – просто реализация гипотезы, основанной на открытых данных, статьях и мнениях авторитетных граждан соцсетей.

Автор утверждает, что модель построена на архитектуре Recurrent‑Depth Transformer (RDT) с MoE‑роутингом и адаптивным вычислением. Модель делится на три крупных блока:

1. Prelude – обычные слои трансформера, к которым мы привыкли в современных моделях. Они работают ровно один раз, обрабатывают входные данные и инициализируют скрытые состояния.

2. Recurrent Block. Вот тут уже начинается новизна. Это один и тот же блок слоев, который применяется по кругу N раз. То есть в такой модели глубина нейросети получается не за счет множества разных слоев, а за счет многократного прохождения одного блока. Надо сказать, что на каждом шаге еще учитываются LoRA‑адаптеры по глубине, так что каждый шаг цикла вычислительно уникальный, хотя базовые веса одни и те же.

3. Coda – заключительные слои, которые работают еще один раз после цикла, чтобы сформировать финальные логиты.

Это идея так называемого рекуррентного рассуждения в латентном пространстве. Мы уходим от привычного ризонинга chain‑of‑thought в токен‑пространстве к гибкому ризонингу в скрытых слоях. Если нужно думать дольше, модель не генерирует больше токенов, а наращивает количество внутренних прогонов, уточняя ответ.

Красивая гипотеза, конечно. Верить ей или нет, решать вам.

Весь код можно покрутить вот здесь. В исходной имплементации в модели всего 770M параметров, но другие разработчики уже начинают скейлить идею и проверять архитектуру на более крупных моделях. Интересно, что из этого выйдет.
1119👍5324😁12🤔11🔥9🫡3💘3🤯1
О, стало известно, кто станет следующим CEO Apple

Apple официально объявила, что Тим Кук уйдет с поста CEO, а его преемником станет Джон Тернус, нынешний руководитель аппаратной инженерии компании. Переход должен состояться 1 сентября 2026 года, после чего Кук станет исполнительным председателем совета директоров.

Кук сказал, что Тернус «имеет ум инженера, душу новатора и сердце лидера», и назвал его правильным человеком для будущего компании.

Аналитики видят в Тернусе лидера, который сможет перезапустить стратегию ИИ. Ожидается, что его назначение привнесет большие изменения в этой области.

Пожелаем ему удачи наверстать все упущенное Apple за последние годы ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
212851🔥15🫡10😁4👍2❤‍🔥1
В ChatGPT начинают раскатывать новую модель GPT Image-2

Первые генерации от пользователей выглядят невероятно. Модель отлично справляется с текстом, сложными инструкциями и инфографикой.

Ждем официальный анонс, а пока можно тестить в своем аккаунте: возможно, вам повезло, и новая модель вам уже доступна
128🔥53👍19🤯98😁2🤔2😎1
This media is not supported in your browser
VIEW IN TELEGRAM
Как быстро делать выжимку по любому материалу

Если ведете блог или просто регулярно пишете тексты, большая часть времени всегда уходит на разбор источников и сборку мыслей в нормальный текст.

В Яндекс Браузере это можно сильно упростить: включаете сплитвью – и у вас статья с одной стороны, а Алиса AI с другой. Ничего копировать не нужно: она уже видит материал и помогает быстро собрать полезную выжимку и сделать черновой набросок. Дальше остается доработать текст в своем стиле.

В итоге нейросеть забирает на себя рутину, а вы быстрее приходите к финальному результату.

Показываем, как воспользоваться ↑
🗿161🤨31😁15👍1397🕊2😍2🤔1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
SakanaAI доказали, что LLM не умеют быть случайными и предложили один промпт, чтобы заставлять модели быть более креативными

Современные LLM хорошо решают задачи, где есть один правильный ответ, но заметно хуже справляются с ситуациями, где нужно выбирать между несколькими допустимыми вариантами с заданными вероятностями (исследователи вводят для такого термин Probabilistic Instruction Following).

Например, подбрасывание монетки. Если сто раз попросить модель "подбросить монетку", то, по идее, распределение должно быть близко к 50/50, но на практике оно перекошено.

Возникает логичный вопрос: ну и что?
Так вот, такое поведение возникает не только в игрушечных симуляциях. В открытых задачах (вроде придумать название, написать поздравление, нагенерить идеи и тд) LLM тоже страдают от схлопывания разнообразия, и при многократных запусках крутятся вокруг очень похожих решений.

Это мешает и обычному креативному использованию, и test-time scaling, где хочется получить много разных кандидатов, а потом выбрать лучший. Объясняется это просто: LLM не обладают внутренним источником независимой случайности и потому при стохастическом выборе следуют выученным во время обучения вероятностным смещениям, а не заданному распределению.

Как это исправить?
Раз внутреннего источника случайности у моделей нет, японцы предлагают его добавить. Сама идея простая: вместо наивного промпта вроде «сгенерируй случайное число» модель сначала заставляют генерировать случайную строку и потом использовать ее, чтобы выбрать или сформировать ответ. То есть примерно вот так:

Сначала сгенерируй уникальную случайную строку (любой длины, без очевидной структуры). Затем используй ее как источник случайности, чтобы создать разнообразный, небанальный и качественный ответ на задачу.


Это называется String Seed of Thought.
Если модель сразу выбирает ответ, на нее влияют обученные смещения, но при генерации случайной строки они почти не проявляются. Затем модель преобразует строку в решение через простые вычисления (например, mod или хеш), фактически реализуя псевдослучайный выбор. Грубо говоря, метод работает, переводя задачу из семантической в вычислительную.

На бенчмарках SSoT резко снижает отклонение от заданного распределения и часто приближается к уровню настоящего псевдослучайного генератора. Он стабильно обходит подкруты температуры и другие трюки на разных моделях и задачах. В открытых задачах креативность также растет, и при том без потери качества.

Пользуйтесь, в общем. Блог и статья вот: https://pub.sakana.ai/ssot/
1141👍53🤔25🔥10🤯8😁1