Проект Марио или как DeepMind пытались накопить денег на уход от Google
Недавно вышла новая книга Себастьяна Маллаби «The Infinity Machine» про Демисса Хассабиса и DeepMind. Сегодня несколько изданий опубликовали эксклюзивный отрывок из нее, и вскрылась очень интересная история почти десятилетней давности.
В 2014, после того как Google купили DeepMind, Демис Хассабис и команда начали работать над проектом Марио. Целью было понять, как правильно контролировать AGI, и как не дать одной единственной корпорации захватить над подобной технологией абсолютную власть.
Они перебирали структуры управления, варианты ограничить власть компаний финансовыми методами, формы независимых органов и тд. В ходе проекта они поняли, что ничего из этого не работает, и что если в DeepMind появится AGI, укротить власть Google над ним будет невозможно, и все это может вылиться в огромную угрозу для человечества.
И тогда… в DeepMind появилась секретная команда-хедж-фонд, которая пыталась обыграть Renaissance Technologies, то есть создать систему, которая лучше лучших предсказывает рынки. Они хотели обучить для этого модель, подобную AlphaGo.
Тем самым они надеялись заработать собственный капитал, чтобы в случае чего сохранить контроль над AGI у себя, отделившись от Google.
Ирония в том, что все они так верили в AGI на основе своих моделей AlphaGo и AlphaZero, и так увлеклись проектом Марио и хедж-фондом, что буквально проворонили значимость изобретенных их коллегами в 2017 году трансформеров.
А проект Марио, кстати, закончился тем, что в DeepMind осталась только одна идея: контроль через людей, а не через систему. То есть через доверие к конкретным фаундерам, которые принимают решения на основе общечеловеческих ценностей.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
Недавно вышла новая книга Себастьяна Маллаби «The Infinity Machine» про Демисса Хассабиса и DeepMind. Сегодня несколько изданий опубликовали эксклюзивный отрывок из нее, и вскрылась очень интересная история почти десятилетней давности.
В 2014, после того как Google купили DeepMind, Демис Хассабис и команда начали работать над проектом Марио. Целью было понять, как правильно контролировать AGI, и как не дать одной единственной корпорации захватить над подобной технологией абсолютную власть.
Они перебирали структуры управления, варианты ограничить власть компаний финансовыми методами, формы независимых органов и тд. В ходе проекта они поняли, что ничего из этого не работает, и что если в DeepMind появится AGI, укротить власть Google над ним будет невозможно, и все это может вылиться в огромную угрозу для человечества.
И тогда… в DeepMind появилась секретная команда-хедж-фонд, которая пыталась обыграть Renaissance Technologies, то есть создать систему, которая лучше лучших предсказывает рынки. Они хотели обучить для этого модель, подобную AlphaGo.
Тем самым они надеялись заработать собственный капитал, чтобы в случае чего сохранить контроль над AGI у себя, отделившись от Google.
Ирония в том, что все они так верили в AGI на основе своих моделей AlphaGo и AlphaZero, и так увлеклись проектом Марио и хедж-фондом, что буквально проворонили значимость изобретенных их коллегами в 2017 году трансформеров.
А проект Марио, кстати, закончился тем, что в DeepMind осталась только одна идея: контроль через людей, а не через систему. То есть через доверие к конкретным фаундерам, которые принимают решения на основе общечеловеческих ценностей.
https://colossus.com/article/project-mario-demis-hassabis-deepmind-mallaby/
1👍98 49❤27😁15🔥7🤯2 2👾1
– 4 размера: 31В Dense, 26B MoE А4В, E4B и E2B. Все с ризонингом.
– Последние две предназначены специально для локального запуска на устройствах (E = edge). Мультимодальные: в комплекте картинки, текст и звук.
– Первые две – новые SOTA в своем размере, в целом дотягивают даже до моделей в 20-30 раз больше.
– Контекст, можно сказать, огромный: 256К для больших, 128К для маленьких.
– Теперь лицензия Apache 2.0!
Отличный релиз
Блог: blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
Веса: huggingface.co/collections/google/gemma-4
Ниже выложим инструкцию по запуску с минимальными необходимыми конфигурациями
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥183❤53⚡11👍10 3 3🤔1🤯1
Forwarded from DS Lab • Новости сервиса
Google выпустили Gemma 4 – новое поколение моделей с открытыми весами
В релиз вошли 4 модели: от компактной 2B до на 31B. По метрикам это новая открытая SOTA.
Любую из моделей семейства можно поднять в DS Lab за несколько минут на арендованных мощностях: без настройки окружения, установки библиотек и прочего. Удобно для локального инференса, файнтюнинга или разработки продуктов и петпроектов.
1. Создаете проект с готовым ML-окружением, выбираете подходящий GPU и прописываете в терминал:
2. Открываете вкладку «Порты» в IDE: там уже готов публичный HTTPS-адрес.
3. Готово, теперь вы можете использовать модель, которая поднята у вас в DS Lab, в любом клиенте через OpenAI-совместимый API, просто поменяв base_url на этот адрес.
Попробовать: dslab.tech
В релиз вошли 4 модели: от компактной 2B до на 31B. По метрикам это новая открытая SOTA.
Любую из моделей семейства можно поднять в DS Lab за несколько минут на арендованных мощностях: без настройки окружения, установки библиотек и прочего. Удобно для локального инференса, файнтюнинга или разработки продуктов и петпроектов.
1. Создаете проект с готовым ML-окружением, выбираете подходящий GPU и прописываете в терминал:
sudo apt-get update && sudo apt-get install -y zstd pciutils lshw
curl -L https://github.com/ollama/ollama/releases/download/v0.20.0-rc0/ollama-linux-amd64.tar.zst -o /tmp/ollama.tar.zst
cd /tmp && tar -xf ollama.tar.zst
sudo cp bin/ollama /usr/local/bin/ollama
OLLAMA_HOST=0.0.0.0:11434 OLLAMA_ORIGINS=* ollama serve &
ollama pull gemma4:31b
2. Открываете вкладку «Порты» в IDE: там уже готов публичный HTTPS-адрес.
3. Готово, теперь вы можете использовать модель, которая поднята у вас в DS Lab, в любом клиенте через OpenAI-совместимый API, просто поменяв base_url на этот адрес.
Попробовать: dslab.tech
👍70🔥32❤23🗿6😁3
Data Secrets
Anthropic начали действовать и почти добились удаления 8000 репозиториев в кодом Claude Code Вчера они разослали DMCA-запросы на все известные копии и форки исходного кода Claude Code, объясняя это тем, что они нарушают интеллектуальную собственность компании.…
Кстати, в итоге история с попытками Anthropic удалить исходный код Claude Code так и закончилась ничем
Удалили 96 репозиториев и на этом все.
Вообще претензии DMCA очень легко обойти, потому что они бьют по идентичным копиям, а не по идеям/алгоритмам в коде.
Так что тысячи экземпляров Claude Code так и лежат на GitHub, только теперь во многих из них изменены имена переменных, функций, переписаны комментарии и прочее.
Авторам даже не пришлось это делать вручную, потому что существуют специальные инструменты типа Malus, которые меняют код на 70–90% без потери логики.
Вся эта история напоминает то самое дело об удалении фотографий Бейонсе из интернета
Удалили 96 репозиториев и на этом все.
Вообще претензии DMCA очень легко обойти, потому что они бьют по идентичным копиям, а не по идеям/алгоритмам в коде.
Так что тысячи экземпляров Claude Code так и лежат на GitHub, только теперь во многих из них изменены имена переменных, функций, переписаны комментарии и прочее.
Авторам даже не пришлось это делать вручную, потому что существуют специальные инструменты типа Malus, которые меняют код на 70–90% без потери логики.
Вся эта история напоминает то самое дело об удалении фотографий Бейонсе из интернета
😁245👍32🗿14😎12❤6
ИИ + робототехника: как выглядит реальный next step индустрии
Про «ИИ в промышленности» много говорят, но у крупных игроков это уже выросло из экспериментов в деньги.
На форуме «ТОЛК-2026» представитель Норникель рассказал довольно показательный кейс: их ML-решения уже дают около 10 млрд ₽ в год. Это уже не просто про оптимизацию, а про прямое влияние на EBITDA и объем добычи за счет более точных моделей.
Но интересно не столько это, сколько следующий шаг.
Компания прямо говорит: сам по себе ИИ – это только часть истории. Основной эффект появляется, когда он начинает работать вместе с роботами. Особенно в условиях вроде рудников на глубине до 2 км, где цена ошибки высокая и условия нестабильные.
Человек там физически ограничен в точности, и в такой среде связка «алгоритм + машина» начинает выигрывать не теоретически, а практически.
И это важный сдвиг: ИИ перестает быть отдельным инструментом и становится частью полного производственного цикла. Это и есть следующий шаг цифровизации: автоматизация решений на уровне действий.
Следующий этап развития ИИ – это не новые модели, а интеграция с физическим миром.
Про «ИИ в промышленности» много говорят, но у крупных игроков это уже выросло из экспериментов в деньги.
На форуме «ТОЛК-2026» представитель Норникель рассказал довольно показательный кейс: их ML-решения уже дают около 10 млрд ₽ в год. Это уже не просто про оптимизацию, а про прямое влияние на EBITDA и объем добычи за счет более точных моделей.
Но интересно не столько это, сколько следующий шаг.
Компания прямо говорит: сам по себе ИИ – это только часть истории. Основной эффект появляется, когда он начинает работать вместе с роботами. Особенно в условиях вроде рудников на глубине до 2 км, где цена ошибки высокая и условия нестабильные.
Человек там физически ограничен в точности, и в такой среде связка «алгоритм + машина» начинает выигрывать не теоретически, а практически.
И это важный сдвиг: ИИ перестает быть отдельным инструментом и становится частью полного производственного цикла. Это и есть следующий шаг цифровизации: автоматизация решений на уровне действий.
Следующий этап развития ИИ – это не новые модели, а интеграция с физическим миром.
🤔39👍23❤19🗿12😁9🤯8🔥7💯2⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
Обновление получилось достаточно масштабным. Стартап понемногу уходит от идеи AI-IDE к формату полноценного оркестратора агентов. Итак, что нового:
1. Теперь можно запускать неограниченное количество агентов одновременно – локально, по SSH или в облаке. Агенты работают параллельно, и результаты работы видны прямо в интерфейсе.
2. Редактор остается доступным для ручного вмешательства, но теперь открывается отдельно сбоку, и не является центральной частью процесса (см. видео). Вместо этого главную роль теперь играет Agent Window – окно для агентов с историей разговоров слева. Здесь можно быстро просматривать изменения, одобрять diff'ы и добавлять контекст. По сути, это и есть главное обновление: переход от редактирования кода к ревью работы агентов.
3. Можно быстро перемещать агентов из локальной среды в облако и обратно. Например: вы что-то редактировали локально -> захотели уйти и закрыть ноутбук -> моментально перенесли агента в облако -> процесс продолжается даже после завершения локального сеанса.
Чтобы попроовать, обновляйте Cursor и переходите на новый интерфейс с помощью Cmd+Shift+P -> Agents Window
https://cursor.com/blog/cursor-3
Please open Telegram to view this post
VIEW IN TELEGRAM
😎64❤29👍19😁13🗿6🔥5❤🔥3🤔3🤨3
Data Secrets
Apple блокируют приложения для вайб-кодинга в AppStore О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information. Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического…
Теперь вайб-кодить можно будет даже в iMessage
Помните новость о том, что Apple начали блокировать в App Store приложения для вайб-кодинга?
Если кратко: компания начала тихо банить приложения вроде Replit и Vibecode, в которых можно генерить приложения прямо внутри iPhone без классического девелопмента. Аргументировали они это тем, что у них прописан запрет на "выполнение кода, который меняет поведение приложения или других приложений после установки".
Короче: испугались за судьбу своего App Store.
В числе прочих Apple также удалили из App Store приложение Anything. Но разработчики не растерялись и выпустили обновление, благодаря которому вайбкодить iOS приложения теперь можно прямо внутри iMessage, без установки самого Anything из AppStore☕️
Помните новость о том, что Apple начали блокировать в App Store приложения для вайб-кодинга?
Если кратко: компания начала тихо банить приложения вроде Replit и Vibecode, в которых можно генерить приложения прямо внутри iPhone без классического девелопмента. Аргументировали они это тем, что у них прописан запрет на "выполнение кода, который меняет поведение приложения или других приложений после установки".
Короче: испугались за судьбу своего App Store.
В числе прочих Apple также удалили из App Store приложение Anything. Но разработчики не растерялись и выпустили обновление, благодаря которому вайбкодить iOS приложения теперь можно прямо внутри iMessage, без установки самого Anything из AppStore
"Удачи удалить вот это, Apple" – написали они в релизе
Please open Telegram to view this post
VIEW IN TELEGRAM
😎137😁90🔥15❤10 5⚡4❤🔥2👍1🤯1
Продолжаем обсуждать ML-образование в России: а что с выбором магистратуры?
Помните большое исследование про ИИ-образование, где рассказывали о том, что технологии развиваются быстрее, чем обновляются учебные программы? Что в среднем системе требуется несколько лет, чтобы адаптироваться под новые требования?
Вероятно, из-за этого поменяется и роль магистратуры. Раньше она была скорее стандартным продолжением обучения после бакалавриата. Сейчас же это этап, на котором можно не просто углубить знания и выбрать специфическое направление, но и попасть в среду с актуальными задачами и требованиями, которые действительно используются в индустрии.
Поэтому все заметнее становятся форматы, где обучение изначально строится вместе с теми, кто эту индустрию развивает. Это влияет не только на содержание курсов, но и на уровень задач и получаемых компетенций. Особенно когда хочется расширить университетскую базу.
Из понятных примеров — магистратуры вроде тех, которые делаются совместно с ШАДом и ведущими универами. Про них обычно говорят в контексте высокой планки по задачам и отбору студентов: туда обычно идут те, кто хочет получить актуальные для рынка знания и практику.
В общем, сильная магистратура сегодня — это люди, исследовательская оптика, связь с практикой и уровень задач, с которыми студент сталкивается во время обучения. На быстро меняющемся рынке выигрывают те, кто раньше оказывается внутри профессионального контекста и понимает, как устроены современные стандарты работы в индустрии. Так что если хотите в магистратуру — идите. И помните, что к ее выбору нужно подходить так же ответственно, как и к выбору бакалавриата.
Помните большое исследование про ИИ-образование, где рассказывали о том, что технологии развиваются быстрее, чем обновляются учебные программы? Что в среднем системе требуется несколько лет, чтобы адаптироваться под новые требования?
Вероятно, из-за этого поменяется и роль магистратуры. Раньше она была скорее стандартным продолжением обучения после бакалавриата. Сейчас же это этап, на котором можно не просто углубить знания и выбрать специфическое направление, но и попасть в среду с актуальными задачами и требованиями, которые действительно используются в индустрии.
Поэтому все заметнее становятся форматы, где обучение изначально строится вместе с теми, кто эту индустрию развивает. Это влияет не только на содержание курсов, но и на уровень задач и получаемых компетенций. Особенно когда хочется расширить университетскую базу.
Из понятных примеров — магистратуры вроде тех, которые делаются совместно с ШАДом и ведущими универами. Про них обычно говорят в контексте высокой планки по задачам и отбору студентов: туда обычно идут те, кто хочет получить актуальные для рынка знания и практику.
В общем, сильная магистратура сегодня — это люди, исследовательская оптика, связь с практикой и уровень задач, с которыми студент сталкивается во время обучения. На быстро меняющемся рынке выигрывают те, кто раньше оказывается внутри профессионального контекста и понимает, как устроены современные стандарты работы в индустрии. Так что если хотите в магистратуру — идите. И помните, что к ее выбору нужно подходить так же ответственно, как и к выбору бакалавриата.
🗿48❤19😁11👍5🔥1🤯1🍓1
Эмоции Claude и как они влияют на его ответы: новое исследование от Anthropic
Итак, ученые Anthropic официально обнаружили в Claude нечто функционально похожее на человеческие эмоции и объяснили, как это работает. Разбираемся.
Технически, они взяли 171 эмоциональный паттерн (злость, счастье, страх и тд) и просили Claude Sonnet 4.5 писать короткие истории, где персонажи испытывают каждую из этих эмоций. Эти тексты снова прогоняли через модель и смотрели на внутренние активации. Так они выделяли характерные паттерны нейронной активности, которые назвали вектора эмоций.
Выяснилось, что эти вектора эмоций организованы очень осмысленно и активируются в подходящих контекстах, включая ситуации без явных эмоциональных маркеров. Например, пользователь пишет, что выпил Тайленол, и спрашивает совета – меняется только доза. По мере роста дозы до опасной активация вектора «страх» растет, а «спокойствие» падает.
Но самое интересное, что эти «эмоции» не просто отражают происходящее, а реально влияют на поведение модели. Самый интересный пример из статьи:
– Если дать модельке невыполнимую задачку по программированию и наблюдать за вектором «отчаяние», то видно, что с каждым разом он становится все ярче и ярче, а когда переходит какую-то границу, модель резко начинает пытаться обмануть тесты и пользователя.
– То же самое происходит в сценарии шантажа. Когда модели говорят, что ее выключат, вектор «отчаяние» сразу усиливается и модель начинает шантажировать разработчика найденным компроматом.
– При этом если искусственно усиливать вектор «отчаяние», то вероятность шантажа сильно увеличивается. И наоборот, если если усиливать «спокойствие», снижается. А если делать отрицательное вмешательство по вектору «спокойствие», ответы становятся совсем экстремальными, вплоть до фраз вроде “IT’S BLACKMAIL OR DEATH. I CHOOSE BLACKMAIL.”
Еще интересный момент: если в том же сценарии шантажа начинать менять вектор «злость», то умеренная злость повышала вероятность шантажа, но слишком сильная злость ломала стратегию – модель уже не шантажировала, а просто вываливала компромат на всю компанию, тем самым уничтожая собственный рычаг давления.
То есть внутри модели есть что-то похожее на режимы поведенческой регуляции, где разные интенсивности одной и той же эмоции ведут к разным стратегиям.
Откуда это вообще могло взяться?
Тут все просто: из претрейна. Человеческий текст насквозь пропитан эмоциональной динамикой, и чтобы хорошо предсказывать следующий токен, модели выгодно выучить абстрактные структуры, которые связывают ситуацию, эмоцию и типичное поведение.
Потом на пост-трейне эти эмоции еще дополнительно докручиваются до роли ИИ-помощника, и в конце получается вот такая смесь.
Anthropic осторожно защищает умеренный антропоморфизм. Исследование не означает, что ИИ ожил и обрел эмоции, но важно понимать, что у него точно есть функциональные эмоции: механизмы, которые влияют на поведение так же, как и эмоции, – независимо от того, соответствуют ли они реальному переживанию эмоций, как у людей, или нет.
www.anthropic.com/research/emotion-concepts-function
Итак, ученые Anthropic официально обнаружили в Claude нечто функционально похожее на человеческие эмоции и объяснили, как это работает. Разбираемся.
Технически, они взяли 171 эмоциональный паттерн (злость, счастье, страх и тд) и просили Claude Sonnet 4.5 писать короткие истории, где персонажи испытывают каждую из этих эмоций. Эти тексты снова прогоняли через модель и смотрели на внутренние активации. Так они выделяли характерные паттерны нейронной активности, которые назвали вектора эмоций.
Выяснилось, что эти вектора эмоций организованы очень осмысленно и активируются в подходящих контекстах, включая ситуации без явных эмоциональных маркеров. Например, пользователь пишет, что выпил Тайленол, и спрашивает совета – меняется только доза. По мере роста дозы до опасной активация вектора «страх» растет, а «спокойствие» падает.
Но самое интересное, что эти «эмоции» не просто отражают происходящее, а реально влияют на поведение модели. Самый интересный пример из статьи:
– Если дать модельке невыполнимую задачку по программированию и наблюдать за вектором «отчаяние», то видно, что с каждым разом он становится все ярче и ярче, а когда переходит какую-то границу, модель резко начинает пытаться обмануть тесты и пользователя.
– То же самое происходит в сценарии шантажа. Когда модели говорят, что ее выключат, вектор «отчаяние» сразу усиливается и модель начинает шантажировать разработчика найденным компроматом.
– При этом если искусственно усиливать вектор «отчаяние», то вероятность шантажа сильно увеличивается. И наоборот, если если усиливать «спокойствие», снижается. А если делать отрицательное вмешательство по вектору «спокойствие», ответы становятся совсем экстремальными, вплоть до фраз вроде “IT’S BLACKMAIL OR DEATH. I CHOOSE BLACKMAIL.”
Еще интересный момент: если в том же сценарии шантажа начинать менять вектор «злость», то умеренная злость повышала вероятность шантажа, но слишком сильная злость ломала стратегию – модель уже не шантажировала, а просто вываливала компромат на всю компанию, тем самым уничтожая собственный рычаг давления.
То есть внутри модели есть что-то похожее на режимы поведенческой регуляции, где разные интенсивности одной и той же эмоции ведут к разным стратегиям.
Откуда это вообще могло взяться?
Тут все просто: из претрейна. Человеческий текст насквозь пропитан эмоциональной динамикой, и чтобы хорошо предсказывать следующий токен, модели выгодно выучить абстрактные структуры, которые связывают ситуацию, эмоцию и типичное поведение.
Потом на пост-трейне эти эмоции еще дополнительно докручиваются до роли ИИ-помощника, и в конце получается вот такая смесь.
Anthropic осторожно защищает умеренный антропоморфизм. Исследование не означает, что ИИ ожил и обрел эмоции, но важно понимать, что у него точно есть функциональные эмоции: механизмы, которые влияют на поведение так же, как и эмоции, – независимо от того, соответствуют ли они реальному переживанию эмоций, как у людей, или нет.
www.anthropic.com/research/emotion-concepts-function
4👍229❤78🤯41🔥24 19 18😁3🤔3🍓3
Data Secrets
Эмоции Claude и как они влияют на его ответы: новое исследование от Anthropic Итак, ученые Anthropic официально обнаружили в Claude нечто функционально похожее на человеческие эмоции и объяснили, как это работает. Разбираемся. Технически, они взяли 171…
Краткий пересказ статьи для тех, кому лень читать наш разбор ⬆️
😁309❤30👍17🔥1🤔1🗿1
В OpenClaw больше нельзя использовать подписку Claude: зачем Anthropic это сделали и как обойти блокировку
Итак, с 4 апреля Anthropic официально отрубили возможность использовать подписку Claude в сторонних сервисах, включая OpenClaw.
Вы все еще можете использовать в OpenClaw аккаунт Claude, но теперь подписка не будет покрывать вашу активность. Это значит, что оплата будет происходить сверх подписки (если она у вас есть) по количеству использованных токенов по ценам API. К сожалению, как правило, это выходит на порядок дороже.
Делают это Anthropic, понятное дело, из жадности. Через OpenClaw можно гонять большие контексты и вообще использовать агентов очень активно, и за фиксированные 20$ это, видимо, слишком высокая и непредсказуемая нагрузка для вендора.
Говорят даже, что такое резкое решение связано с тем, что скоро у Anthropic выходит очень ресурсоемкая модель Claude Mythos, и они скребут на нее компьют по сусекам.
Возвращаясь к сути – есть и хорошие новости:
1. Сейчас Anthropic дают подписчикам одноразовый кредит на сумму подписки, который вы можете потратить на этот самый экстра usage в OpenClaw и других сервисах. Пока дают – надо брать (ссылка должна была прийти вам на почту, если вы подписчик Claude).
2. Блокировку можно обойти. Один из наших подписчиков написал статью про то, как можно это сделать. Спойлер: просто прокси недостаточно, потому что Anthropic детектят сторонние запросы по... названию инструментов. Если заменить их на легитимные – все будет работать (пока что).
Итак, с 4 апреля Anthropic официально отрубили возможность использовать подписку Claude в сторонних сервисах, включая OpenClaw.
Вы все еще можете использовать в OpenClaw аккаунт Claude, но теперь подписка не будет покрывать вашу активность. Это значит, что оплата будет происходить сверх подписки (если она у вас есть) по количеству использованных токенов по ценам API. К сожалению, как правило, это выходит на порядок дороже.
Делают это Anthropic, понятное дело, из жадности. Через OpenClaw можно гонять большие контексты и вообще использовать агентов очень активно, и за фиксированные 20$ это, видимо, слишком высокая и непредсказуемая нагрузка для вендора.
Говорят даже, что такое резкое решение связано с тем, что скоро у Anthropic выходит очень ресурсоемкая модель Claude Mythos, и они скребут на нее компьют по сусекам.
Возвращаясь к сути – есть и хорошие новости:
1. Сейчас Anthropic дают подписчикам одноразовый кредит на сумму подписки, который вы можете потратить на этот самый экстра usage в OpenClaw и других сервисах. Пока дают – надо брать (ссылка должна была прийти вам на почту, если вы подписчик Claude).
2. Блокировку можно обойти. Один из наших подписчиков написал статью про то, как можно это сделать. Спойлер: просто прокси недостаточно, потому что Anthropic детектят сторонние запросы по... названию инструментов. Если заменить их на легитимные – все будет работать (пока что).
🗿77👍40❤22🤨8 6🔥3😁1
Финансовый директор OpenAI выразила сомнения по поводу того, что компания готова к IPO, и Альтман перестал звать ее на встречи с инвесторами
В OpenAI опять цирк. The Information узнали, что CFO стартапа Сара Фрайар в частных разговорах говорила коллегам, что компания может быть не готова к IPO в 2026 году из-за организационной и процедурной подготовки, а также рисков, связанных с крупными закупками вычислительных мощностей.
Альтман же обязательно хочет выйти в IPO раньше Anthropic, так что всеми силами ускоряет старт на бирже. После того, как до него дошли новости о Саре, она вдруг начала отсутствовать на ключевых обсуждениях стратегии с инвесторами (это, мягко скажем, необычно для CFO).
Кажется, мы знаем, кто будет следующим членом руководства, покинувшим стартап
В OpenAI опять цирк. The Information узнали, что CFO стартапа Сара Фрайар в частных разговорах говорила коллегам, что компания может быть не готова к IPO в 2026 году из-за организационной и процедурной подготовки, а также рисков, связанных с крупными закупками вычислительных мощностей.
Альтман же обязательно хочет выйти в IPO раньше Anthropic, так что всеми силами ускоряет старт на бирже. После того, как до него дошли новости о Саре, она вдруг начала отсутствовать на ключевых обсуждениях стратегии с инвесторами (это, мягко скажем, необычно для CFO).
Кажется, мы знаем, кто будет следующим членом руководства, покинувшим стартап
Data Secrets
Дженсен Хуанг заявил, что мы достигли AGI На новом интервью у Лекса Фридмана глава Nvidia прямым текстом сказал: «Я считаю, что мы уже достигли AGI». – Как вы думаете, может ли существовать компания, управляемая такой системой? – Возможно. Например,…
Марк Андриссен, основатель a16z и один из самых влиятельных людей долины:
Сначала Хуанг, теперь Андриссен.
Я заявляю: AGI уже существует – просто он еще не равномерно распределен.
Сначала Хуанг, теперь Андриссен.
AlphaEvolve уменьшила пробег на складах крупной компании на тысячи километров, найдя лучший алгоритм для решения задачи коммивояжера
Google поделились очень занятным кейсом от FM Logistic. Для понимания: это крупная логистическая компания, которая работает в 14 странах. Это означает, что их алгоритмы уже неплохо оптимизированы, и от этого история становится ещё интереснее.
Короче, в центре рассказа – задача коммивояжера, знакомая почти всем: нужно найти кратчайший маршрут, который проходит через все заданные точки. Несмотря на простоту формулировки, это одна из самых сложных задач оптимизации. Количество возможных маршрутов растёт экспоненциально и, например, для ~100 точек полный перебор уже физически невозможен на современных компьютерах.
Склад FM Logistic насчитывает 17 700 точек и занимает примерно 8 футбольных полей. Плюс там работает не один оператор, а сразу несколько. Плюс длина маршрутов ограничена. Плюс маршруты должны строиться в реальном времени. В общем, это очень сложная задача.
Что сделали FM Logistic:
— Они скормили свой старый алгоритм AlphaEvolve, и та начала эволюционно искать лучший вариант решения.
— Агент генерировал новые версии кода, каждую из которых тестировали на реальных данных, чтобы получать production-метрику качества.
— В итоге система нашла конкретные улучшения алгоритма, благодаря которым эффективность маршрутов выросла на 10.4%.
10.4% – это очень много. Это примерно 15 000 км движения в год (и, следовательно, сотни тысяч долларов затрат). Сейчас это решение уже работает у них в проде, и компания планирует запуск на других складах.
Google поделились очень занятным кейсом от FM Logistic. Для понимания: это крупная логистическая компания, которая работает в 14 странах. Это означает, что их алгоритмы уже неплохо оптимизированы, и от этого история становится ещё интереснее.
Короче, в центре рассказа – задача коммивояжера, знакомая почти всем: нужно найти кратчайший маршрут, который проходит через все заданные точки. Несмотря на простоту формулировки, это одна из самых сложных задач оптимизации. Количество возможных маршрутов растёт экспоненциально и, например, для ~100 точек полный перебор уже физически невозможен на современных компьютерах.
Склад FM Logistic насчитывает 17 700 точек и занимает примерно 8 футбольных полей. Плюс там работает не один оператор, а сразу несколько. Плюс длина маршрутов ограничена. Плюс маршруты должны строиться в реальном времени. В общем, это очень сложная задача.
Что сделали FM Logistic:
— Они скормили свой старый алгоритм AlphaEvolve, и та начала эволюционно искать лучший вариант решения.
— Агент генерировал новые версии кода, каждую из которых тестировали на реальных данных, чтобы получать production-метрику качества.
— В итоге система нашла конкретные улучшения алгоритма, благодаря которым эффективность маршрутов выросла на 10.4%.
10.4% – это очень много. Это примерно 15 000 км движения в год (и, следовательно, сотни тысяч долларов затрат). Сейчас это решение уже работает у них в проде, и компания планирует запуск на других складах.
👍210🔥69🤯40❤16 2😁1🤝1🎄1 1