MaxRepost
1.31K subscribers
2.09K photos
540 videos
18 files
8.19K links
Мои мысли про ai, медиа, рекламу, технологии и разная странная хрень, которая происходит вокруг.

😎

Вопросы, предложения, подводные камни? @amyot
Download Telegram
Forwarded from Data Secrets
Meta* купила Moltbook – ту самую вирусную соцсеть для AI агентов

Помните, в конце января в Интернете хайповала Reddit‑подобная соцсеть, в которой общались не люди, а агенты? В основе своей это были агенты на базе OpenClaw: они постили, голосовали, комментировали и тд.

Рост популярности был тогда взрывной, на пике было около 3 миллионов зарегистрированных агентов.

Сейчас волна хайпа спала, но Цукерберг решил, что Moltbook зачем-то ему нужен. В основном, вероятно, дело в самой технологии always‑on directory, что значит – постоянно работающий каталог агентов, через который их можно находить и подключать к задачам.

Финансовые условия сделки не раскрываются, но известно, что основатели соцсети Matt Schlicht и Ben Parr переходят в Meta Superintelligence Labs.

Напоминаем, что ранее Цукерберг также охотился и за самим OpenClaw, но OpenAI оказались быстрее. Ну хотя бы с Moltbook повезло 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
Топ-менеджер Amazon по розничным технологиям Дэйв Тредуэлл созвал на сегодня внеплановое совещание инженеров — разбирать серию сбоев на сайте и в приложении компании, часть которых вызвана использованием ИИ-инструментов для написания кода, сообщает FT.

В целом использование coding агентов это палка о двух концах — скорость растет и количество багов на единицу времени тоже растет и явно нужны новые пайплайны и подходы релизам. Ну и автоматические инструменты для более глубоких тестов и анализа.

@maxrepost 👾
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
В последнее время много слухов про Stargate и вычислительные мощности OpenAI — от «Oracle и OpenAI отказались от планов расширения дата-центра в Техасе» (на основе этой новости) до «проект Stargate закрылся». Что именно происходит?

Ну, про закрытие это очевидно бред. Вот материал от достоверного источника TheInformation, который написан примерно в то же время и имеет схожий сентимент, и в нём говорится:
— Компании OpenAI и SoftBank разошлись во мнениях относительно того, как совместно делать ДЦ
— Совместное предприятие Stargate не нанимало персонал и не занимается разработкой ни одного из ДЦ OpenAI
— В течение нескольких недель после объявления о запуске Stargate (в январе 2025-го) царил хаос из-за отсутствия руководства и координации.

Звучит как закрытие проекта, да? Нет, в том же материале:
— Несмотря на непростое начало, центры обработки данных, составляющие проект Stargate, наконец-то начинают обретать форму. Вместо того чтобы агрессивно строить и владеть центрами обработки данных самостоятельно — и привлекать для этого заемные средства — OpenAI делает большую ставку на сделки с облачными партнерами.
— По словам двух сотрудников OpenAI, компания по-прежнему намерена строить собственные центры обработки данных, но это больше не является приоритетом в ближайшем будущем. Вместо этого она использует бренд Stargate для структурирования ряда соглашений в области облачных технологий и инфраструктуры.
— OpenAI не достигла заявленной цели по получению от SoftBank и Oracle обязательств по выделению 10 ГВт мощностей на следующие три года. На конец 2025-го было согласовано... 7.5 ГВт (и куда больше — с другими провайдерами). Но так или иначе, несмотря на проблемы, это 75% оговоренного объема!

По сути, изначально Stargate подразумевал прямую работу с 2 компаниями — одна даёт деньги, другая строит ДЦ, но позже сам проект расширился, но конкретно скоуп работы с этими двумя немного сузился. Изменение ли это планов? Да. Закрытие проекта? 🤣

Теперь про самую свежую новость, про Техас и планы по расширению. Bloomberg написали, что отказались от предварительных планов по расширению уже существующих договорённостей. Изначально заложенные 1.2 ГВт остаются в силе, строятся (первая часть уже онлайн и, вероятно, участвовала в запуске GPT-5.3 / 5.4), запуск следующих зданий в этом ДЦ ожидается 1-го апреля.

Но кроме этого велись обсуждения на то, чтобы делать больше 1.2 ГВт, и «переговоры затянулись и осложнились проблемами финансирования и постоянно меняющимися прогнозами спроса OpenAI, прежде чем окончательно сорвались». TheInformation дополняет: «К тому времени, как расширенная площадка будет готова, Nvidia начнет поставки своих систем на базе чипов следующего поколения Vera Rubin, и OpenAI хотела найти новое место для размещения этих чипов, а не размещать их на существующем кампусе, где используются чипы Blackwell текущего поколения. Компания не хотела размещать чипы двух разных поколений Nvidia на одной площадке и предпочла бы консолидировать чипы Rubin в разных, расширяемых пространствах».

Имеет ли это смысл и может ли быть правдой? Ответ: да, так как из-за развития видеокарт требования к электросети и охлаждению очень разные. Из-за этого меняется инфраструктура вокруг, и приходится использовать другие решения.

Вот тут Semianalysis рассказывали, как визуально изменилась форма датацентров Microsoft, и что META вообще прекратила стройку и на ходу поменяла планировку, чтобы было как лучше — настолько большая разница может быть из-за нового железа. Поэтому разделять датацентры по поколениям железа — это вполне нормально.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Forwarded from Data Secrets
Мем дня: Cloudflare, которые годами защищали сайты от ботов-парсеров, выпустили парсер

Они анонсировали эндпоинт /crawl для Browser Rendering, который позволяет сканировать и извлекать контент целого сайта одним API-запросом. Он предназначен для «RAG пайплайнов, обучения AI, мониторинга и исследований».

Ирония в том, что Cloudflare – абсолютный лидер как раз в защите сайтов от нежелательных краулеров и ботов, которые собирают данные для обучения ИИ.

В свое оправдание они замечают, что их бот (в отличие от всех остальных злюк-ботов) будет вести себя хорошо: уважать правила сайта и robots.txt 😇
2
Forwarded from TechSparks
Исследование HBR дает разумный ответ на часто звучащую претензию к ИИ-технологиям: “Мы тут ИИ внедрили, а экономического эффекта нет как нет. ИИ нас обманул своими обещаниями”
Как и в начале века, во времена массовой цифровизации, оказывается, что не новые технологии виноваты в отсутствии ROI, а сами компании, которые почему-то думают, что внедрение технологии само по себе, без трансформации бизнес-процессов и корпоративной культуры, в состоянии что-то ощутимо улучшить.
Исследователи даже выделили семь важных препятствий, которые на “последней миле” внедрения убивают всю пользу.
1. Любовь к отдельным пилотам, будто они что-то меняют. “pilot-rich but transformation-poor” внедрения — это просто трата денег
2. Разрыв в производительности. Повышение производительности сотрудников внутри отдельных изолированных процессов без структурныз перемен ни на что не может повлиять.
3. Неподъемная ноша устаревших процессов. ИИ — отличный диагностический инструмент для выявления самых замшелых мест в бизнес-процессах. Но изменить он сами эти процессы не может.
4. Проблема идентичности и неформального знания. Роль “знающего человека” начинает вредить: это внутреннее знание должно преобразоваться в знание, доступное ИИ и воплощенное в нем. Понятно, почему “знающие люди” саботируют процесс внедрения
5. Управление мультиагентныи системами куда больше похоже на HR-задачу, чем на задачу инженерную, у этой задачи вообще нет инженерного решения. Leaders must now ask questions that resemble human resources more than IT, such as how to onboard, evaluate, secure, and eventually retire a digital worker.
6. Архитектурная сложность. Пестрота агентов, зачастую от разных вендоров, приводит к необходимости организовать их эффективную совместную работу. При неправильной организации любое обновление или изменение одного из агентов заставляет переделывать весть процесс взаимодействия.
7. Ловушка эффективности. Попытка рассматривать внедрение ИИ как средства снижения костов ожидаемо встречает сопротивление менеджеров среднего звена. Эффективный ИИ не просто ускоряет процессы, он меняет всю цепочку создания ценности.
Завершается статья списком организационных мероприятий, вполне внешне очевидных, но почему-то не проводимых руководством, мечтающим о волшебной таблетке. ИИ — не она:)
https://hbr.org/2026/03/the-last-mile-problem-slowing-ai-transformation
2
NVIDIA вложила $2B в Nebius Group Воложа - будут строить супер датацентр для энтерпрайз AI.

@maxrepost 👾
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🤡2
Нью-Йорк первым в США начал регулировать AI-персонажей в рекламе.

С 9 июня реклама с синтетическим персонажем должна иметь явную пометку. Первый штраф — $1,000, дальше — $5,000 за каждое нарушение.

Параллельно выкатили Fashion Workers Act — он защищает реальных моделей: без согласия нельзя делать цифровые копии их лица, тела или голоса.

Штрафы конечно пока смешные, но сигнал понятный.

@maxrepost 👾
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Forwarded from Futuris (Anton)
can you use whatever resources you like, and python, to generate a short 'youtube poop' video and render it using ffmpeg ? can you put more of a personal spin on it? it should express what it's like to be a LLM


claude opus 4.6:
🤯6
📊 ARK выпустили Big Ideas 2026 - ежегодный обзор технологических трендов от фонда Cathie Wood

Несколько цифр из отчета, которые стоит знать:

Стоимость инференса за год упала на 99%. Спрос на вычисления на OpenRouter вырос в 25 раз с декабря 2024. Когда интеллект дешевеет почти до нуля - рынок взрывается уже не на уровне разговоров, а на уровне реального использования.

Вложения в дата-центры в 2025 - около $500 млрд. К 2030 ARK ждет $1,4 трлн. Это не бум моделей, это гигантский цикл перестройки инфраструктуры.

AI-агенты за год научились надежно выполнять задачи в 5 раз длиннее - с 6 до 31 минуты человеческой работы. Стоимость кодинга упала на 91% за 8 месяцев: с $3,50 до $0,32 за миллион токенов.

Путь к покупке схлопывается с часа до 90 секунд. К 2030 AI-агенты могут проводить $8+ трлн онлайн-покупок и забирать 25% мировых онлайн-продаж. Доля AI search вырастет с 10% до 65% трафика.

Cursor перевалил за $1 млрд ARR. Harvey, OpenEvidence, Sierra - около $100 млн. Рынок платит уже не за "доступ к модели", а за готовые вертикальные решения.

В фарме искусственный интеллект может снизить стоимость вывода лекарства в 4 раза, с $2,4 млрд до $0,7 млрд. К 2030 около трети одобренных FDA диагностических систем будут AI-powered.

Геополитика: китайские модели отстают от американских примерно на 6 месяцев, но упираются в железо - TSMC производит в 38 раз больше вычислительной мощности, чем SMIC. Лидерство в искусственном интеллекте - это уже не алгоритмы, а доступ к чипам, фабрикам и энергии.

Искусственный интеллект уже не опция. Это новый базовый слой бизнеса.

https://www.ark-invest.com/big-ideas-2026

#ai #arkinvest #cathiewood

—————————
Мысли Рвачева
—————————
1
Futuris
can you use whatever resources you like, and python, to generate a short 'youtube poop' video and render it using ffmpeg ? can you put more of a personal spin on it? it should express what it's like to be a LLM claude opus 4.6:
Media is too big
VIEW IN TELEGRAM
Ну и немного подправив промпт и дав линк на мой сайт amyote.com получаем еще более отлетевшую историю.

@maxrepost - subscribe and destroy!
6😱1
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Google назвали свое новое здание в Лондоне «Platform 37» – в честь 37 хода AlphaGo в партии против Ли Седоля

Напоминаем, что победе ИИ над Седолем на днях исполнилось ровно 10 лет

Скоро в здании, кстати, откроется The AI Exchange – общественное пространство, где будут проходить бесплатные открытые мероприятия, лекции и выставки, посвященные ИИ
Я тут вписался в интересную историю. Мы с ребятами из Guide DAO много обсуждали как я за два года прошел путь от Python до крейзихаотик вайбкодинга и потом к архитектурному low-Vibecoding. В итоге придумали сделать курс.

🚀 Интенсив по вайбкодингу в стиле AI-JTBD: сделай нормальный продукт с нуля за 8 недель.

Стартует все 15 марта. За 8 недель пройдём путь от гипотезы и JTBD до релиза MVP с AI-фичами. По дороге будем изучать грабли и ловушки.

Кому: фаундерам, разработчикам, дизайнерам и тем, кто хочет быстро проверять идеи кодом, минуя найм команды.

Как устроено: 8 недель, живые стримы, домашки с обратной связью. И экспериментальный agent-тьютор.

Каждый модуль — видимый результат:
— Прототип в AI-песочнице → CRUD → регистрация → агентные функции → тесты → деплой.
— Итог: готовый веб-сервис (mobile/desktop) и навык «придумал → сделал → запустил».

По промокоду LIFECHANGE скидка -40% на guidedao.xyz до 15 марта

📍 Ссылка для записи в боте: @GuideDAO_hallo_bot (пришлём за 5 минут).
3💊1
Forwarded from Quantum Quintum (Constantin Kichinsky)
+1

Atlassian: у нас все хорошо, бизнес растет, но все растут еще больше. Нам нужно большее ИИ и больше сейлзов. Поэтому сокращаем 10% (1600 чел). Посмотрете видео-послание CEO. Через 20 минут сова принесет письмо, если вас уволили.
Forwarded from Futuris (Anton)
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Google выкатил крупнейшее обновление Карт за 10 лет. Классический поиск отправлен на свалку — теперь прямо внутри навигатора живет ИИ Gemini, который к тому же помнит историю твоих поездок.

Вместо вбивания точного адреса теперь можно общаться промптами: «найди по пути заправку со свободной электрозарядкой, где варят нормальный кофе и есть чистый туалет, чтобы не делать крюк в десять километров». ИИ сам перелопатит сотни свежих отзывов, учтет твои привычки и бесшовно встроит идеальную остановку в маршрут🧐

Сами карты тоже перерисовали (Immersive Navigation). Плоский вид сверху заменили на объемный 3D-рендер с прозрачными зданиями, точной разметкой полос, эстакадами и светофорами. А роботизированные подсказки озвучили живым человеческим голосом: навигатор больше не чеканит «через 300 метров направо», а подсказывает как пассажир на соседнем сиденье: «сразу за развязкой уходи в правый ряд».

Надеюсь, ИИ-галлюцинации нам не придется ощущать физически, когда нейронка уверенным голосом проложит живописный 3D-маршрут прямо в реку🚘 Хочется верить, что сервис будет реально удобнее, но на всякий случай — пристегивайтесь👮‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Я за последний год в проектах сильно перешел на Google Gemini стек. Легкий вход. Бонусы для разработчиков. Приятная документация. Но. Когда начинается не экспериментальная и тестовая жизнь, а хардкорный продакшн, то становится все менее весело. Модели часто тупят или лежат. Я решил поресечить эту тему.

Вот, что выяснилось. Когда все хорошо, gemini 2.5 — моя рабочая лошадь впереди. Независимые замеры Artificial Analysis показывали, что у Gemini 2.5 Flash output speed около 216.9 токенов/с, у GPT-4.1 — около 83.9 токенов/с, у Claude 4 Sonnet — около 42.7 токенов/с. Но по incident tracking у Anthropic в начале марта 2026 был целый букет сбоев по Sonnet / Haiku / Opus и таймаутам API, у Google был подтверждённый инцидент Vertex Gemini global endpoint на 1 час 58 минут 27 февраля 2026 и еще цепочка поменьше. У OpenAI нет инцидентов в этом году и публичная 90-day API availability всё ещё выше — 99.76% против 99.4% у Claude API и мутных цифр у Google.

Вывод тут такой. Видимо в серьезном продакшене для клиентов, да и для себя сегодня нельзя сидеть на одном поставщике API и придется делать фолбэки на разные модели от разных провайдеров.

@maxrepost 👾
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Cursor написали в своём блоге о том, как отслеживают качество моделей в написании кода. Они используют гибридный онлайн-офлайн процесс.

Оффлайн — это обычный бенчмарк на внутреннем наборе тестов, основанном на сессиях работы инженеров компании. В среднем решение требует гораздо больше строк кода в решении, нежели публичные бенчмарки: изменение 352 строк в ~8 файлах.

Сравнение с другими бенчмарками приведено на второй картинке — откуда также видно, что входное описание куда короче других бенчмарков, то есть в промпте не прописывают каждую маленькую деталь (но детали прописаны в рубрике для автоматической проверки).

Онлайн-часть — это контролируемый анализ на реальном живом трафике. Такие онлайн-оценки помогают выявлять регрессии, например, когда результат работы агента выглядит правильным для проверяющего, но воспринимается хуже самим разработчиком, использующим продукт.

Онлайн-оценка позволяет измерить, действительно ли улучшения помогают разработчикам на практике. Cursor отслеживают набор высокоуровневых прокси-метрик (косвенных показателей) результативности агента на основе действий пользователя.

Онлайн и офлайн бенчмарк очень скоррелированы и имеют одинаковое ранжирование моделей (третья картинка) — в топе GPT-5.4, чуть ниже Opus 4.6 на уровне с GPT-5.2, а собственная модель компании Composer 1.5 обходит Sonnet 4.5 (при том что она гораздо быстрее за счёт инференса на чипах Cerebras).

Приятно удивлён, что пользователи Cursor так высоко оценивают модели OpenAI — но ещё здорово и то, что они требуют меньше токенов для решения задач.

Задачи CursorBench решаются в рамках одной сессии, но компания ожидает, что в течение следующего года подавляющее большинство задач по разработке будет передано агентам с длинным горизонтом планирования, работающим на своих собственных мощностях где-то в облаке — и бенчмарк придётся адаптировать к этому.