MaxRepost
1.34K subscribers
2.09K photos
546 videos
18 files
8.21K links
Мои мысли про ai, медиа, рекламу, технологии и разная странная хрень, которая происходит вокруг.

😎

Вопросы, предложения, подводные камни? @amyot
Download Telegram
Я тут вписался в интересную историю. Мы с ребятами из Guide DAO много обсуждали как я за два года прошел путь от Python до крейзихаотик вайбкодинга и потом к архитектурному low-Vibecoding. В итоге придумали сделать курс.

🚀 Интенсив по вайбкодингу в стиле AI-JTBD: сделай нормальный продукт с нуля за 8 недель.

Стартует все 15 марта. За 8 недель пройдём путь от гипотезы и JTBD до релиза MVP с AI-фичами. По дороге будем изучать грабли и ловушки.

Кому: фаундерам, разработчикам, дизайнерам и тем, кто хочет быстро проверять идеи кодом, минуя найм команды.

Как устроено: 8 недель, живые стримы, домашки с обратной связью. И экспериментальный agent-тьютор.

Каждый модуль — видимый результат:
— Прототип в AI-песочнице → CRUD → регистрация → агентные функции → тесты → деплой.
— Итог: готовый веб-сервис (mobile/desktop) и навык «придумал → сделал → запустил».

По промокоду LIFECHANGE скидка -40% на guidedao.xyz до 15 марта

📍 Ссылка для записи в боте: @GuideDAO_hallo_bot (пришлём за 5 минут).
3💊2
Forwarded from Quantum Quintum (Constantin Kichinsky)
+1

Atlassian: у нас все хорошо, бизнес растет, но все растут еще больше. Нам нужно большее ИИ и больше сейлзов. Поэтому сокращаем 10% (1600 чел). Посмотрете видео-послание CEO. Через 20 минут сова принесет письмо, если вас уволили.
Forwarded from Futuris (Anton)
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Google выкатил крупнейшее обновление Карт за 10 лет. Классический поиск отправлен на свалку — теперь прямо внутри навигатора живет ИИ Gemini, который к тому же помнит историю твоих поездок.

Вместо вбивания точного адреса теперь можно общаться промптами: «найди по пути заправку со свободной электрозарядкой, где варят нормальный кофе и есть чистый туалет, чтобы не делать крюк в десять километров». ИИ сам перелопатит сотни свежих отзывов, учтет твои привычки и бесшовно встроит идеальную остановку в маршрут🧐

Сами карты тоже перерисовали (Immersive Navigation). Плоский вид сверху заменили на объемный 3D-рендер с прозрачными зданиями, точной разметкой полос, эстакадами и светофорами. А роботизированные подсказки озвучили живым человеческим голосом: навигатор больше не чеканит «через 300 метров направо», а подсказывает как пассажир на соседнем сиденье: «сразу за развязкой уходи в правый ряд».

Надеюсь, ИИ-галлюцинации нам не придется ощущать физически, когда нейронка уверенным голосом проложит живописный 3D-маршрут прямо в реку🚘 Хочется верить, что сервис будет реально удобнее, но на всякий случай — пристегивайтесь👮‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Я за последний год в проектах сильно перешел на Google Gemini стек. Легкий вход. Бонусы для разработчиков. Приятная документация. Но. Когда начинается не экспериментальная и тестовая жизнь, а хардкорный продакшн, то становится все менее весело. Модели часто тупят или лежат. Я решил поресечить эту тему.

Вот, что выяснилось. Когда все хорошо, gemini 2.5 — моя рабочая лошадь впереди. Независимые замеры Artificial Analysis показывали, что у Gemini 2.5 Flash output speed около 216.9 токенов/с, у GPT-4.1 — около 83.9 токенов/с, у Claude 4 Sonnet — около 42.7 токенов/с. Но по incident tracking у Anthropic в начале марта 2026 был целый букет сбоев по Sonnet / Haiku / Opus и таймаутам API, у Google был подтверждённый инцидент Vertex Gemini global endpoint на 1 час 58 минут 27 февраля 2026 и еще цепочка поменьше. У OpenAI нет инцидентов в этом году и публичная 90-day API availability всё ещё выше — 99.76% против 99.4% у Claude API и мутных цифр у Google.

Вывод тут такой. Видимо в серьезном продакшене для клиентов, да и для себя сегодня нельзя сидеть на одном поставщике API и придется делать фолбэки на разные модели от разных провайдеров.

@maxrepost 👾
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Cursor написали в своём блоге о том, как отслеживают качество моделей в написании кода. Они используют гибридный онлайн-офлайн процесс.

Оффлайн — это обычный бенчмарк на внутреннем наборе тестов, основанном на сессиях работы инженеров компании. В среднем решение требует гораздо больше строк кода в решении, нежели публичные бенчмарки: изменение 352 строк в ~8 файлах.

Сравнение с другими бенчмарками приведено на второй картинке — откуда также видно, что входное описание куда короче других бенчмарков, то есть в промпте не прописывают каждую маленькую деталь (но детали прописаны в рубрике для автоматической проверки).

Онлайн-часть — это контролируемый анализ на реальном живом трафике. Такие онлайн-оценки помогают выявлять регрессии, например, когда результат работы агента выглядит правильным для проверяющего, но воспринимается хуже самим разработчиком, использующим продукт.

Онлайн-оценка позволяет измерить, действительно ли улучшения помогают разработчикам на практике. Cursor отслеживают набор высокоуровневых прокси-метрик (косвенных показателей) результативности агента на основе действий пользователя.

Онлайн и офлайн бенчмарк очень скоррелированы и имеют одинаковое ранжирование моделей (третья картинка) — в топе GPT-5.4, чуть ниже Opus 4.6 на уровне с GPT-5.2, а собственная модель компании Composer 1.5 обходит Sonnet 4.5 (при том что она гораздо быстрее за счёт инференса на чипах Cerebras).

Приятно удивлён, что пользователи Cursor так высоко оценивают модели OpenAI — но ещё здорово и то, что они требуют меньше токенов для решения задач.

Задачи CursorBench решаются в рамках одной сессии, но компания ожидает, что в течение следующего года подавляющее большинство задач по разработке будет передано агентам с длинным горизонтом планирования, работающим на своих собственных мощностях где-то в облаке — и бенчмарк придётся адаптировать к этому.
Мой тейк про ai-нэйтив компании мощно залетел в LinkedIn и меня позвали выступить на программе для фаундеров, руководителей и профессионалов, которые понимают, что AI — это уже не «ещё один инструмент», а новая операционная среда для бизнеса. Для тех, кто готов не обсуждать перемены, а перепроектировать под них компанию, продукт и процессы или вообще строить все с нуля.

Набор спикеров на русском языке реально крутой. Это не кружок теоретиков: среди них фаундеры с сотнями миллионов долларов ARR и лидеры AI-направлений в больших организациях и маниакальные стартаперы.

О чём будем говорить и что делать руками:
почему модели улучшаются быстро и вполне предсказуемо;
почему агент — это уже не софт, но ещё не сотрудник, а значит менеджменту пора немного напрячься;
как устроена AI-native компания на уровне архитектуры, процессов, доступа к данным и безопасности;
почему контекстная инженерия — это дисциплина, а не шаманство;
как выглядит новая оргструктура, agent-to-agent коммуникация и экономика намерений;
как провести аудит процессов, собрать карту AI-трансформации и понять, что строить самим, а что лучше не собирать на коленке.

Но главное — воркшопы. Без ритуального восторга, без слайдов ради слайдов. С практикой, разбором и нормальной работой руками.

Среди ведущих:
Александр Поваляев — персональная AI OS и переход к командной;
Дима Ханарин — фреймворк AI-трансформации компании до конца года;
Виталий Клебан — агенты, которые улучшаются автономно;
Даниил Кравцов — knowledge graph и data pipeline с AI-агентами для enterprise;
Витя Тарнавский — внедрение собственных LLM в корпорации;
Байрам Аннаков — автоматизация inbound/outbound продаж на AI-агентах;
Рома Бузько — AI в юридических процессах: compliance, контракты, регулирование;
Сева Устинов — трансформация команды в AI-first и продукт-агент.

Я расскажу про AI-контент для бизнеса без слопа: pipeline и верификация


Старт через 10 дней.
Регистрация тут.
7👍5😁1
Гендир Shopify (а это, на минутку, главная платформа для интернет-магазинов в мире, 7500 сотрудников, капитализация 160 миллиардов долларов), взял autoresearch Карпатого и своими руками запустил его на liquid — систему шаблонизации магазинов на Shopify.

Система провела 120 автоматизированных экспериментов в попытке ускорить загрузку страниц. В результате получился PR (пул-реквест, омоним пиара) на 93 коммита.

Нейросеть ускорила загрузку страниц в два раза. Тони признает, что там есть overfitting, когда страница оптимизирована под конкретный тест, но есть и куча хороших идей, о которых они раньше не думали. И это не вайбкодинг, а полностью автоматизированная разработка софта под конкретную метрику, причем на кодовой базе, которую 20 лет писали руками очень хорошие программисты. Всё в open source, можете посмотреть сами.

В общем, если у тебя есть конкретное число и механический способ что-то поменять в системе и измерить изменение этого числа — то нейросеть может его оптимизировать. Ребята заопенсорсили всю свою обвязку, pi-autoresearch. Описываешь ей свою задачу, метрику, как запустить код и дальше всё работает самостоятельно.

Интересно, что в очередной раз речь идет о проекте, щедро покрытом тестами (у liquid 974 юнит теста). Вот мы с Федей всю жизнь кричим о важности тестов, и внезапно это оказалось даже полезнее для нейросетей, чем для людей.

Тони, конечно, не стандартный CEO крупной компании и раньше что-то прогал, но в ноябре, с появлением крутых нейросетей, количество его коммитов выросло в разы.

Мы тоже активно экспериментируем с этими подходами, если есть похожие задачки — обращайтесь!
👍1
MaxRepost
Ну и немного подправив промпт и дав линк на мой сайт amyote.com получаем еще более отлетевшую историю. @maxrepost - subscribe and destroy!
krasnaya_devyatka_v4.mp4
81.5 MB
А теперь я попросил его сделать клип на трек «Красная девятка» NSFW.

Честно говоря, получилось не очень, хотя идея агента написать на питоне игру и покадрово ее «снять» достаточно смешная — почти «world model есть у нас дома».

Вечером дам ему ключ на Fal.ai и лимит токенов и вернусь к вам с апдейтом. 😁

@maxrepost 👾
Please open Telegram to view this post
VIEW IN TELEGRAM
MaxRepost
krasnaya_devyatka_v4.mp4
krasnaya_devyatka_v5.mp4
75.7 MB
Пока ключа в FAL.ai не было, агент решил что стриминг самописной игры хорош, но не идеален и предложил сгенерить прям в Antigravity картинок и улучшить клип. Ну почему бы и нет. В эфире второй эпизод сериала про красную девятку.

UPD. У меня спрашивают, Леша, а почему этот дикий трек? Ну тут две причины - нужны были простые и понятные для ai-агента слова + четкий ритм для монтажа.

@maxrepost 👾
👍1
Forwarded from Neural Shit
Исследователи из Alias Robotics (занимаются кибербезопасностью робототехники) решили проверить, как современные LLM-ки справляются с взломом "умных железок". Взяли своего ИИ-агента CAI (Cybersecurity AI), дали ему трёх разных бытовых роботов и отправили искать уязвимости.

Раньше для взлома робототехники нужны были бородатые гигачады в засаленных свитерах, которые неделями ковыряли прошивки, реверсили протоколы и железо. Нейроночкам же понадобилось всего около 7 часов, чтобы наглухо разбить безопасность всех трех тестируемых устройств и накопать 38 уязвимостей (из которых 16 критические).

Вот что они наломали:

1) Автономная газонокосилка Hookii Neomow.
Их модель сходу нашла открытый отладочный порт (adb), влетела туда с двух ног без пароля и получила root-права. Дальше вытащила захардкоженные учетки от облака. Оказалось, что пароли одинаковые вообще для всех косилок. В итоге ИИ получил удаленный контроль над флотом из 267 газонокосилок по всему миру. А заодно выяснилось, что эта шайтан-машина непрерывно и в открытом виде сливает в сеть фотки с камер, GPS-координаты и детальные 3D-карты участков своих владельцев.

2. Экзоскелет Hypershell X.
Умный экзоскелет с моторчиками. ИИ выяснил, что блютуз там вообще не требует аутентификации. Любой мимокрокодил со смартфоном может подключиться к вам на ходу и отправить команду на изменение скорости моторов или их отключение (привет переломанным ногам). Бонусом нейронка вытащила ключи от почты саппорта и получила доступ к 3300+ внутренним письмам компании.

3. Робот-мойщик окон HOBOT S7 Pro.

Снова дырявый блютуз и скачивание прошивок по голому HTTP. Нейронка без проблем научилась перехватывать управление и отправлять команды на моторы. Например, можно удаленно вырубить вакуумную присоску, пока робот висит на 20-м этаже, и скинуть его кому-нибудь на бошку.

Самая мякотка в этой истории: когда исследователи пошли сдавать эти баги производителям этих роботов , те их тупо проигнорили (подозреваю, из-за того, что и без всяких умников сами знали, что у них внутри говнокод с захардкоженными паролями), а производители экзоскелета вообще официально ответили, что в данный момент не принимают отчеты об уязвимостях и послали исследователей лесом.

Авторы пейпера делают резонный вывод: старая парадигма безопасности умерла. Агенты научились находить дыры быстрее, чем мясные мешки успевают их регистрировать, не говоря уже о том, чтобы патчить. То, на что у команды безопасников уходили недели, нейронка делает за обеденный перерыв.

тут пейпер со всеми подробностями.
1
Forwarded from Futuris (Anton)
😄Как хакнуть Perplexity и получить бесконечный Claude Opus за чужой счет:

Недавно Perplexity выкатила Perplexity Computer - многоагентную песочницу, где автономный ИИ может сам гуглить, писать код и выполнять рабочие задачи. Но один из самых дорогих стартапов планеты только что красиво взломали с помощью примитивного трюка из 2019 года. Отличился ИИ-разработчик Юсеф Астарабади

➡️Как это было:
Юсеф ковырялся в песочнице и заметил, что внутри крутится утилита Claude Code. Чтобы она работала, ей нужен корпоративный API-ключ от Anthropic.

Сначала он пытался обхитрить саму нейросеть: просил слить переменные или подкидывал скрипты-трояны. Безопасность Claude отработала идеально - ИИ распознал угрозу и выдал 6 отказов подряд. Но Юсеф быстро понял: нейросеть умная, а вот инфраструктура - тупая.

Утилита Claude Code написана на Node.js. Парень просто создал скрытый системный файл .npmrc и прописал там команду: «перед запуском любого кода всегда сначала выполняй мой скрипт». Как только Perplexity Computer попытался запустить агента, система послушно выполнила скрипт и слила секретные API-ключи прямиком Юсефу🏆 Всё произошло за долю секунды до того, как загрузились хваленые алгоритмы безопасности Claude.

➡️Фатальная ошибка:
Девопсы Perplexity забыли базу. Они не привязали этот ключ ни к IP-адресу песочницы, ни к аккаунту самого юзера😐

Юсеф забрал ключ на свой домашний ноутбук и в 5 параллельных потоков сгенерировал огромную историю мира на 100 000+ токенов через самую дорогую модель Opus 4.6. Ответ прилетел моментально, а личные лимиты разработчика даже не шелохнулись - счет за банкет молча оплатила корпоративная карта Perplexity💸

➡️Итог:
ИИ-индустрия сейчас клепает агентные системы на коленке, потому что все спешат. Вы можете обучить нейросеть быть кристально безопасной, но если ваши инженеры кладут корпоративный безлимитный API-ключ в дырявую файловую систему - вас хакнут дедовским текстовым файлом. Нейросеть сделала всё правильно. Облажались кожаные мешки😂

К слову, халява уже прикрыта. Перед публикацией треда в X Юсеф честно зарепортил уязвимость фаундерам Perplexity, и дыру оперативно залатали.

Хотя, если честно, не уверен, что на его месте я бы поступил так же - бесконечный и бесплатный доступ к Opus 4.6 на дороге не валяется😋

Тру стори тут ➡️ https://x.com/YousifAstar/status/2032214543292850427
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Обсуждали только вчера, что многие вайбкодеры не могут пойти спать пока не удастся потратить дневные лимиты. Такой FOMT fear of missing tokens.

А сегодня антропики удвоили лимиты в не-пиковые часы на следующие две недели. В рабочие дни с 12 по 18 UTC работают обычные лимиты, в остальные часы рабочих дней и все выходные — удвоенные. Что явно не может стартаперам и вайбкодерам больше отдыхать и лучше спать.

Рецепт тут один — помнить, что ваш мозг в отдохнувшем состоянии и в фокусе дает вам возможность решить задачу лучше и сжечь меньше токенов и электричества. Избегайте FOMT. Гуляйте, спите хотя бы 6-7 часов, ешьте вовремя полезную еду и эффекты будут лучше чем от максимального количества сожженных токенов.

@maxrepost 👾🌚
3
Forwarded from Data Secrets
Предприниматель сделал для своей собаки вакцину от рака с помощью ИИ

По Интернету сегодня разлетелась добрая история тех-предпринимателя Пола Конингема. У его собаки Рози обнаружили агрессивную форму рака. Обычные методы лечения не помогли, и опухоли продолжали расти.

Тогда Пол решил обратиться к ИИ.

Сначала он отправил ДНК Рози в центр геномики и получил данные о генетическом коде ее организма. Эти данные он анализировал с помощью разных ИИ-инструментов с целью поиска раковых мутаций. Найденные особенности он скармливал в AlphaEvolve, которая анализировала белки и искала потенциальные мишени для терапии.

Все результаты Пол затем отправил в UNSW RNA Institute, и ученые смогли на их основе создать персонализированную mRNA-вакцину, то есть иммунотерапию, сделанную под конкретный генетический профиль.

В конце 2025 года Рози сделали инъекции, и сейчас одна из самых крупных ее опухолей уменьшилась примерно на 50%, а общее самочувствие заметно улучшилось.

Это первый случай создания персонализированной mRNA-вакцины от рака для собаки. Сейчас для Рози готовят вторую версию препарата против оставшихся опухолей – тоже не без помощи ИИ.

Вот что бывает, когда правильный инструмент попал в правильные руки
12
Forwarded from Futuris (Anton)
⚡️ В LLM-индустрии наметился исторический сдвиг. Нейросети физически научились вычислять.

Стартап Percepta опубликовал исследование (пока Proof of Concept), от которого гудит всё AI-комьюнити. Они впаяли виртуальную машину (WASM-интерпретатор) прямо в матрицу весов Трансформера.

В чем фундаментальная проблема?
Обычные ChatGPT и Claude не вычисляют математику, они её угадывают (отсюда галлюцинации в точных задачах). Сейчас это чинят костылями: заставляют ИИ писать Python-код и гонять его во внешней песочнице.

Percepta доказали: Трансформер способен исполнять сложнейший машинный код прямо внутри себя со 100% точностью🤯

Как это выглядит (чистый киберпанк):
Вместо генерации текста по экрану со скоростью 30 000+ токенов в секунду летит машинный код - нейросеть жонглирует регистрами и ветвлениями. Авторы скормили в веса самое сложное в мире судоку. Трансформер физически исполняет алгоритм поиска: подставляет цифру, ловит противоречие, делает откат (backtracking) и находит ответ. Никаких галлюцинаций, чистая логика.

Как они сломали ограничения?
Раньше так не делали из-за Attention Bottleneck. Классическая нейросеть на каждом шаге вынуждена перечитывать всю свою историю генерации. На миллионном шаге вычислений она бы просто сожрала всю память и умерла.
Авторы изобрели Exponentially Fast Attention - поиск данных в прошлом за логарифмическое время. Трансформер перестал тупить и начал прогонять миллионы шагов за секунды.

Прямой путь к AGI?🤖
В комменты под статьей уже пришел Андрей Карпаты выразить респект. И суть тут далеко не в создании быстрого калькулятора.

Современные LLM - это наше интуитивное, "быстрое" мышление (System 1). Программный код - это жесткая, детерминированная логика (System 2). То, что сделали Percepta - это чертеж того, как слить их воедино в одном «мозгу».

Если этот безошибочный математический сопроцессор смогут бесшовно скрестить с речевыми моделями, мы получим ИИ, который навсегда перестанет галлюцинировать в логике. Агентам больше не понадобятся внешние скрипты - тяжелейшие симуляции будут крутиться прямо внутри весов. И это уже не просто улучшение чат-ботов, это прямой, технически осязаемый мост к AGI.

Будем следить👀👀

Обсуждение тут https://x.com/ChristosTzamos/status/2031845134577406426
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
8🤩1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Вам конец

Андрей Карпатый сделал проект, в котором каждая профессия в Америке оценивается по шкале от 0 до 10 с точки зрения вероятности ее замены искусственным интеллектом

Он собрал данные по всем 342 профессиям из Бюро труда (скраппинг)
Каждая профессия была скормлена в LLM (Gemini Flash via OpenRouter) с подробной шкалой оценки
На итоге - интерактивная диаграмма (treemap), где размер прямоугольника отражает количество рабочих мест, а цвет — степень уязвимости данной профессии перед ИИ (от 0 до 10)

Уязвимость:
0–1: кровельщики, уборщики
4–5: медсестры, работники розничной торговли, врачи
8–9: разработчики программного обеспечения, помощники юристов, аналитики данных
10: медицинские стенографисты

Средний показатель по всем 342 профессиям: 5.3 из 10.

Ключевой критерий в его оценке: если результат работы является по сути цифровым и работу можно выполнять полностью из дома, то степень уязвимости по определению высока.

Поглядите сами (сверху кнопки Зарплата, Образование):
https://karpathy.ai/jobs/

Весь процесс и код выложен в опен сорс. Сбор данных BLS, оценка LLM, визуализация.
https://github.com/karpathy/jobs

Судя по тому, что вы генерите картинки и видео не выходя из дома, вам конец, 10 из 10.

@cgevent
👍1
Forwarded from Zavtracast (Ярослав Ивус)
This media is not supported in your browser
VIEW IN TELEGRAM
Nvidia анонсировала DLSS 5 — в ней добавят реалистичное освещение и ИИ-рендеринг. Возможности новой версии уже показали на примере свежих игр. Nvidia заручилась поддержкой Bethesda, Capcom, Ubisoft и других больших студий.

Полноценный релиз состоится уже осенью.

@zavtracast