Немного не про ai, а просто смешного. Россияйская ФАС тут поутру заявила, что если YouTube, Telegram, WhatsApp или VPN-сервисы запретят в России, то реклама на них будет признана незаконной.
Переводя на нормальный русский язык, сейчас реклама в YouTube, Telegram, WhatsApp и VPN — ОК. )))
Upd: концепция к вечеру поменялась. ФАС разместила новость о том, что реклама в Telegram и многих других соцсетях теперь нарушает законы РФ. Парам-парам-пам! 😹
@maxrepost🙈
Переводя на нормальный русский язык, сейчас реклама в YouTube, Telegram, WhatsApp и VPN — ОК. )))
Upd: концепция к вечеру поменялась. ФАС разместила новость о том, что реклама в Telegram и многих других соцсетях теперь нарушает законы РФ. Парам-парам-пам! 😹
@maxrepost
Please open Telegram to view this post
VIEW IN TELEGRAM
👌1
Forwarded from Сиолошная
Вчера Anthropic запустили Claude Code Review — агента для ревью кода. Это не входит в подписку, и придётся платить $15-25 за ревью одного PR (ну или любого куска кода, который вы хотите).
С одной стороны это кажется много — у OpenAI даже в Plus-подписке за $20 включено 20 ревью в месяц. Сравнить качество сложно, никакого бенчмарка я не видел, да и с такими ценами не уверен, что кто-то будет гонять хотя бы сотню PR, чтобы сделать оценку😳
Anthropic дают такую оценку по результатам внутреннего тестирования: в больших PR (более 1000 измененных строк) выявляются ошибки в 84% случаев, в среднем 7,5 проблем. Инженеры в основном согласны с тем, что выявляется: менее 1% ошибок помечаются как неверные.
(7.5 проблем на 1000 строк звучит уж очень много😭 )
С другой стороны, если брать зарплату сеньор-инженера из Google, то час времени стоит $70 (средняя компенсация в США — не в СФ! — $420k в год, за 250 рабочих дней), и получается что в среднем $20 за PR — это эквивалент 17 минут времени такого специалиста.
И так как количество написанного кода начинает сильно расти, и именно ревью становятся бутылочным горлышком — сомнений, что пользоваться фичей будут, у меня нет. А OpenAI упускает большую выручку😡
===
Вспомнился ответ Mike Bloomberg тем, кто возмущается стоимостью Bloomberg Terminal в 2700 долларов в месяц: «Если вы не можете зарабатывать 2700 долларов в месяц с помощью нашего продукта, у вас есть проблемы поважнее».
С одной стороны это кажется много — у OpenAI даже в Plus-подписке за $20 включено 20 ревью в месяц. Сравнить качество сложно, никакого бенчмарка я не видел, да и с такими ценами не уверен, что кто-то будет гонять хотя бы сотню PR, чтобы сделать оценку
Anthropic дают такую оценку по результатам внутреннего тестирования: в больших PR (более 1000 измененных строк) выявляются ошибки в 84% случаев, в среднем 7,5 проблем. Инженеры в основном согласны с тем, что выявляется: менее 1% ошибок помечаются как неверные.
(7.5 проблем на 1000 строк звучит уж очень много
С другой стороны, если брать зарплату сеньор-инженера из Google, то час времени стоит $70 (средняя компенсация в США — не в СФ! — $420k в год, за 250 рабочих дней), и получается что в среднем $20 за PR — это эквивалент 17 минут времени такого специалиста.
И так как количество написанного кода начинает сильно расти, и именно ревью становятся бутылочным горлышком — сомнений, что пользоваться фичей будут, у меня нет. А OpenAI упускает большую выручку
===
Вспомнился ответ Mike Bloomberg тем, кто возмущается стоимостью Bloomberg Terminal в 2700 долларов в месяц: «Если вы не можете зарабатывать 2700 долларов в месяц с помощью нашего продукта, у вас есть проблемы поважнее».
Please open Telegram to view this post
VIEW IN TELEGRAM
Claude
Code Review for Claude Code | Claude
Claude Code now dispatches a team of agents on every PR to catch bugs that skims miss. Available in research preview for Team and Enterprise.
❤1
Forwarded from Data Secrets
Meta* купила Moltbook – ту самую вирусную соцсеть для AI агентов
Помните, в конце января в Интернете хайповала Reddit‑подобная соцсеть, в которой общались не люди, а агенты? В основе своей это были агенты на базе OpenClaw: они постили, голосовали, комментировали и тд.
Рост популярности был тогда взрывной, на пике было около 3 миллионов зарегистрированных агентов.
Сейчас волна хайпа спала, но Цукерберг решил, что Moltbook зачем-то ему нужен. В основном, вероятно, дело в самой технологии always‑on directory, что значит – постоянно работающий каталог агентов, через который их можно находить и подключать к задачам.
Финансовые условия сделки не раскрываются, но известно, что основатели соцсети Matt Schlicht и Ben Parr переходят в Meta Superintelligence Labs.
Напоминаем, что ранее Цукерберг также охотился и за самим OpenClaw, но OpenAI оказались быстрее. Ну хотя бы с Moltbook повезло🔵
Помните, в конце января в Интернете хайповала Reddit‑подобная соцсеть, в которой общались не люди, а агенты? В основе своей это были агенты на базе OpenClaw: они постили, голосовали, комментировали и тд.
Рост популярности был тогда взрывной, на пике было около 3 миллионов зарегистрированных агентов.
Сейчас волна хайпа спала, но Цукерберг решил, что Moltbook зачем-то ему нужен. В основном, вероятно, дело в самой технологии always‑on directory, что значит – постоянно работающий каталог агентов, через который их можно находить и подключать к задачам.
Финансовые условия сделки не раскрываются, но известно, что основатели соцсети Matt Schlicht и Ben Parr переходят в Meta Superintelligence Labs.
Напоминаем, что ранее Цукерберг также охотился и за самим OpenClaw, но OpenAI оказались быстрее. Ну хотя бы с Moltbook повезло
Please open Telegram to view this post
VIEW IN TELEGRAM
Топ-менеджер Amazon по розничным технологиям Дэйв Тредуэлл созвал на сегодня внеплановое совещание инженеров — разбирать серию сбоев на сайте и в приложении компании, часть которых вызвана использованием ИИ-инструментов для написания кода, сообщает FT.
В целом использование coding агентов это палка о двух концах — скорость растет и количество багов на единицу времени тоже растет и явно нужны новые пайплайны и подходы релизам. Ну и автоматические инструменты для более глубоких тестов и анализа.
@maxrepost👾
В целом использование coding агентов это палка о двух концах — скорость растет и количество багов на единицу времени тоже растет и явно нужны новые пайплайны и подходы релизам. Ну и автоматические инструменты для более глубоких тестов и анализа.
@maxrepost
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
В последнее время много слухов про Stargate и вычислительные мощности OpenAI — от «Oracle и OpenAI отказались от планов расширения дата-центра в Техасе» (на основе этой новости) до «проект Stargate закрылся». Что именно происходит?
Ну, про закрытие это очевидно бред. Вот материал от достоверного источника TheInformation, который написан примерно в то же время и имеет схожий сентимент, и в нём говорится:
— Компании OpenAI и SoftBank разошлись во мнениях относительно того, как совместно делать ДЦ
— Совместное предприятие Stargate не нанимало персонал и не занимается разработкой ни одного из ДЦ OpenAI
— В течение нескольких недель после объявления о запуске Stargate (в январе 2025-го) царил хаос из-за отсутствия руководства и координации.
Звучит как закрытие проекта, да? Нет, в том же материале:
— Несмотря на непростое начало, центры обработки данных, составляющие проект Stargate, наконец-то начинают обретать форму. Вместо того чтобы агрессивно строить и владеть центрами обработки данных самостоятельно — и привлекать для этого заемные средства — OpenAI делает большую ставку на сделки с облачными партнерами.
— По словам двух сотрудников OpenAI, компания по-прежнему намерена строить собственные центры обработки данных, но это больше не является приоритетом в ближайшем будущем. Вместо этого она использует бренд Stargate для структурирования ряда соглашений в области облачных технологий и инфраструктуры.
— OpenAI не достигла заявленной цели по получению от SoftBank и Oracle обязательств по выделению 10 ГВт мощностей на следующие три года. На конец 2025-го было согласовано... 7.5 ГВт (и куда больше — с другими провайдерами). Но так или иначе, несмотря на проблемы, это 75% оговоренного объема!
По сути, изначально Stargate подразумевал прямую работу с 2 компаниями — одна даёт деньги, другая строит ДЦ, но позже сам проект расширился, но конкретно скоуп работы с этими двумя немного сузился. Изменение ли это планов? Да. Закрытие проекта?🤣
Теперь про самую свежую новость, про Техас и планы по расширению. Bloomberg написали, что отказались от предварительных планов по расширению уже существующих договорённостей. Изначально заложенные 1.2 ГВт остаются в силе, строятся (первая часть уже онлайн и, вероятно, участвовала в запуске GPT-5.3 / 5.4), запуск следующих зданий в этом ДЦ ожидается 1-го апреля.
Но кроме этого велись обсуждения на то, чтобы делать больше 1.2 ГВт, и «переговоры затянулись и осложнились проблемами финансирования и постоянно меняющимися прогнозами спроса OpenAI, прежде чем окончательно сорвались». TheInformation дополняет: «К тому времени, как расширенная площадка будет готова, Nvidia начнет поставки своих систем на базе чипов следующего поколения Vera Rubin, и OpenAI хотела найти новое место для размещения этих чипов, а не размещать их на существующем кампусе, где используются чипы Blackwell текущего поколения. Компания не хотела размещать чипы двух разных поколений Nvidia на одной площадке и предпочла бы консолидировать чипы Rubin в разных, расширяемых пространствах».
Имеет ли это смысл и может ли быть правдой? Ответ: да, так как из-за развития видеокарт требования к электросети и охлаждению очень разные. Из-за этого меняется инфраструктура вокруг, и приходится использовать другие решения.
Вот тут Semianalysis рассказывали, как визуально изменилась форма датацентров Microsoft, и что META вообще прекратила стройку и на ходу поменяла планировку, чтобы было как лучше — настолько большая разница может быть из-за нового железа. Поэтому разделять датацентры по поколениям железа — это вполне нормально.
Ну, про закрытие это очевидно бред. Вот материал от достоверного источника TheInformation, который написан примерно в то же время и имеет схожий сентимент, и в нём говорится:
— Компании OpenAI и SoftBank разошлись во мнениях относительно того, как совместно делать ДЦ
— Совместное предприятие Stargate не нанимало персонал и не занимается разработкой ни одного из ДЦ OpenAI
— В течение нескольких недель после объявления о запуске Stargate (в январе 2025-го) царил хаос из-за отсутствия руководства и координации.
Звучит как закрытие проекта, да? Нет, в том же материале:
— Несмотря на непростое начало, центры обработки данных, составляющие проект Stargate, наконец-то начинают обретать форму. Вместо того чтобы агрессивно строить и владеть центрами обработки данных самостоятельно — и привлекать для этого заемные средства — OpenAI делает большую ставку на сделки с облачными партнерами.
— По словам двух сотрудников OpenAI, компания по-прежнему намерена строить собственные центры обработки данных, но это больше не является приоритетом в ближайшем будущем. Вместо этого она использует бренд Stargate для структурирования ряда соглашений в области облачных технологий и инфраструктуры.
— OpenAI не достигла заявленной цели по получению от SoftBank и Oracle обязательств по выделению 10 ГВт мощностей на следующие три года. На конец 2025-го было согласовано... 7.5 ГВт (и куда больше — с другими провайдерами). Но так или иначе, несмотря на проблемы, это 75% оговоренного объема!
По сути, изначально Stargate подразумевал прямую работу с 2 компаниями — одна даёт деньги, другая строит ДЦ, но позже сам проект расширился, но конкретно скоуп работы с этими двумя немного сузился. Изменение ли это планов? Да. Закрытие проекта?
Теперь про самую свежую новость, про Техас и планы по расширению. Bloomberg написали, что отказались от предварительных планов по расширению уже существующих договорённостей. Изначально заложенные 1.2 ГВт остаются в силе, строятся (первая часть уже онлайн и, вероятно, участвовала в запуске GPT-5.3 / 5.4), запуск следующих зданий в этом ДЦ ожидается 1-го апреля.
Но кроме этого велись обсуждения на то, чтобы делать больше 1.2 ГВт, и «переговоры затянулись и осложнились проблемами финансирования и постоянно меняющимися прогнозами спроса OpenAI, прежде чем окончательно сорвались». TheInformation дополняет: «К тому времени, как расширенная площадка будет готова, Nvidia начнет поставки своих систем на базе чипов следующего поколения Vera Rubin, и OpenAI хотела найти новое место для размещения этих чипов, а не размещать их на существующем кампусе, где используются чипы Blackwell текущего поколения. Компания не хотела размещать чипы двух разных поколений Nvidia на одной площадке и предпочла бы консолидировать чипы Rubin в разных, расширяемых пространствах».
Имеет ли это смысл и может ли быть правдой? Ответ: да, так как из-за развития видеокарт требования к электросети и охлаждению очень разные. Из-за этого меняется инфраструктура вокруг, и приходится использовать другие решения.
Вот тут Semianalysis рассказывали, как визуально изменилась форма датацентров Microsoft, и что META вообще прекратила стройку и на ходу поменяла планировку, чтобы было как лучше — настолько большая разница может быть из-за нового железа. Поэтому разделять датацентры по поколениям железа — это вполне нормально.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Forwarded from Data Secrets
Мем дня: Cloudflare, которые годами защищали сайты от ботов-парсеров, выпустили парсер
Они анонсировали эндпоинт /crawl для Browser Rendering, который позволяет сканировать и извлекать контент целого сайта одним API-запросом. Он предназначен для «RAG пайплайнов, обучения AI, мониторинга и исследований».
Ирония в том, что Cloudflare – абсолютный лидер как раз в защите сайтов от нежелательных краулеров и ботов, которые собирают данные для обучения ИИ.
В свое оправдание они замечают, что их бот (в отличие от всех остальных злюк-ботов) будет вести себя хорошо: уважать правила сайта и robots.txt 😇
Они анонсировали эндпоинт /crawl для Browser Rendering, который позволяет сканировать и извлекать контент целого сайта одним API-запросом. Он предназначен для «RAG пайплайнов, обучения AI, мониторинга и исследований».
Ирония в том, что Cloudflare – абсолютный лидер как раз в защите сайтов от нежелательных краулеров и ботов, которые собирают данные для обучения ИИ.
В свое оправдание они замечают, что их бот (в отличие от всех остальных злюк-ботов) будет вести себя хорошо: уважать правила сайта и robots.txt 😇
❤2
Forwarded from TechSparks
Исследование HBR дает разумный ответ на часто звучащую претензию к ИИ-технологиям: “Мы тут ИИ внедрили, а экономического эффекта нет как нет. ИИ нас обманул своими обещаниями”
Как и в начале века, во времена массовой цифровизации, оказывается, что не новые технологии виноваты в отсутствии ROI, а сами компании, которые почему-то думают, что внедрение технологии само по себе, без трансформации бизнес-процессов и корпоративной культуры, в состоянии что-то ощутимо улучшить.
Исследователи даже выделили семь важных препятствий, которые на “последней миле” внедрения убивают всю пользу.
1. Любовь к отдельным пилотам, будто они что-то меняют. “pilot-rich but transformation-poor” внедрения — это просто трата денег
2. Разрыв в производительности. Повышение производительности сотрудников внутри отдельных изолированных процессов без структурныз перемен ни на что не может повлиять.
3. Неподъемная ноша устаревших процессов. ИИ — отличный диагностический инструмент для выявления самых замшелых мест в бизнес-процессах. Но изменить он сами эти процессы не может.
4. Проблема идентичности и неформального знания. Роль “знающего человека” начинает вредить: это внутреннее знание должно преобразоваться в знание, доступное ИИ и воплощенное в нем. Понятно, почему “знающие люди” саботируют процесс внедрения
5. Управление мультиагентныи системами куда больше похоже на HR-задачу, чем на задачу инженерную, у этой задачи вообще нет инженерного решения. Leaders must now ask questions that resemble human resources more than IT, such as how to onboard, evaluate, secure, and eventually retire a digital worker.
6. Архитектурная сложность. Пестрота агентов, зачастую от разных вендоров, приводит к необходимости организовать их эффективную совместную работу. При неправильной организации любое обновление или изменение одного из агентов заставляет переделывать весть процесс взаимодействия.
7. Ловушка эффективности. Попытка рассматривать внедрение ИИ как средства снижения костов ожидаемо встречает сопротивление менеджеров среднего звена. Эффективный ИИ не просто ускоряет процессы, он меняет всю цепочку создания ценности.
Завершается статья списком организационных мероприятий, вполне внешне очевидных, но почему-то не проводимых руководством, мечтающим о волшебной таблетке. ИИ — не она:)
https://hbr.org/2026/03/the-last-mile-problem-slowing-ai-transformation
Как и в начале века, во времена массовой цифровизации, оказывается, что не новые технологии виноваты в отсутствии ROI, а сами компании, которые почему-то думают, что внедрение технологии само по себе, без трансформации бизнес-процессов и корпоративной культуры, в состоянии что-то ощутимо улучшить.
Исследователи даже выделили семь важных препятствий, которые на “последней миле” внедрения убивают всю пользу.
1. Любовь к отдельным пилотам, будто они что-то меняют. “pilot-rich but transformation-poor” внедрения — это просто трата денег
2. Разрыв в производительности. Повышение производительности сотрудников внутри отдельных изолированных процессов без структурныз перемен ни на что не может повлиять.
3. Неподъемная ноша устаревших процессов. ИИ — отличный диагностический инструмент для выявления самых замшелых мест в бизнес-процессах. Но изменить он сами эти процессы не может.
4. Проблема идентичности и неформального знания. Роль “знающего человека” начинает вредить: это внутреннее знание должно преобразоваться в знание, доступное ИИ и воплощенное в нем. Понятно, почему “знающие люди” саботируют процесс внедрения
5. Управление мультиагентныи системами куда больше похоже на HR-задачу, чем на задачу инженерную, у этой задачи вообще нет инженерного решения. Leaders must now ask questions that resemble human resources more than IT, such as how to onboard, evaluate, secure, and eventually retire a digital worker.
6. Архитектурная сложность. Пестрота агентов, зачастую от разных вендоров, приводит к необходимости организовать их эффективную совместную работу. При неправильной организации любое обновление или изменение одного из агентов заставляет переделывать весть процесс взаимодействия.
7. Ловушка эффективности. Попытка рассматривать внедрение ИИ как средства снижения костов ожидаемо встречает сопротивление менеджеров среднего звена. Эффективный ИИ не просто ускоряет процессы, он меняет всю цепочку создания ценности.
Завершается статья списком организационных мероприятий, вполне внешне очевидных, но почему-то не проводимых руководством, мечтающим о волшебной таблетке. ИИ — не она:)
https://hbr.org/2026/03/the-last-mile-problem-slowing-ai-transformation
Harvard Business Review
The “Last Mile” Problem Slowing AI Transformation
Few companies have been able to fundamentally change their operating and business models around AI. The primary obstacle to progress is rarely model quality or data availability, but rather the “last mile” of transformation where technical capability must…
❤2
NVIDIA вложила $2B в Nebius Group Воложа - будут строить супер датацентр для энтерпрайз AI.
@maxrepost👾
@maxrepost
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🤡2
Нью-Йорк первым в США начал регулировать AI-персонажей в рекламе.
С 9 июня реклама с синтетическим персонажем должна иметь явную пометку. Первый штраф — $1,000, дальше — $5,000 за каждое нарушение.
Параллельно выкатили Fashion Workers Act — он защищает реальных моделей: без согласия нельзя делать цифровые копии их лица, тела или голоса.
Штрафы конечно пока смешные, но сигнал понятный.
@maxrepost👾
С 9 июня реклама с синтетическим персонажем должна иметь явную пометку. Первый штраф — $1,000, дальше — $5,000 за каждое нарушение.
Параллельно выкатили Fashion Workers Act — он защищает реальных моделей: без согласия нельзя делать цифровые копии их лица, тела или голоса.
Штрафы конечно пока смешные, но сигнал понятный.
@maxrepost
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
Forwarded from Futuris (Anton)
can you use whatever resources you like, and python, to generate a short 'youtube poop' video and render it using ffmpeg ? can you put more of a personal spin on it? it should express what it's like to be a LLM
claude opus 4.6:
🤯6
Forwarded from Мысли Рвачева
📊 ARK выпустили Big Ideas 2026 - ежегодный обзор технологических трендов от фонда Cathie Wood
Несколько цифр из отчета, которые стоит знать:
Стоимость инференса за год упала на 99%. Спрос на вычисления на OpenRouter вырос в 25 раз с декабря 2024. Когда интеллект дешевеет почти до нуля - рынок взрывается уже не на уровне разговоров, а на уровне реального использования.
Вложения в дата-центры в 2025 - около $500 млрд. К 2030 ARK ждет $1,4 трлн. Это не бум моделей, это гигантский цикл перестройки инфраструктуры.
AI-агенты за год научились надежно выполнять задачи в 5 раз длиннее - с 6 до 31 минуты человеческой работы. Стоимость кодинга упала на 91% за 8 месяцев: с $3,50 до $0,32 за миллион токенов.
Путь к покупке схлопывается с часа до 90 секунд. К 2030 AI-агенты могут проводить $8+ трлн онлайн-покупок и забирать 25% мировых онлайн-продаж. Доля AI search вырастет с 10% до 65% трафика.
Cursor перевалил за $1 млрд ARR. Harvey, OpenEvidence, Sierra - около $100 млн. Рынок платит уже не за "доступ к модели", а за готовые вертикальные решения.
В фарме искусственный интеллект может снизить стоимость вывода лекарства в 4 раза, с $2,4 млрд до $0,7 млрд. К 2030 около трети одобренных FDA диагностических систем будут AI-powered.
Геополитика: китайские модели отстают от американских примерно на 6 месяцев, но упираются в железо - TSMC производит в 38 раз больше вычислительной мощности, чем SMIC. Лидерство в искусственном интеллекте - это уже не алгоритмы, а доступ к чипам, фабрикам и энергии.
Искусственный интеллект уже не опция. Это новый базовый слой бизнеса.
https://www.ark-invest.com/big-ideas-2026
#ai #arkinvest #cathiewood
—————————
Мысли Рвачева
—————————
Несколько цифр из отчета, которые стоит знать:
Стоимость инференса за год упала на 99%. Спрос на вычисления на OpenRouter вырос в 25 раз с декабря 2024. Когда интеллект дешевеет почти до нуля - рынок взрывается уже не на уровне разговоров, а на уровне реального использования.
Вложения в дата-центры в 2025 - около $500 млрд. К 2030 ARK ждет $1,4 трлн. Это не бум моделей, это гигантский цикл перестройки инфраструктуры.
AI-агенты за год научились надежно выполнять задачи в 5 раз длиннее - с 6 до 31 минуты человеческой работы. Стоимость кодинга упала на 91% за 8 месяцев: с $3,50 до $0,32 за миллион токенов.
Путь к покупке схлопывается с часа до 90 секунд. К 2030 AI-агенты могут проводить $8+ трлн онлайн-покупок и забирать 25% мировых онлайн-продаж. Доля AI search вырастет с 10% до 65% трафика.
Cursor перевалил за $1 млрд ARR. Harvey, OpenEvidence, Sierra - около $100 млн. Рынок платит уже не за "доступ к модели", а за готовые вертикальные решения.
В фарме искусственный интеллект может снизить стоимость вывода лекарства в 4 раза, с $2,4 млрд до $0,7 млрд. К 2030 около трети одобренных FDA диагностических систем будут AI-powered.
Геополитика: китайские модели отстают от американских примерно на 6 месяцев, но упираются в железо - TSMC производит в 38 раз больше вычислительной мощности, чем SMIC. Лидерство в искусственном интеллекте - это уже не алгоритмы, а доступ к чипам, фабрикам и энергии.
Искусственный интеллект уже не опция. Это новый базовый слой бизнеса.
https://www.ark-invest.com/big-ideas-2026
#ai #arkinvest #cathiewood
—————————
Мысли Рвачева
—————————
❤1
Futuris
can you use whatever resources you like, and python, to generate a short 'youtube poop' video and render it using ffmpeg ? can you put more of a personal spin on it? it should express what it's like to be a LLM claude opus 4.6:
Media is too big
VIEW IN TELEGRAM
Ну и немного подправив промпт и дав линк на мой сайт amyote.com получаем еще более отлетевшую историю.
@maxrepost - subscribe and destroy!
@maxrepost - subscribe and destroy!
❤6😱1
Тем временем мем про Гарри Потера и Баленсиагу превратили в крутейшую короткометражку. https://www.youtube.com/watch?v=gtnt84CDP-s
@maxrepost
@maxrepost
YouTube
Harry Potter by Balenciaga (2026)
Merch: https://demonflyingfox.com/
Spotify: https://bit.ly/4afQdkm
Patreon to support this channel: https://www.patreon.com/user?u=87233464
Instagram: https://www.instagram.com/demonflyingfox
Spotify: https://bit.ly/4afQdkm
Patreon to support this channel: https://www.patreon.com/user?u=87233464
Instagram: https://www.instagram.com/demonflyingfox
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Google назвали свое новое здание в Лондоне «Platform 37» – в честь 37 хода AlphaGo в партии против Ли Седоля
Напоминаем, что победе ИИ над Седолем на днях исполнилось ровно 10 лет
Скоро в здании, кстати, откроется The AI Exchange – общественное пространство, где будут проходить бесплатные открытые мероприятия, лекции и выставки, посвященные ИИ
Напоминаем, что победе ИИ над Седолем на днях исполнилось ровно 10 лет
Скоро в здании, кстати, откроется The AI Exchange – общественное пространство, где будут проходить бесплатные открытые мероприятия, лекции и выставки, посвященные ИИ
Я тут вписался в интересную историю. Мы с ребятами из Guide DAO много обсуждали как я за два года прошел путь от Python до крейзихаотик вайбкодинга и потом к архитектурному low-Vibecoding. В итоге придумали сделать курс.
🚀 Интенсив по вайбкодингу в стиле AI-JTBD: сделай нормальный продукт с нуля за 8 недель.
Стартует все 15 марта. За 8 недель пройдём путь от гипотезы и JTBD до релиза MVP с AI-фичами. По дороге будем изучать грабли и ловушки.
Кому: фаундерам, разработчикам, дизайнерам и тем, кто хочет быстро проверять идеи кодом, минуя найм команды.
Как устроено: 8 недель, живые стримы, домашки с обратной связью. И экспериментальный agent-тьютор.
Каждый модуль — видимый результат:
— Прототип в AI-песочнице → CRUD → регистрация → агентные функции → тесты → деплой.
— Итог: готовый веб-сервис (mobile/desktop) и навык «придумал → сделал → запустил».
По промокоду LIFECHANGE скидка -40% на guidedao.xyz до 15 марта
📍 Ссылка для записи в боте: @GuideDAO_hallo_bot (пришлём за 5 минут).
🚀 Интенсив по вайбкодингу в стиле AI-JTBD: сделай нормальный продукт с нуля за 8 недель.
Стартует все 15 марта. За 8 недель пройдём путь от гипотезы и JTBD до релиза MVP с AI-фичами. По дороге будем изучать грабли и ловушки.
Кому: фаундерам, разработчикам, дизайнерам и тем, кто хочет быстро проверять идеи кодом, минуя найм команды.
Как устроено: 8 недель, живые стримы, домашки с обратной связью. И экспериментальный agent-тьютор.
Каждый модуль — видимый результат:
— Прототип в AI-песочнице → CRUD → регистрация → агентные функции → тесты → деплой.
— Итог: готовый веб-сервис (mobile/desktop) и навык «придумал → сделал → запустил».
По промокоду LIFECHANGE скидка -40% на guidedao.xyz до 15 марта
📍 Ссылка для записи в боте: @GuideDAO_hallo_bot (пришлём за 5 минут).
www.guidedao.xyz
Интенсив по агентскому кодингу
Авторский курс: собираем продукт от JTBD (Jobs To Be Done) и PRD до релиз-ready MVP с mobile- и desktop-потоком, данными, AI-фичами и управляемым релизом.
❤3💊1
Forwarded from Quantum Quintum (Constantin Kichinsky)
+1
Atlassian: у нас все хорошо, бизнес растет, но все растут еще больше. Нам нужно большее ИИ и больше сейлзов. Поэтому сокращаем 10% (1600 чел). Посмотрете видео-послание CEO. Через 20 минут сова принесет письмо, если вас уволили.
Atlassian: у нас все хорошо, бизнес растет, но все растут еще больше. Нам нужно большее ИИ и больше сейлзов. Поэтому сокращаем 10% (1600 чел). Посмотрете видео-послание CEO. Через 20 минут сова принесет письмо, если вас уволили.
Work Life by Atlassian
An important update on our team
I’m sharing some important news today. I have made the incredibly difficult decision to reduce the size of our team...
Forwarded from Futuris (Anton)
This media is not supported in your browser
VIEW IN TELEGRAM
Вместо вбивания точного адреса теперь можно общаться промптами: «найди по пути заправку со свободной электрозарядкой, где варят нормальный кофе и есть чистый туалет, чтобы не делать крюк в десять километров». ИИ сам перелопатит сотни свежих отзывов, учтет твои привычки и бесшовно встроит идеальную остановку в маршрут
Сами карты тоже перерисовали (Immersive Navigation). Плоский вид сверху заменили на объемный 3D-рендер с прозрачными зданиями, точной разметкой полос, эстакадами и светофорами. А роботизированные подсказки озвучили живым человеческим голосом: навигатор больше не чеканит «через 300 метров направо», а подсказывает как пассажир на соседнем сиденье: «сразу за развязкой уходи в правый ряд».
Надеюсь, ИИ-галлюцинации нам не придется ощущать физически, когда нейронка уверенным голосом проложит живописный 3D-маршрут прямо в реку
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡2
Я за последний год в проектах сильно перешел на Google Gemini стек. Легкий вход. Бонусы для разработчиков. Приятная документация. Но. Когда начинается не экспериментальная и тестовая жизнь, а хардкорный продакшн, то становится все менее весело. Модели часто тупят или лежат. Я решил поресечить эту тему.
Вот, что выяснилось. Когда все хорошо, gemini 2.5 — моя рабочая лошадь впереди. Независимые замеры Artificial Analysis показывали, что у Gemini 2.5 Flash output speed около 216.9 токенов/с, у GPT-4.1 — около 83.9 токенов/с, у Claude 4 Sonnet — около 42.7 токенов/с. Но по incident tracking у Anthropic в начале марта 2026 был целый букет сбоев по Sonnet / Haiku / Opus и таймаутам API, у Google был подтверждённый инцидент Vertex Gemini global endpoint на 1 час 58 минут 27 февраля 2026 и еще цепочка поменьше. У OpenAI нет инцидентов в этом году и публичная 90-day API availability всё ещё выше — 99.76% против 99.4% у Claude API и мутных цифр у Google.
Вывод тут такой. Видимо в серьезном продакшене для клиентов, да и для себя сегодня нельзя сидеть на одном поставщике API и придется делать фолбэки на разные модели от разных провайдеров.
@maxrepost👾
Вот, что выяснилось. Когда все хорошо, gemini 2.5 — моя рабочая лошадь впереди. Независимые замеры Artificial Analysis показывали, что у Gemini 2.5 Flash output speed около 216.9 токенов/с, у GPT-4.1 — около 83.9 токенов/с, у Claude 4 Sonnet — около 42.7 токенов/с. Но по incident tracking у Anthropic в начале марта 2026 был целый букет сбоев по Sonnet / Haiku / Opus и таймаутам API, у Google был подтверждённый инцидент Vertex Gemini global endpoint на 1 час 58 минут 27 февраля 2026 и еще цепочка поменьше. У OpenAI нет инцидентов в этом году и публичная 90-day API availability всё ещё выше — 99.76% против 99.4% у Claude API и мутных цифр у Google.
Вывод тут такой. Видимо в серьезном продакшене для клиентов, да и для себя сегодня нельзя сидеть на одном поставщике API и придется делать фолбэки на разные модели от разных провайдеров.
@maxrepost
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Cursor написали в своём блоге о том, как отслеживают качество моделей в написании кода. Они используют гибридный онлайн-офлайн процесс.
Оффлайн — это обычный бенчмарк на внутреннем наборе тестов, основанном на сессиях работы инженеров компании. В среднем решение требует гораздо больше строк кода в решении, нежели публичные бенчмарки: изменение 352 строк в ~8 файлах.
Сравнение с другими бенчмарками приведено на второй картинке — откуда также видно, что входное описание куда короче других бенчмарков, то есть в промпте не прописывают каждую маленькую деталь (но детали прописаны в рубрике для автоматической проверки).
Онлайн-часть — это контролируемый анализ на реальном живом трафике. Такие онлайн-оценки помогают выявлять регрессии, например, когда результат работы агента выглядит правильным для проверяющего, но воспринимается хуже самим разработчиком, использующим продукт.
Онлайн-оценка позволяет измерить, действительно ли улучшения помогают разработчикам на практике. Cursor отслеживают набор высокоуровневых прокси-метрик (косвенных показателей) результативности агента на основе действий пользователя.
Онлайн и офлайн бенчмарк очень скоррелированы и имеют одинаковое ранжирование моделей (третья картинка) — в топе GPT-5.4, чуть ниже Opus 4.6 на уровне с GPT-5.2, а собственная модель компании Composer 1.5 обходит Sonnet 4.5 (при том что она гораздо быстрее за счёт инференса на чипах Cerebras).
Приятно удивлён, что пользователи Cursor так высоко оценивают модели OpenAI — но ещё здорово и то, что они требуют меньше токенов для решения задач.
Задачи CursorBench решаются в рамках одной сессии, но компания ожидает, что в течение следующего года подавляющее большинство задач по разработке будет передано агентам с длинным горизонтом планирования, работающим на своих собственных мощностях где-то в облаке — и бенчмарк придётся адаптировать к этому.
Оффлайн — это обычный бенчмарк на внутреннем наборе тестов, основанном на сессиях работы инженеров компании. В среднем решение требует гораздо больше строк кода в решении, нежели публичные бенчмарки: изменение 352 строк в ~8 файлах.
Сравнение с другими бенчмарками приведено на второй картинке — откуда также видно, что входное описание куда короче других бенчмарков, то есть в промпте не прописывают каждую маленькую деталь (но детали прописаны в рубрике для автоматической проверки).
Онлайн-часть — это контролируемый анализ на реальном живом трафике. Такие онлайн-оценки помогают выявлять регрессии, например, когда результат работы агента выглядит правильным для проверяющего, но воспринимается хуже самим разработчиком, использующим продукт.
Онлайн-оценка позволяет измерить, действительно ли улучшения помогают разработчикам на практике. Cursor отслеживают набор высокоуровневых прокси-метрик (косвенных показателей) результативности агента на основе действий пользователя.
Онлайн и офлайн бенчмарк очень скоррелированы и имеют одинаковое ранжирование моделей (третья картинка) — в топе GPT-5.4, чуть ниже Opus 4.6 на уровне с GPT-5.2, а собственная модель компании Composer 1.5 обходит Sonnet 4.5 (при том что она гораздо быстрее за счёт инференса на чипах Cerebras).
Приятно удивлён, что пользователи Cursor так высоко оценивают модели OpenAI — но ещё здорово и то, что они требуют меньше токенов для решения задач.
Задачи CursorBench решаются в рамках одной сессии, но компания ожидает, что в течение следующего года подавляющее большинство задач по разработке будет передано агентам с длинным горизонтом планирования, работающим на своих собственных мощностях где-то в облаке — и бенчмарк придётся адаптировать к этому.