Вайбкодинг в бигтехе: как происходит внедрение ИИ-агентов
Разговоров про кодинг-агентов становится все больше, но мало кто понимает, что внедрение таких систем на уровне компании — это сложная инженерная работа, а не просто «подключили модель и поехали».
Обычно этот процесс остается за закрытыми дверями. Но иногда появляется возможность послушать практиков. Недавно мы посмотрели в онлайне митап AI Dev Day, и сразу несколько докладов были посвящены внедрению AI-агентов в процессы разработки.
Андрей Попов, лидер трека ИИ в разработке в Яндексе, рассказал, что у них развитием агентов занимаются уже не энтузиасты, а полноценные команды, и это направление стало фокусным. Из чего состоит такая работа:
— Метрики. Главная метрика сейчас — сэкономленное время разработчика. Суммарно ИИ сэкономил уже 42к часов инженеров Яндекса. Есть и другие показатели: например, количество коммитов при использовании ИИ выросло на 10%, что означает – разработка ускоряется. В перспективе компания хочет двигаться к AI-first подходу: ключевым станет показатель того, как часто разработчику приходится вмешиваться в автономный процесс генерации кода (по аналогии с disengagement rate в автономном транспорте).
— Собственные бенчмарки и дообучение моделей. В компании есть внутренний бенчмарк ArcSWE – аналог SWE Verified, но на задачах компании. Именно такие измерения становятся основой для управленческих решений, потому что на публичные бенчмарки не всегда можно опираться.
— Своя инфраструктура. Собственный интерфейс, доступный инференс, RAG, MCP и системы контекста. В большой компании множество внутренних сервисов, поэтому требуется много кастомной интеграции – сейчас у компании уже 35+ MCP для работы с инфраструктурой.
Сейчас около 30% кода в компании генерируется ИИ, причем 23% – в агентском режиме внутри собственного агента Yandex Code Assistant. О том, как его разрабатывают и улучшают, на той же конференции рассказывал Сергей Бульдяев, технический менеджер продукта.
Все это – демонстрация процесса настоящего внедрения. Очень важно не проваливаться в хайп, трезво проводить эвал и заниматься агентами не на уровне пет-проектов на выходных, а именно вот так организованно.
Разговоров про кодинг-агентов становится все больше, но мало кто понимает, что внедрение таких систем на уровне компании — это сложная инженерная работа, а не просто «подключили модель и поехали».
Обычно этот процесс остается за закрытыми дверями. Но иногда появляется возможность послушать практиков. Недавно мы посмотрели в онлайне митап AI Dev Day, и сразу несколько докладов были посвящены внедрению AI-агентов в процессы разработки.
Андрей Попов, лидер трека ИИ в разработке в Яндексе, рассказал, что у них развитием агентов занимаются уже не энтузиасты, а полноценные команды, и это направление стало фокусным. Из чего состоит такая работа:
— Метрики. Главная метрика сейчас — сэкономленное время разработчика. Суммарно ИИ сэкономил уже 42к часов инженеров Яндекса. Есть и другие показатели: например, количество коммитов при использовании ИИ выросло на 10%, что означает – разработка ускоряется. В перспективе компания хочет двигаться к AI-first подходу: ключевым станет показатель того, как часто разработчику приходится вмешиваться в автономный процесс генерации кода (по аналогии с disengagement rate в автономном транспорте).
— Собственные бенчмарки и дообучение моделей. В компании есть внутренний бенчмарк ArcSWE – аналог SWE Verified, но на задачах компании. Именно такие измерения становятся основой для управленческих решений, потому что на публичные бенчмарки не всегда можно опираться.
— Своя инфраструктура. Собственный интерфейс, доступный инференс, RAG, MCP и системы контекста. В большой компании множество внутренних сервисов, поэтому требуется много кастомной интеграции – сейчас у компании уже 35+ MCP для работы с инфраструктурой.
Сейчас около 30% кода в компании генерируется ИИ, причем 23% – в агентском режиме внутри собственного агента Yandex Code Assistant. О том, как его разрабатывают и улучшают, на той же конференции рассказывал Сергей Бульдяев, технический менеджер продукта.
Все это – демонстрация процесса настоящего внедрения. Очень важно не проваливаться в хайп, трезво проводить эвал и заниматься агентами не на уровне пет-проектов на выходных, а именно вот так организованно.
🗿80😁28❤26👍26🔥13🤔7🤯2👏1
Google DeepMind заплатит от 10 до 25 тысяч долларов тому, кто придумает лучший бенчмарк для AGI
В 2026 году мы все еще не понимаем, как оценить, насколько модель близка к AGI.
Google считают, что это большая проблема, и они правы. Без нормального эвала не будет прогресса. Именно из-за однобоких бенчмарков в моделях сейчас развивается то, что Хассабис называет jagged intelligence (рваный интеллект): в одном модель супер умная (например, код), в другом – супер тупая.
Короче, Google предлагают идею когнитивной таксономии, то есть разбиения интеллекта на базовые способности: память, обучаемость, планирование, социальное мышление и тд. Это все позаимствовано из психологии и нейронауки.
Они запустили соревнование на Kaggle, в рамках которого нужно придумать, как измерять каждую из таких способностей (выбрали пять основных: обучаемость, метакогнитивность, внимание, исполнительные функции, социальная когнитивность).
Победителей будут выбирать по тому, насколько валидный, научно обоснованный, практически применимый и устойчивый к читингу бенчмарк вы предложите.
Двум победителям в каждом треке платят по 10к долларов, плюс 25к долларов получат четыре лучших бенчмарка среди всех сабмитов.
Будем следить
www.kaggle.com/competitions/kaggle-measuring-agi
В 2026 году мы все еще не понимаем, как оценить, насколько модель близка к AGI.
Google считают, что это большая проблема, и они правы. Без нормального эвала не будет прогресса. Именно из-за однобоких бенчмарков в моделях сейчас развивается то, что Хассабис называет jagged intelligence (рваный интеллект): в одном модель супер умная (например, код), в другом – супер тупая.
Короче, Google предлагают идею когнитивной таксономии, то есть разбиения интеллекта на базовые способности: память, обучаемость, планирование, социальное мышление и тд. Это все позаимствовано из психологии и нейронауки.
Они запустили соревнование на Kaggle, в рамках которого нужно придумать, как измерять каждую из таких способностей (выбрали пять основных: обучаемость, метакогнитивность, внимание, исполнительные функции, социальная когнитивность).
Победителей будут выбирать по тому, насколько валидный, научно обоснованный, практически применимый и устойчивый к читингу бенчмарк вы предложите.
Двум победителям в каждом треке платят по 10к долларов, плюс 25к долларов получат четыре лучших бенчмарка среди всех сабмитов.
Будем следить
www.kaggle.com/competitions/kaggle-measuring-agi
👍96❤36😁24🔥8🤯4🤔2🐳2
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI запустили большое ML-соревнование
Если кратко, это code golf эпохи LLM: нужно обучить минимальную модель, которая лучше всего предсказывает текст на FineWeb (это просто очищенные веб-страницы).
Метрика – bits per byte. Это, по сути, та же энтропия, а по факту – количество информации, которое нужно модели для предсказания текста. Если модель хорошая, она уверена в правильном ответе и тратит на него мало бит, если плохая – наоборот.
Самое интересное, что модель должна укладываться в 16МВ и 10 минут обучения на 8 × H100 GPU, так что вывезти на компьюте не получится.
Зато нет ограничений на архитектуру, количество слоев, всякие трюки с test-time, токенизатор и тд. Тут полет инженерной фантазии, и OpenAI прямо говорят, что ожидают от участников изобретательности.
Для участников стартап выделяет миллион долларов на компьют, гранты можно запрашивать поэтапно. Говорят, что авторов лучших решений пригласят на работу.
https://openai.com/index/parameter-golf/
Если кратко, это code golf эпохи LLM: нужно обучить минимальную модель, которая лучше всего предсказывает текст на FineWeb (это просто очищенные веб-страницы).
Метрика – bits per byte. Это, по сути, та же энтропия, а по факту – количество информации, которое нужно модели для предсказания текста. Если модель хорошая, она уверена в правильном ответе и тратит на него мало бит, если плохая – наоборот.
Самое интересное, что модель должна укладываться в 16МВ и 10 минут обучения на 8 × H100 GPU, так что вывезти на компьюте не получится.
Зато нет ограничений на архитектуру, количество слоев, всякие трюки с test-time, токенизатор и тд. Тут полет инженерной фантазии, и OpenAI прямо говорят, что ожидают от участников изобретательности.
Для участников стартап выделяет миллион долларов на компьют, гранты можно запрашивать поэтапно. Говорят, что авторов лучших решений пригласят на работу.
https://openai.com/index/parameter-golf/
❤82🔥39👍23😁6
Apple блокируют приложения для вайб-кодинга в AppStore
О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information.
Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического девелопмента.
В компании говорят, что блокировки не направлены конкретно против вайб-кодинга, просто подобные приложения «нарушают политику» (классика). Мол, дело в том, что у Apple прописан запрет на выполнение кода, который меняет поведение приложения или других приложений после установки.
Грубо говоря, Apple боятся неконтролируемого распространения софта в обход своего стора (проходя проверки в котором, кстати, ты тратишь обычно больше времени, чем на сам кодинг).
Видимо, теперь разработчикам придется урезать функционал и, например, выносить превью в браузер или вообще запрещать генерацию приложений под iOS.
Грустно, конечно
О том, что они начали тихо отклонять обновления подобных приложений, пишет The Information.
Речь о таких штуках, как Replit и Vibecode. Там можно генерить приложения прямо внутри iPhone без классического девелопмента.
В компании говорят, что блокировки не направлены конкретно против вайб-кодинга, просто подобные приложения «нарушают политику» (классика). Мол, дело в том, что у Apple прописан запрет на выполнение кода, который меняет поведение приложения или других приложений после установки.
Грубо говоря, Apple боятся неконтролируемого распространения софта в обход своего стора (проходя проверки в котором, кстати, ты тратишь обычно больше времени, чем на сам кодинг).
Видимо, теперь разработчикам придется урезать функционал и, например, выносить превью в браузер или вообще запрещать генерацию приложений под iOS.
Грустно, конечно
😁110❤20🔥10👍9🤨7 7🗿5🤯3❤🔥2 2🫡1
Meta* закрывают Metaverse, на который потратили около 80 миллиардов долларов
Они объявили о том, что выводят из VR свой ключевой метаверсный продукт Horizon Worlds: приложение убирают из магазина Quest в конце марта 2026, а полный shutdown VR‑версии произойдет 15 июня.
Именно Horizon Worlds был ядром стратегии «VR‑метаверс как следующая глава интернета». Так что, фактически, это убийство проекта метавселенной как такового.
При этом подразделение Reality Labs, которое отвечало за VR и метаверс, с 2020 года накопило около 70–80 млрд долларов операционных убытков.
F
Они объявили о том, что выводят из VR свой ключевой метаверсный продукт Horizon Worlds: приложение убирают из магазина Quest в конце марта 2026, а полный shutdown VR‑версии произойдет 15 июня.
Именно Horizon Worlds был ядром стратегии «VR‑метаверс как следующая глава интернета». Так что, фактически, это убийство проекта метавселенной как такового.
При этом подразделение Reality Labs, которое отвечало за VR и метаверс, с 2020 года накопило около 70–80 млрд долларов операционных убытков.
F
🤯176😁117 38🫡17❤11🤗3👍2 2
Вышла новая кодинг модель от Cursor
На собственном бенчмарке от Cursor – CursorBench – Composer 2 находится примерно на уровне GPT-5.4 и Opus 4.6. Акцент, естественно, на агентное программирование и работу в больших кодовых базах.
Цены довольно низкие: $0.50/M input и $2.50/M output. Есть фаст мод, стоит в три раза дороже, но при этом скорость заявляют заметно выше Opus 4.6 Fast и GPT-5.4 Fast.
Как будто бы стоит попробовать. По крайне мере, прогресс относительно предыдущей версии модели большой.
https://cursor.com/blog/composer-2
На собственном бенчмарке от Cursor – CursorBench – Composer 2 находится примерно на уровне GPT-5.4 и Opus 4.6. Акцент, естественно, на агентное программирование и работу в больших кодовых базах.
Цены довольно низкие: $0.50/M input и $2.50/M output. Есть фаст мод, стоит в три раза дороже, но при этом скорость заявляют заметно выше Opus 4.6 Fast и GPT-5.4 Fast.
Как будто бы стоит попробовать. По крайне мере, прогресс относительно предыдущей версии модели большой.
https://cursor.com/blog/composer-2
❤60👍35🔥19🤔8😁4🤯2
OpenAI покупают Astral
Это создатели Ruff, uv и ty – питонистам эти тулзы точно известны. OpenAI планирует интегрировать инструменты Astral в свою экосистему, в частности – в Codex.
Поддержка опенсорс проектов Astral после приобретения продолжится, а команда компании присоединится к подразделению Codex в OpenAI.
А теперь внимание на последний коммит в репозитории uv⬆️
Это создатели Ruff, uv и ty – питонистам эти тулзы точно известны. OpenAI планирует интегрировать инструменты Astral в свою экосистему, в частности – в Codex.
Поддержка опенсорс проектов Astral после приобретения продолжится, а команда компании присоединится к подразделению Codex в OpenAI.
А теперь внимание на последний коммит в репозитории uv
Please open Telegram to view this post
VIEW IN TELEGRAM
😁255🤯35❤24🔥12👍8🤔4🤓1🫡1
Media is too big
VIEW IN TELEGRAM
Американский политик Берни Сандерс поговорил с Claude за жизнь
Он решил обсудить с чат-ботом безопасность данных и влияние ИИ на приватность. Claude, обученный на Reddit и новостниках, естественно, благополучно выдал, что данные пользователей собираются абсолютно отовсюду и монетизируются без реального согласия людей (а что, это кого-то все еще удивляет?).
В конце Claude заявил, что проблема приватности и ИИ – это угроза демократии. Теперь диалог распространяется в СМИ под видом «Тревога: ИИ признался политику, что компании манипулируют нами через данные».
Впрочем, ничего нового
https://youtu.be/h3AtWdeu_G0
Он решил обсудить с чат-ботом безопасность данных и влияние ИИ на приватность. Claude, обученный на Reddit и новостниках, естественно, благополучно выдал, что данные пользователей собираются абсолютно отовсюду и монетизируются без реального согласия людей (а что, это кого-то все еще удивляет?).
В конце Claude заявил, что проблема приватности и ИИ – это угроза демократии. Теперь диалог распространяется в СМИ под видом «Тревога: ИИ признался политику, что компании манипулируют нами через данные».
Впрочем, ничего нового
https://youtu.be/h3AtWdeu_G0
😁166 28❤11⚡9 6👍2🔥2🤔1
Минцифры разработало законопроект о регулировании ИИ, который вводит возможность ограничений для «трансграничных» моделей вроде ChatGPT, Claude и Gemini
В Роскомнадзоре уверены, что эти сервисы передают данные российских пользователей за рубеж, поэтому могут быть ограничены или заблокированы из-за нарушения законов о персональных данных.
Кто-нибудь может объяснить, что изменится после принятия, если все перечисленное в России и так не работает?❓
В Роскомнадзоре уверены, что эти сервисы передают данные российских пользователей за рубеж, поэтому могут быть ограничены или заблокированы из-за нарушения законов о персональных данных.
Кто-нибудь может объяснить, что изменится после принятия, если все перечисленное в России и так не работает?
Please open Telegram to view this post
VIEW IN TELEGRAM
Data Science и Data Engineering: какое направление выбрать в 2026 году?
🎧 1 апреля пройдет День открытых дверей онлайн-магистратуры НИЯУ МИФИ «Специалист по работе с данными и ИИ» в партнёрстве с Яндекс Практикумом.
Подключайтесь онлайн 1 апреля в 19:00 мск.
🏃♀️ Записаться на ДОД
На встрече обсудят:💙 как рост ИИ трансформируют рынок труда💙 4 трека для развития: ML, CV, NLP и Data Engineering💙 какие задачи усложняются и где усиливается конкуренция
И расскажут, как за 2 года освоить фундаментальную базу, собрать портфолио из проектов и получить диплом магистра без отрыва от работы.
Подключайтесь онлайн 1 апреля в 19:00 мск.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿15❤8🤔3👍2😁2🤨1
Сооснователю Super Micro грозит до 30 лет тюрьмы за контрабанду чипов Nvidia в Китай
Минюст США обвинил Yih-Shyan “Wally” Liaw в организации нелегальных поставок серверов с Nvidia-чипами на сумму ~$2.5 млрд.
Технику переправляли в Китай через Тайвань и ЮВА, используя подставную компанию и фиктивные документы. Для обхода проверок создавались так называемые dummy servers, на которых с помощью фена переклеивали серийные номера (лол).
Саму компанию не обвиняют, но акции уже обвалились, и под следствием 3 человека, имеющие к ней непосредственное отношение. Один все еще в розыске.
Возможно, это первое, но 100% далеко не последнее подобное дело, о котором вы услышите
Минюст США обвинил Yih-Shyan “Wally” Liaw в организации нелегальных поставок серверов с Nvidia-чипами на сумму ~$2.5 млрд.
Технику переправляли в Китай через Тайвань и ЮВА, используя подставную компанию и фиктивные документы. Для обхода проверок создавались так называемые dummy servers, на которых с помощью фена переклеивали серийные номера (лол).
Саму компанию не обвиняют, но акции уже обвалились, и под следствием 3 человека, имеющие к ней непосредственное отношение. Один все еще в розыске.
Возможно, это первое, но 100% далеко не последнее подобное дело, о котором вы услышите
🔥63 47😁13❤12🫡4😎4 4🤯3🤔2👍1🤨1
Современные системы машинного перевода – это композиция из нескольких моделей с разными характеристиками
Для простых запросов (короткие фразы, типовые конструкции) используются более лёгкие нейронки: они быстрее и дешевле по ресурсам.
В более сложных сценариях с длинными текстами, сложным контекстом и неоднозначными формулировками – подключаются большие языковые модели. Они генерируют перевод целиком, удерживая связность на уровне крупных блоков, но требуют существенно больше вычислений.
Поэтому на уровне архитектуры применяется маршрутизация запросов: система оценивает сложность входного текста и решает, какую модель использовать.
Такой гибридный подход позволяет балансировать между затраченным временем и качеством, не прогоняя каждый запрос через ресурсоёмкие модели, но сохраняя возможность точной генерации там, где это действительно важно.
Читаем об этом тут: https://www.kommersant.ru/doc/8512881
Для простых запросов (короткие фразы, типовые конструкции) используются более лёгкие нейронки: они быстрее и дешевле по ресурсам.
В более сложных сценариях с длинными текстами, сложным контекстом и неоднозначными формулировками – подключаются большие языковые модели. Они генерируют перевод целиком, удерживая связность на уровне крупных блоков, но требуют существенно больше вычислений.
Поэтому на уровне архитектуры применяется маршрутизация запросов: система оценивает сложность входного текста и решает, какую модель использовать.
Такой гибридный подход позволяет балансировать между затраченным временем и качеством, не прогоняя каждый запрос через ресурсоёмкие модели, но сохраняя возможность точной генерации там, где это действительно важно.
Читаем об этом тут: https://www.kommersant.ru/doc/8512881
🗿61👍32❤10🤨5 3☃2🍓2 2😁1
Новая модель от Cursor оказалась Kimi K2. Или нет?
На днях, как вы помните, вышла достаточно мощная новая моделька от Cursor – Composer 2. Стартап кучу раз упомянул высокие метрики и скорость, но базовую модель так нигде и не назвали.
Но тайное всегда становится явным, и буквально через несколько часов после релиза путем нехитрых манипуляций с url выяснилось, что внутренний model id в ответе API ведет на Kimi k2.5.
Сравнение токенизаторов Composer 2 и Kimi K2.5 тоже показало совпадение, так что стало очевидно, что это одна и та же базовая модель.
С первого взгляда ситуация выглядела как нарушение лицензии, потому что политика Kimi требует явного указания названия модели при коммерческом использовании, если выручка превышает 20 миллионов долларов в месяц (Cursor под эти условия определенно попадает).
Короче, дело серьезное, и разгорелся скандал. Лидам Cursor пришлось публично оправдываться и признаваться, что они виноваты в том, что не указали в блоге базовую модель. Правда, они тут же заявили, что из исходного чекпоинта пришла только четверть компьюта, а остальное Cursor потратили на собственный пост-трейн.
Получилось некрасиво, но в итоге выяснилось, что нарушения лицензии не было: Moonshot лично поздравили Cursor с релизом, заявили, что гордятся, что их модель послужила базовой, и уточнили, что вообще-то Cursor использует Kimi-k2.5 не напрямую, а через хостинг и инференс-платформу Fireworks AI. Это официальный коммерческий партнерский договор, так что фактического конфликта как такового нет, только этические шероховатости.
Осуждаем или норм?
На днях, как вы помните, вышла достаточно мощная новая моделька от Cursor – Composer 2. Стартап кучу раз упомянул высокие метрики и скорость, но базовую модель так нигде и не назвали.
Но тайное всегда становится явным, и буквально через несколько часов после релиза путем нехитрых манипуляций с url выяснилось, что внутренний model id в ответе API ведет на Kimi k2.5.
Сравнение токенизаторов Composer 2 и Kimi K2.5 тоже показало совпадение, так что стало очевидно, что это одна и та же базовая модель.
С первого взгляда ситуация выглядела как нарушение лицензии, потому что политика Kimi требует явного указания названия модели при коммерческом использовании, если выручка превышает 20 миллионов долларов в месяц (Cursor под эти условия определенно попадает).
Короче, дело серьезное, и разгорелся скандал. Лидам Cursor пришлось публично оправдываться и признаваться, что они виноваты в том, что не указали в блоге базовую модель. Правда, они тут же заявили, что из исходного чекпоинта пришла только четверть компьюта, а остальное Cursor потратили на собственный пост-трейн.
Получилось некрасиво, но в итоге выяснилось, что нарушения лицензии не было: Moonshot лично поздравили Cursor с релизом, заявили, что гордятся, что их модель послужила базовой, и уточнили, что вообще-то Cursor использует Kimi-k2.5 не напрямую, а через хостинг и инференс-платформу Fireworks AI. Это официальный коммерческий партнерский договор, так что фактического конфликта как такового нет, только этические шероховатости.
Осуждаем или норм?
😁181👌49❤30🤔14 9🎉3🕊3👍2🍓1
Data Secrets
Новая модель от Cursor оказалась Kimi K2. Или нет? На днях, как вы помните, вышла достаточно мощная новая моделька от Cursor – Composer 2. Стартап кучу раз упомянул высокие метрики и скорость, но базовую модель так нигде и не назвали. Но тайное всегда становится…
Происходящее в индустрии буквально
😁331💯42 17👌9❤6🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Вот такое шествие проходит в эти выходные в Сан-Франциско
Огромная толпа делает марш по офисам ИИ-компаний и требует, чтобы все их CEO публично пообещали одновременно приостановить разработку фронтирного ИИ.
На плакатах надписи:
Огромная толпа делает марш по офисам ИИ-компаний и требует, чтобы все их CEO публично пообещали одновременно приостановить разработку фронтирного ИИ.
На плакатах надписи:
– Остановите ИИ-гонку
– Не стройте Скайнет
– Закройте OpenAI
– Они достаточно умные
– Нобелевские лауреаты напуганы
– ИИ нас убьет
– Это гонка самоубийства
– Почитайте Азимова
😁315👍68 40❤19🤓9🐳8🫡6🗿4🤨3🔥2🤯1
Мы сделали кодинг-агента в Telegram, которому не нужен ваш компьютер
Привет, на связи продуктовая команда @data_secrets, и мы представляем новый способ вайбкодить без малейшей привязки к устройству и железу.
Мы уже рассказывали вам про DS Lab – нашу облачную IDE, где можно запускать проекты любой сложности на мощном арендованном железе (H100, H200 и т.д.). Вам не нужно тратить время на настройки и разбираться с окружением: вы выбираете нужную конфигурацию одной кнопкой и тут же начинаете работать в своем проекте.
Теперь мы добавили в DS Lab кодинг-агента, и он работает прямо в тг: @data_secrets_bot.
Вы пишете задачу в чат, а агент сам запускает проект, пишет код, создает файлы, скачивает данные, запускает скрипты и обучает модели. Таким образом можно работать на удаленных ресурсах с проектом любой сложности, даже если под рукой только телефон, а компьютер выключен.
Весь ваш код, файлы и состояние сохраняются в DS Lab. Можно вернуться в любой момент или открыть тот же проект в облачной IDE с любого устройства.
Агент доступен на всех тарифах, включая бесплатный. На выбор – лучшие SOTA-модели рынка.
Пробуйте в @data_secrets_bot
DS Lab: dslab.tech | Новости сервиса: @dslab
Привет, на связи продуктовая команда @data_secrets, и мы представляем новый способ вайбкодить без малейшей привязки к устройству и железу.
Мы уже рассказывали вам про DS Lab – нашу облачную IDE, где можно запускать проекты любой сложности на мощном арендованном железе (H100, H200 и т.д.). Вам не нужно тратить время на настройки и разбираться с окружением: вы выбираете нужную конфигурацию одной кнопкой и тут же начинаете работать в своем проекте.
Теперь мы добавили в DS Lab кодинг-агента, и он работает прямо в тг: @data_secrets_bot.
Вы пишете задачу в чат, а агент сам запускает проект, пишет код, создает файлы, скачивает данные, запускает скрипты и обучает модели. Таким образом можно работать на удаленных ресурсах с проектом любой сложности, даже если под рукой только телефон, а компьютер выключен.
Весь ваш код, файлы и состояние сохраняются в DS Lab. Можно вернуться в любой момент или открыть тот же проект в облачной IDE с любого устройства.
Агент доступен на всех тарифах, включая бесплатный. На выбор – лучшие SOTA-модели рынка.
Пробуйте в @data_secrets_bot
DS Lab: dslab.tech | Новости сервиса: @dslab
❤77🗿46👍22🔥14🤨12😁6🤯5 3
У Андрея Карпаты вышло свежее интервью с No Priors
Много интересного про опенсорс, будущее рынка труда, роботов и тд. Посмотреть однозначно стоит: https://youtu.be/kwSVtQ7dziU
Нам лично захотелось подсветить один момент про ИИ-агентов. Вот, что сказал Андрей:
Сравните это с тем, что он говорил всего 5 месяцев назад на интервью Дваркеша (специально прикрепляем видео):
Понятно, что проблемы, о которых Карпаты говорит во втором видео, все еще актуальны. Но, кажется, точка невозврата пройдена.
Много интересного про опенсорс, будущее рынка труда, роботов и тд. Посмотреть однозначно стоит: https://youtu.be/kwSVtQ7dziU
Нам лично захотелось подсветить один момент про ИИ-агентов. Вот, что сказал Андрей:
Когда агенты ИИ фейлятся, это обычно связано с недостатком навыков, а не с недостатком их возможностей.
То есть вы написали недостаточно подробные инструкции, не настроили правильный инструмент для работы с памятью или не выполнили распараллеливание должным образом.
Сейчас уже есть возможность работать на макроуровне, а не на уровне строк кода и функций.
Сравните это с тем, что он говорил всего 5 месяцев назад на интервью Дваркеша (специально прикрепляем видео):
Агенты не работают. У них недостаточно интеллекта, недостаточно мультимодальных способностей, они не могут использовать компьютер.
Понятно, что проблемы, о которых Карпаты говорит во втором видео, все еще актуальны. Но, кажется, точка невозврата пройдена.
❤92😁38👍37✍11 9 8🔥3❤🔥2🦄2👾2