Google выпустили Gemini 3.1 Flash Live
Это аудио‑first модель, которая ориентирована на лайв диалоги и голосовые интерфейсы.
Обещают максимально естественную речь и минимальную задержку. Модель может отличать нюансы диалога по тону и темпу голоса (например, может поменять стиль ответа, если вы выказываете раздражение).
Контекст у новой модели держится примерно в два раза дольше, чем у прошлой версии Gemini Live, то есть она довольна хороша в длинных диалогах.
По другим бенчмаркам (устойчивость к шуму, многошаговый tool call из аудио ввода, следование инструкциям, логика диалога) Gemini 3.1 Flash Live также сильно скакнула относительно предыдущей модели и выбилась в уверенные лидеры.
Для потребителей эта моделька будет лежать в основе Search Live и Gemini Live.
Сейчас поболтать с ней уже можно в Gemini app или через Live API (цена относительно Gemini 2.5 Flash Live не изменилась)
Это аудио‑first модель, которая ориентирована на лайв диалоги и голосовые интерфейсы.
Обещают максимально естественную речь и минимальную задержку. Модель может отличать нюансы диалога по тону и темпу голоса (например, может поменять стиль ответа, если вы выказываете раздражение).
Контекст у новой модели держится примерно в два раза дольше, чем у прошлой версии Gemini Live, то есть она довольна хороша в длинных диалогах.
По другим бенчмаркам (устойчивость к шуму, многошаговый tool call из аудио ввода, следование инструкциям, логика диалога) Gemini 3.1 Flash Live также сильно скакнула относительно предыдущей модели и выбилась в уверенные лидеры.
Для потребителей эта моделька будет лежать в основе Search Live и Gemini Live.
Сейчас поболтать с ней уже можно в Gemini app или через Live API (цена относительно Gemini 2.5 Flash Live не изменилась)
❤75👍31🔥20 2
Anthropic скоро выпустят новую модель под кодовым названием Claude Mythos (или Capybara)
Fortune опубликовали эксклюзивный материал: они откопали утекшие внутренние документы стартапа, которые случайно оказались в публичном кэше данных компании.
В указанных документах говорится, что компания готовится к выпуску новой модели и хочет действовать с особой осторожностью, потому что модель «представляет беспрецедентные риски для кибербезопасности».
Как вы помните, в сети уже несколько раз всплывали новости о том, что Claude так или иначе используется для кибератак. Если верить сливу, и Claude Mythos – это действительно очередной скачок в способностях, то рисков станет еще больше.
Сообщается даже, что компания собирается изначально выпускать модель в ограниченном доступе для security‑команд, чтобы они могли использовать ее для усиления защиты кодовых баз и подготовки к атакам, которые в последствие Mythos сам может провоцировать.
Fortune опубликовали эксклюзивный материал: они откопали утекшие внутренние документы стартапа, которые случайно оказались в публичном кэше данных компании.
В указанных документах говорится, что компания готовится к выпуску новой модели и хочет действовать с особой осторожностью, потому что модель «представляет беспрецедентные риски для кибербезопасности».
Как вы помните, в сети уже несколько раз всплывали новости о том, что Claude так или иначе используется для кибератак. Если верить сливу, и Claude Mythos – это действительно очередной скачок в способностях, то рисков станет еще больше.
Сообщается даже, что компания собирается изначально выпускать модель в ограниченном доступе для security‑команд, чтобы они могли использовать ее для усиления защиты кодовых баз и подготовки к атакам, которые в последствие Mythos сам может провоцировать.
1🔥153😁50 40 18❤7👍4🤔4
Хорошая это новость или грустная, судите сами: ARC Invest посчитали, что к концу 2020-х суммарный объем текста, сгенерированного ИИ, превзойдет объем текста, который человечество накопило за последние 500 лет
Другими словами, ИИ понадобиться всего 5-10 лет, чтобы нагнать и перегнать человечество в плане количества написанного текста.
Оказалось, кстати, что 2025 стал первым годом, когда ИИ сгенерировал больше текста, чем люди. Подсчеты, конечно, очень приблизительные, – но все же.
Другими словами, ИИ понадобиться всего 5-10 лет, чтобы нагнать и перегнать человечество в плане количества написанного текста.
Оказалось, кстати, что 2025 стал первым годом, когда ИИ сгенерировал больше текста, чем люди. Подсчеты, конечно, очень приблизительные, – но все же.
Media is too big
VIEW IN TELEGRAM
OpenAI построена Альтманом на манипуляциях
Вчера вышел крайне занятный подкаст Стивена Бартлетта с журналисткой Карен Хао. Хао несколько лет занимается расследованием происходящего в OpenAI. Она даже написала об этом книгу «Empire of AI».
Она утверждает, что в рамках расследования провела более 300 интервью (в том числе 90+ с нынешними и бывшими сотрудниками OpenAI). Вот какие интересные детали ей удалось выяснить:
➖ В 2015 году риторика стартапа была полностью переделана под Маска, чтобы получить его инвестиции и влияние. До 2015 года Альтман вообще не говорил об угрозе ИИ для человечества, а затем резко начал использовать язык, очень похожий на язык Маска про экзистенциальный риск ИИ. Маск и сам считает, что Сэм просто зеркалил его взгляды, чтобы завоевать доверие.
➖ Тот же прием Альтман использует по сей день. Хао утверждает, что OpenAI абсолютно по-разному определяют термин AGI в зависимости от аудитории, которой его продают. Конгрессу – как систему, способную решать глобальные проблемы, потребителям – как самого лучшего персонального помощника, Microsoft – как систему, которая приносит много денег.
➖ С Маском история тоже якобы кончилась именно с руки Альтмана. Оказывается, что много лет назад при первом обсуждении перехода к for-profit почти все фаундеры склонялись к тому, чтобы CEO новой структуры стал Маск. Но Альтман лично переубедил Брокмана, а затем и Суцкевера, что Илон слишком «непредсказуем» для этой роли. После этого Маск ушел.
Ну и, кроме того, еще несколько уже известных нам подробностей: про угрозы критикующим журналистам, обязательное подписание сотрудниками отказов от доли в компании и про уходы ключевых сотрудников из-за абьюза со стороны руководства.
Конечно, не забываем, что все это – журналистская интерпретация, подтвержденная только анонимными источниками. Но дыма без огня не бывает, верно?
И кстати, Маск прокомментировал подкаст так: «Scam Altman is super good at scamming»
Вчера вышел крайне занятный подкаст Стивена Бартлетта с журналисткой Карен Хао. Хао несколько лет занимается расследованием происходящего в OpenAI. Она даже написала об этом книгу «Empire of AI».
Она утверждает, что в рамках расследования провела более 300 интервью (в том числе 90+ с нынешними и бывшими сотрудниками OpenAI). Вот какие интересные детали ей удалось выяснить:
Ну и, кроме того, еще несколько уже известных нам подробностей: про угрозы критикующим журналистам, обязательное подписание сотрудниками отказов от доли в компании и про уходы ключевых сотрудников из-за абьюза со стороны руководства.
Конечно, не забываем, что все это – журналистская интерпретация, подтвержденная только анонимными источниками. Но дыма без огня не бывает, верно?
И кстати, Маск прокомментировал подкаст так: «Scam Altman is super good at scamming»
Please open Telegram to view this post
VIEW IN TELEGRAM
1 144😁67❤25👍18 14🤔5🔥1
NeuralDeep Skills: локальная база агентных навыков под ру-сервисы
Всем, кто пользуется агентами, 100% известна такая вещь, как skills.sh. Это огромная база скиллов агентов под любые сервисы. Ставишь – и агент уже умеет с ними работать из коробки.
Так вот, в российском сообществе давно напрашивался аналог под локальный стек. И его сделал наш друг и коллега по тг – Валерий @neuraldeep. Он в целом регулярно делает разные практичные штуки для разработчиков, и это как раз одна из них.
Итак, встречайте: neuraldeep.ru/
Это база, в которой будут собраны скиллы для работы с самими разными ру-сервисами. Туда уже залили интеграции под инструменты Яндекс, Битрикс24, 1С и другое, чем многие пользуются каждый день.
– Установка все так же происходит одной командой, все привычно и понятно
– Проект опенсорсный: туда можно просто прийти и залить свой скилл через GitHub (формат claude-skill)
– Есть модерация и базовые проверки безопасности
Из этого вполне может получиться что-то вроде стандартного слоя для агентных интеграций под рф-рынок. Если работаете с агентами – заходите попробовать или даже поучаствовать.
Проект -> neuraldeep.ru/
Гитхаб -> https://github.com/vakovalskii/neuraldeep
Следите за обновлениями в канале Валеры -> @neuraldeep
Всем, кто пользуется агентами, 100% известна такая вещь, как skills.sh. Это огромная база скиллов агентов под любые сервисы. Ставишь – и агент уже умеет с ними работать из коробки.
Так вот, в российском сообществе давно напрашивался аналог под локальный стек. И его сделал наш друг и коллега по тг – Валерий @neuraldeep. Он в целом регулярно делает разные практичные штуки для разработчиков, и это как раз одна из них.
Итак, встречайте: neuraldeep.ru/
Это база, в которой будут собраны скиллы для работы с самими разными ру-сервисами. Туда уже залили интеграции под инструменты Яндекс, Битрикс24, 1С и другое, чем многие пользуются каждый день.
– Установка все так же происходит одной командой, все привычно и понятно
– Проект опенсорсный: туда можно просто прийти и залить свой скилл через GitHub (формат claude-skill)
– Есть модерация и базовые проверки безопасности
Из этого вполне может получиться что-то вроде стандартного слоя для агентных интеграций под рф-рынок. Если работаете с агентами – заходите попробовать или даже поучаствовать.
Проект -> neuraldeep.ru/
Гитхаб -> https://github.com/vakovalskii/neuraldeep
Следите за обновлениями в канале Валеры -> @neuraldeep
2❤105👍46🗿29🔥20 4😁3🤯3 1
Фаундер GitLab Сид Сийбранди «собрал» себе лечение от рака с помощью ИИ
В 2022 году у него диагностировали редкую форму рака позвоночника. После операции, химии и радиотерапии болезнь вернулась, а стандартные опции лечения фактически закончились.
И тут Сид, как настоящий инженер, решил подойти к лечению как к решению задачи.
По факту, он собрал вокруг себя небольшую биотех компанию из агентов. Он накопил максимально полный набор данных о себе – генетика, анализы, сканы – и начал работать с этим как с исследовательским проектом. ИИ помогал структурировать информацию, искать гипотезы и искать релевантные статьи.
В итоге лечение превратилось в цикл проверки гипотез. Инженер быстрыми итерациями параллельно тестировал по несколько подходов, постоянно корректируя стратегию. По сути R&D-пайплайн, только применный к собственной болезни.
По текущему статусу Сид в ремиссии. Эта история, конечно, не только про ИИ, но и про наличие денег и связей. ИИ тут скорее послужил катализатором. Но все же сам факт того, что подобное возможно в наше время – поражает.
Сид, кстати, сам описал весь процесс и подход, можно почитать вот тут -> https://sytse.com/cancer/
В 2022 году у него диагностировали редкую форму рака позвоночника. После операции, химии и радиотерапии болезнь вернулась, а стандартные опции лечения фактически закончились.
И тут Сид, как настоящий инженер, решил подойти к лечению как к решению задачи.
По факту, он собрал вокруг себя небольшую биотех компанию из агентов. Он накопил максимально полный набор данных о себе – генетика, анализы, сканы – и начал работать с этим как с исследовательским проектом. ИИ помогал структурировать информацию, искать гипотезы и искать релевантные статьи.
В итоге лечение превратилось в цикл проверки гипотез. Инженер быстрыми итерациями параллельно тестировал по несколько подходов, постоянно корректируя стратегию. По сути R&D-пайплайн, только применный к собственной болезни.
По текущему статусу Сид в ремиссии. Эта история, конечно, не только про ИИ, но и про наличие денег и связей. ИИ тут скорее послужил катализатором. Но все же сам факт того, что подобное возможно в наше время – поражает.
Сид, кстати, сам описал весь процесс и подход, можно почитать вот тут -> https://sytse.com/cancer/
3❤259🔥76👍43😁8🤨6🦄5
600 тысяч рублей за решение задачи распознавания голоса
Криптонит запустили дататон по Speaker Recognition. Задача максимально прикладная – нужно собрать модель, устойчивую к искажениям аудио:
🔹 искажения, вносимые акустической средой;
🔹 посторонние шумы;
🔹 реверберация;
🔹 большое расстояние до микрофона;
🔹 искажения каналов связи.
То есть по сути надо приблизить модель к условиям, в которых реально живут голосовые интерфейсы. Это как раз тот слой, где обычно и происходит разница между «моделью из ноутбука» и «моделью в проде».
Отличная возможность прокачать знания с упором на robustness, учитывая, что интересные задачи на аудио ML публикуются не так часто – особенно с фокусом на реальные условия, а не чистые датасеты.
А еще из приятного – призовой фонд в 600 000 рублей🤑
-> Регистрируйтесь до 10 апреля
Криптонит запустили дататон по Speaker Recognition. Задача максимально прикладная – нужно собрать модель, устойчивую к искажениям аудио:
То есть по сути надо приблизить модель к условиям, в которых реально живут голосовые интерфейсы. Это как раз тот слой, где обычно и происходит разница между «моделью из ноутбука» и «моделью в проде».
Отличная возможность прокачать знания с упором на robustness, учитывая, что интересные задачи на аудио ML публикуются не так часто – особенно с фокусом на реальные условия, а не чистые датасеты.
А еще из приятного – призовой фонд в 600 000 рублей
-> Регистрируйтесь до 10 апреля
Please open Telegram to view this post
VIEW IN TELEGRAM
😁47🤨17🗿11❤9👍9🤯3🔥2
В iOS 27 Siri сможет подключаться к любым AI-сервисам из App Store
Те, кто списывали Apple с ИИ-счетов, видимо, поторопились. Теперь они могут начать зарабатывать на ИИ больше любого производителя моделей.
После неудач с собственными моделями они, кажется, выбрали другую тактику: не тратить миллиарды на датацентры, а воспользоваться синицей в руке.
У Apple уже есть огромная база устройств, и теперь они хотят сделать из Siri платформу-агрегатор: она сможет подключаться к любому сервису, – будь то Gemini, ChatGPT или Claude, – а Apple будут зарабатывать до 30% комиссии с проданных подписок.
Так работала монетизация с ChatGPT, когда тот был встроен в iOS 18.
Фишка всей этой истории в том, что Apple, в отличие от всех остальных, могут выходить по ИИ в огромный плюс. The Financial Times недавно считали Показатель «Revenue generated per dollar of fixed assets» (выручка на каждый доллар, вложенный в основные средства).
Смотрите график: у Apple дела относительно остальных просто замечательно. Пока у всех метрика падает из-за затрат на ИИ, у Apple она остается стабильной и высокой. И если они найдут способ эффективно монетизировать свой потенциал в виде миллиардов пользователей их техники, то станут лидерами по отдаче от ИИ, так и не сделав ни одной нормальной собственной модели😎
Те, кто списывали Apple с ИИ-счетов, видимо, поторопились. Теперь они могут начать зарабатывать на ИИ больше любого производителя моделей.
После неудач с собственными моделями они, кажется, выбрали другую тактику: не тратить миллиарды на датацентры, а воспользоваться синицей в руке.
У Apple уже есть огромная база устройств, и теперь они хотят сделать из Siri платформу-агрегатор: она сможет подключаться к любому сервису, – будь то Gemini, ChatGPT или Claude, – а Apple будут зарабатывать до 30% комиссии с проданных подписок.
Так работала монетизация с ChatGPT, когда тот был встроен в iOS 18.
Фишка всей этой истории в том, что Apple, в отличие от всех остальных, могут выходить по ИИ в огромный плюс. The Financial Times недавно считали Показатель «Revenue generated per dollar of fixed assets» (выручка на каждый доллар, вложенный в основные средства).
Смотрите график: у Apple дела относительно остальных просто замечательно. Пока у всех метрика падает из-за затрат на ИИ, у Apple она остается стабильной и высокой. И если они найдут способ эффективно монетизировать свой потенциал в виде миллиардов пользователей их техники, то станут лидерами по отдаче от ИИ, так и не сделав ни одной нормальной собственной модели
Please open Telegram to view this post
VIEW IN TELEGRAM
❤97😁63 38🔥7🗿7🤔4
Самый хайпующий проект в интернете прямо сейчас – Pretext
Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS. То есть он сам считает layout текста, без DOM и без браузерного reflow.
Звучит странно, потому что мы привыкли, что за это отвечает браузер. Но браузер делает это тяжело, через каскад стилей, зависимости между элементами и пересчеты при каждом изменении. Если текст часто меняется, вся система начинает тормозить. Pretext убирает этот слой и сводит задачу к прямой математике.
Собственно, это дает кратный выигрыш по скорости – до 500х.
Зачем это все нужно?
Сейчас появляется все больше интерфейсов, где текст и структура не заданы заранее, а формируются динамически. В частности – это история про агентов.
Когда агент собирает UI под задачу пользователя, интерфейс не фиксирован, он постоянно меняется, иногда буквально на каждом шаге. И каждый такой апдейт через браузерный reflow – это лишняя задержка и непредсказуемость.
С Pretext это занимает гораздо меньше времени + полностью контролируемо со стороны кода. Когда интерфейс генерирует не человек, а система, удобнее работать с прямыми алгоритмами, а не с тяжелым браузерным пайплайном.
Ну и, конечно, выглядит это очень красиво. За счет скорости обработки выдумать поверх Pretext можно что угодно (примеры прикладываем). И все же в первую очередь проект интересен именно тем, как изящно он ложится на новые сценарии.
github.com/chenglou/pretext
Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS. То есть он сам считает layout текста, без DOM и без браузерного reflow.
Звучит странно, потому что мы привыкли, что за это отвечает браузер. Но браузер делает это тяжело, через каскад стилей, зависимости между элементами и пересчеты при каждом изменении. Если текст часто меняется, вся система начинает тормозить. Pretext убирает этот слой и сводит задачу к прямой математике.
Собственно, это дает кратный выигрыш по скорости – до 500х.
Зачем это все нужно?
Сейчас появляется все больше интерфейсов, где текст и структура не заданы заранее, а формируются динамически. В частности – это история про агентов.
Когда агент собирает UI под задачу пользователя, интерфейс не фиксирован, он постоянно меняется, иногда буквально на каждом шаге. И каждый такой апдейт через браузерный reflow – это лишняя задержка и непредсказуемость.
С Pretext это занимает гораздо меньше времени + полностью контролируемо со стороны кода. Когда интерфейс генерирует не человек, а система, удобнее работать с прямыми алгоритмами, а не с тяжелым браузерным пайплайном.
Ну и, конечно, выглядит это очень красиво. За счет скорости обработки выдумать поверх Pretext можно что угодно (примеры прикладываем). И все же в первую очередь проект интересен именно тем, как изящно он ложится на новые сценарии.
github.com/chenglou/pretext
👍142❤58🔥41🤯7😁5🍓4👏2🤩2
Data Secrets
Самый хайпующий проект в интернете прямо сейчас – Pretext Инженер из Midjourney выложил в опенсорс алгоритм, который позволяет делать верстку без CSS. То есть он сам считает layout текста, без DOM и без браузерного reflow. Звучит странно, потому что мы…
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь можно еще больше отвлекаться, читая статьи 🤟
😁219❤18 17
Что такое RL-среды и почему без них не будет никаких ИИ-агентов
Индустрия переходит от моделей, которые отвечают, к агентам, которые действуют. И если посмотреть на то, как сегодня обучают ИИ, то становится очевидно, что на одних текстах далеко уже не уедешь.
Дело в том, что агентам недостаточно просто уметь воспроизводить правильные ответы, они должны уметь выбирать стратегию поведения, чтобы решать многошаговые задачи и подстраиваться под непредсказуемое поведение пользователя. Отсюда вывод: агентам нужно учиться через опыт.
И тут на сцену выходят RL-среды. Это сейчас один из главных трендов машинного обучения в целом. Над его развитием работают все игроки индустрии: Open AI, Google, Яндекс, Anthropic.
RL-среда = симулятор, где модель обучается через реальные действия. Модель выбирает какую-то стратегию и работает по ней (это называется траектория), затем получает оценку своих действий, и постепенно учится выбирать лучшую политику. Самое главное, что правильного ответа тут иногда просто нет, так что мы говорим именно про сравнение вариантов действий. Работает это потому, что RL-среда учит не отдельным ответам, а последовательностям действий. Модель начинает учитывать последствия своих шагов и учится планированию, адаптации и работе с неопределенностью.
Но и проблем с RL-средами пока хватает. Во-первых, сложно задать корректную функцию награды: модель может научиться "обманывать" метрику, не решая задачу по сути. Во-вторых, остается проблема credit assignment – как понять, на каком шаге стратегия пошла не так. И, наконец, сами среды пока далеки от реальности: симулированный пользователь все еще ведет себя проще, чем настоящий. Вот тут об этих и других вызовах для RL есть побольше вводных на русском.
Суть в том, что чем лучше будут RL-среды – тем лучше (и быстрее) будут агенты, так что следующий этап в ИИ сейчас зависит от того, как хорошо ключевые игроки их прокачают.
Индустрия переходит от моделей, которые отвечают, к агентам, которые действуют. И если посмотреть на то, как сегодня обучают ИИ, то становится очевидно, что на одних текстах далеко уже не уедешь.
Дело в том, что агентам недостаточно просто уметь воспроизводить правильные ответы, они должны уметь выбирать стратегию поведения, чтобы решать многошаговые задачи и подстраиваться под непредсказуемое поведение пользователя. Отсюда вывод: агентам нужно учиться через опыт.
И тут на сцену выходят RL-среды. Это сейчас один из главных трендов машинного обучения в целом. Над его развитием работают все игроки индустрии: Open AI, Google, Яндекс, Anthropic.
RL-среда = симулятор, где модель обучается через реальные действия. Модель выбирает какую-то стратегию и работает по ней (это называется траектория), затем получает оценку своих действий, и постепенно учится выбирать лучшую политику. Самое главное, что правильного ответа тут иногда просто нет, так что мы говорим именно про сравнение вариантов действий. Работает это потому, что RL-среда учит не отдельным ответам, а последовательностям действий. Модель начинает учитывать последствия своих шагов и учится планированию, адаптации и работе с неопределенностью.
Но и проблем с RL-средами пока хватает. Во-первых, сложно задать корректную функцию награды: модель может научиться "обманывать" метрику, не решая задачу по сути. Во-вторых, остается проблема credit assignment – как понять, на каком шаге стратегия пошла не так. И, наконец, сами среды пока далеки от реальности: симулированный пользователь все еще ведет себя проще, чем настоящий. Вот тут об этих и других вызовах для RL есть побольше вводных на русском.
Суть в том, что чем лучше будут RL-среды – тем лучше (и быстрее) будут агенты, так что следующий этап в ИИ сейчас зависит от того, как хорошо ключевые игроки их прокачают.
😁46❤30👍19 10✍3🤨3 3🤯1🗿1
Microsoft выпустили Critique: инструмент для deep research, который может вызывать несколько разных моделей одновременно
То есть теперь вашим запросом занимаются сразу две модели: первая берет на себя основную генерацию, а вторая выступает в роли критика и рецензента и поправляет ошибки и неточности перед тем как система даст окончательный ответ.
Какие модели участвовали в генерации – видно в шапке ответа. По бенчмарку DRACO – яркая SOTA, других бенчей нет.
Появился еще режим Council для обычных запросов: там ваш промпт просто прогоняют через несколько моделей, и вы сразу видите разные варианты ответа. Плюс есть кратенькая выжимка о том, где модели сходятся и где у них разногласия. Удобно.
Пока на широкую общественность не раскатили, но можно податься на ранний доступ.
Какие будут лимиты (и будет ли вообще доступ в обычной подписке за 20$) пока непонятно.Хотя в целом, такое можно и дома на коленке завайбкодить за вечер. Точно будет дешевле.
techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
То есть теперь вашим запросом занимаются сразу две модели: первая берет на себя основную генерацию, а вторая выступает в роли критика и рецензента и поправляет ошибки и неточности перед тем как система даст окончательный ответ.
Какие модели участвовали в генерации – видно в шапке ответа. По бенчмарку DRACO – яркая SOTA, других бенчей нет.
Появился еще режим Council для обычных запросов: там ваш промпт просто прогоняют через несколько моделей, и вы сразу видите разные варианты ответа. Плюс есть кратенькая выжимка о том, где модели сходятся и где у них разногласия. Удобно.
Пока на широкую общественность не раскатили, но можно податься на ранний доступ.
Какие будут лимиты (и будет ли вообще доступ в обычной подписке за 20$) пока непонятно.
techcommunity.microsoft.com/blog/microsoft365copilotblog/introducing-multi-model-intelligence-in-researcher/4506011
😁56🔥22👍13❤10🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
Доброе утро, Anthopic опять приблизили нас к безработице одной фичей ☕️
В Claude Code теперь доступен Computer use. Агент пишет код, компилирует, запускает приложение, кликает по UI, находит баг, фиксит и проверяет результат. Всё по одному запросу.
Пока research preview доступно на Pro и Max планах, только macOS. Включается через /mcp в настройках.
В Claude Code теперь доступен Computer use. Агент пишет код, компилирует, запускает приложение, кликает по UI, находит баг, фиксит и проверяет результат. Всё по одному запросу.
Пока research preview доступно на Pro и Max планах, только macOS. Включается через /mcp в настройках.
Please open Telegram to view this post
VIEW IN TELEGRAM
Data Secrets
Разработчик Claude Code признался, что последние 30 дней 100% его контрибьютов в Claude Code были написаны самим Claude Code И это, причем, не просто какой-то разработчик, а Борис Черный. Он считается «основателем» Claude Code (на самом деле в 2024 это был…
Media is too big
VIEW IN TELEGRAM
Кстати, все последние обновления Claude Code – голимый вайбкодинг
Дарио Амодеи на World Economic Forum в Давосе заявил:
Также напоминаем, что создатель Claude Code еще в конце декабря говорил, что 100% его контрибьютов в CC пишет CC.
Со стороны кажется, что скорость разработки в стартапе увеличилась кратно. Мы посчитали: с момента выпуска Opus 4.6 в феврале они запилили около 17 (!) средних и крупных обновлений. Интересно, какую модель используют внутри стартапа🤔
Дарио Амодеи на World Economic Forum в Давосе заявил:
Инженеры в Anthropic говорят: «Я больше не пишу код. Я просто позволяю модели писать код, а я его редактирую»
Также напоминаем, что создатель Claude Code еще в конце декабря говорил, что 100% его контрибьютов в CC пишет CC.
Со стороны кажется, что скорость разработки в стартапе увеличилась кратно. Мы посчитали: с момента выпуска Opus 4.6 в феврале они запилили около 17 (!) средних и крупных обновлений. Интересно, какую модель используют внутри стартапа
Please open Telegram to view this post
VIEW IN TELEGRAM
👍113😁70🔥22❤15🤔2😎1
Media is too big
VIEW IN TELEGRAM
Понравилось определение AGI, которое дал на днях Франсуа Шолле (создатель ARC-AGI) на подкасте у Y Combinator
Его идея – в том, что в настоящее индустрия путает автоматизацию с интеллектом. AGI чаще всего определяется как то, что автоматизирует большинство экономически значимых задач. Но эта формулировка на самом деле не описывает общий интеллект.
Альтернативное определение Шолле звучит так:
Так что AGI – это не про автоматизацию, а про способность приобретения навыков на уровне человека на том же объеме задач, который люди потенциально могут научиться выполнять.
Подкаст полностью тут: https://youtu.be/k2ZLQC8P7dc
Его идея – в том, что в настоящее индустрия путает автоматизацию с интеллектом. AGI чаще всего определяется как то, что автоматизирует большинство экономически значимых задач. Но эта формулировка на самом деле не описывает общий интеллект.
Альтернативное определение Шолле звучит так:
AGI – это система, которая при встрече с абсолютно новой задачей или абсолютно новым для нее доменом может разобраться в нем с той же эффективностью, что и человек. Это значит, что ей потребуется примерно столько же обучающих данных и компьюта. И это довольно мало, потому что люди крайне эффективно обрабатывают данные.
Так что AGI – это не про автоматизацию, а про способность приобретения навыков на уровне человека на том же объеме задач, который люди потенциально могут научиться выполнять.
Подкаст полностью тут: https://youtu.be/k2ZLQC8P7dc
❤154👍76🔥22🤔10💯9🤯2☃1😁1
Media is too big
VIEW IN TELEGRAM
Похоже, Яндекс решил помочь в задачах enterprise по разработке приложений и управлению данными.
Компания представила Stackland – контейнерную платформу, где вся необходимая для разработки инфраструктура предоставляется "из коробки". Там есть базовый слой - Kubernetes, средства обработки и хранения данных, а также встроены управляемые СУБД от Yandex Cloud. Разворачивается все за несколько часов в в закрытом корпоративном контуре и сразу готово к работе.
Это значит без долгой настройки, без ручной сборки и без постоянной поддержки на стороне команды. Можно значительно ускорить запуск сервисов и data-продуктов.
Запросить демо платформы – ссылка.
Компания представила Stackland – контейнерную платформу, где вся необходимая для разработки инфраструктура предоставляется "из коробки". Там есть базовый слой - Kubernetes, средства обработки и хранения данных, а также встроены управляемые СУБД от Yandex Cloud. Разворачивается все за несколько часов в в закрытом корпоративном контуре и сразу готово к работе.
Это значит без долгой настройки, без ручной сборки и без постоянной поддержки на стороне команды. Можно значительно ускорить запуск сервисов и data-продуктов.
Запросить демо платформы – ссылка.
❤32🗿29😁13👍11🔥8🤨4 3☃1🕊1 1