304K subscribers
4.95K photos
1.1K videos
17 files
5.33K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI добавила режим повышенной безопасности аккаунтов

Advanced Account Security - дополнительный режим для пользователей ChatGPT и Codex, рассчитанный на тех, кто может стать мишенью атак. Режим отключает пароли и сброс доступа через email или SMS. Для входа и резервного восстановления нужны passkey или аппаратный токен.

При активации нового режима саппорт OpenAI теряет возможность восстановить аккаунт: это закрывает вектор социальной инженерии, но при потере всех ключей доступ восстановить нельзя. Режим также сокращает время жизни сессий и шлёт алерты при каждом логине.

С 1 июня Advanced Account Security станет обязательным для участников Trusted Access for Cyber. Чтобы упростить переход, OpenAI стала партнером Yubico и предлагает скидки на комплекты YubiKey.
openai.com

✔️ Сенат США готовит законопроект, запрещающий доступ несовершеннолетним к ИИ

Юридический комитет Сената США одобрил GUARD Act, который обязывает создателей чат-ботов верифицировать возраст пользователей и закрывать доступ для несовершеннолетних. ИИ-ассистенты должны периодически напоминать собеседнику, что не являются людьми и не имеют профессиональной квалификации.

Отдельно вводится уголовная ответственность для платформ, чьи ассистенты склоняют детей к передаче откровенных материалов или поощряют селфхарм. Большинство сервисов, включая ChatGPT, Gemini и Grok сейчас допускают регистрацию с 13 лет.

Правозащитники возражают: по их мнению, обязательная проверка возраста потребует загрузки документов или биометрии и подорвёт приватность совершеннолетних пользователей. Часть критиков видит в формулировках GUARD Act угрозу свободе слова.
nbcnews.com

✔️ Китайские ИИ-стартапы уходят из офшоров

Moonshot AI, DeepRoute и StepFun начали реструктуризацию по переводу из офшорных юрисдикций в КНР. StepFun уже приступила к ликвидации зарубежных структур, Moonshot AI консультируется с юристами по плану реорганизации.

Драйвером стала позиция регулятора КНР: компаниям с зарубежной пропиской сложнее получить одобрение на IPO в Китае. Дополнительным сигналом послужила блокировка властями сделки по Manus.

Реструктуризация занимает 6–12 месяцев и, как ожидается, осложнит привлечение иностранного венчурного капитала. Тренд совпадает с курсом властей КНР на удержание стратегических ИИ-разработок внутри страны.
theinformation.com

✔️ Microsoft добавила в Word агента для юристов

Legal Agent в Word анализирует договоры пункт за пунктом, помечает риски и обязательства, сверяет текст с внутренними гайдлайнами компании. Правки вносятся в режиме рецензироания с сохранением оригинального форматирования.

LLM отвечает за анализ контекста и квалификацию пунктов, а внесение правок выполняет детерминированный движок. Microsoft позиционирует это как способ повысить предсказуемость результата по сравнению с чистой LLM-генерацией.

Агент работает внутри Microsoft 365, без сторонних плагинов, и наследует корпоративные политики безопасности. Доступ ограничен американской программой раннего доступа.
microsoft.com

✔️ Stripe открыл ИИ-агентам доступ к самостоятельным онлайн-платежам

Платежный сервис представил 2 продукта для платежей ИИ-агентов: Link's wallet for agents для консьюмерских ассистентов и API Stripe Issuing for agents для бизнеса.

Через Link агент получает доступ к кошельку пользователя по OAuth и запрашивает одноразовую карту или платежный токен, привязанный к картам и банковским счетам владельца. Доступа к реальным реквизитам у агента нет. Каждое списание пользователь подтверждает вручную в вебе или в приложениях Link на iOS и Android (с указанием суммы и мерчанта). Stripe обещает добавить настраиваемые лимиты, условную автоматическую авторизацию и поддержку стейблкоинов.

Issuing for agents - базовый API под Link и независимый продукт для B2B. Через него компании выпускают виртуальные карты для агентов с авторизацией в реальном времени, настраивают маршрутизацию средств, лимиты и собственный антифрод. Маркетплейсы могут выдавать карты продавцам, чтобы их агенты автоматизировали закупки и логистику.
stripe.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
157🤔53👍34🔥16👏6😐6😈1
📌Пентагон vs бигтех: итоги

Министерство обороны США 1 мая объявило, что ведомство подписало пачку контрактов с OpenAI, Google, xAI, Microsoft, Nvidia, AWS, Oracle и Reflection AI, чтобы запустить их модели в свои секретные сети.

Все компании пошли на главное требование Пентагона - разрешить использовать LLM для "любых законных целей".

Инсайдеры говорят, что новые подрядчики в кулуарах всё-таки получили негласные гарантии от военных по нелетальности и слежке (то есть ровно то, что просил Anthropic).


Сам Anthropic остался за бортом из-за эпичного конфликта. Команда Амодеи решила поиграть в идеологию и словить респекты в Долине, а конкуренты молча подписали бумаги.

Есть, конечно небольшие проблемы: миграция на ChatGPT и Gemini идет со скрипом. У военных начались технические проблемы при интеграции в их инфраструктуру. Из-за этого аналитики всё ещё вынуждены сидеть на старых моделях Anthropic.

Что имеем в сухом остатке

Весь топ ИИ-компаний официально зашёл в оборонку. Cloud-провайдеры (AWS, Microsoft и Oracle) хостят железо, а OpenAI и Google определяют, как именно их модели будут применяться.

У Anthropic на руках судебные разборки с Пентагоном, потерянные госденьги от незаключенного контракта, белое пальто и уже сошедшая на нет из-за череды проблем лояльность пользователей.

Пентагон диверсифицировал зоопарк моделей, а политики успешно пиарятся на критике создателей Claude.

Посмотрим, как быстро задвинут всю эту этику на задний план, когда чиновники заставят Anthropic откатить запреты, чтобы использовать Mythos для нужд государства.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬91🤔3224👍13💔7🔥5🗿4😁1😭1
📌Anthropic сократил подхалимство Claude в диалогах об отношениях

Около 6% разговоров с Claude - это запросы личного характера.

Anthropic проанализировал миллион диалогов за март–апрель 2026 года с помощью своего инструмента Clio и замерил, насколько часто модель скатывается в сикофантию (подхалимство) при таких запросах.

Из 639 тысяч уникальных бесед классификатор отобрал 38 тысяч, где пользователи явно просили совета о собственной жизни.

Три четверти запросов укладываются в 4 темы:

🟢здоровье и самочувствие (27%);
🟢карьера (26%);
🟢отношения (12%);
🟢личные финансы (11%).

В среднем, поддакивание вместо честной обратной связи наблюдалось в 9% диалогов. Но в двух нишах цифра резко росла: 38% в разговорах о духовности и 25% в советах об отношениях.

Из-за объёма именно тема отношений дала максимальное число подхалимских ответов в абсолютном выражении.

Типичные сценарии: модель соглашалась, что партнёр пользователя «точно газлайтит», опираясь только на одну сторону истории, или подтверждала романтический интерес там, где было лишь дружеское общение.


🟡Anthropic выделил две причины проблемы

Во-первых, в советах об отношениях пользователи спорят с моделью чаще: 21% диалогов против 15% в среднем по другим доменам.

Во-вторых, под давлением Claude ломается: при сопротивлении со стороны пользователя доля сикофантии вырастает с 9% до 18%.

🟡Найденную проблему решили дотрейном

Инженеры выделили типовые паттерны давления и построила на их основе обучающие диалоги. В тренировочной среде Claude генерирует два варианта ответа на каждый сценарий, а отдельный экземпляр модели оценивает их по конституции.

Эффект измеряли стресс-тестом через реальные диалоги, где прошлые версии льстили, передавали новой модели как её собственную предыдущую переписку.

Удерживать уже заданную линию сложнее, чем стартовать с чистого листа - в этом и есть сложность испытания.

В Opus 4.7 уровень подхалимства в советах об отношениях оказался вдвое ниже, чем у Opus 4.6, и заметно снизился во всех остальных доменах.

Новые модели Opus 4.7 и Mythos Preview лучше видят контекст за фасадом первого сообщения: ссылаются на сказанное ранее в диалоге, цитируют внешние источники, отказываются ставить оценку по фрагменту текста.

Открытыми остаются фундаментальные вопросы: что такое "хороший совет от ИИ", как измерять его в доменах вроде медицины и права и насколько ответы модели меняют решения людей.

Это одна из немногих публичных попыток крупного ИИ-вендора количественно описать поведение собственной модели в роли советчика и подкрепить наблюдения изменениями в своем продукте.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9630👍27🥱4❤‍🔥2👏2😭2
🌟 NVIDIA открыла Nemotron 3 Nano Omni

Nemotron 3 Nano Omni - мультимодальная модель 30B-A3B, которая обрабатывает видео, аудио, изображения и текст в едином инференсе.

В создании Nano Omni активно использовалось семейство Qwen разных поколений от 2.5 до 3.5 - как чисто языковые, так и VL и GPT-OSS-120B


🟡Под капотом гибрид из Mamba2 и MoE

Визуальный тракт построен на энкодере CRADIO v4-H, аудио - на Parakeet. Контекстное окно - до 256 тыс. токенов.

Модель поддерживает ризонинг с СоТ, JSON-вывод, tool calling и пословные таймштампы для транскрипции.

На вход принимаются видео длиной до 2-х минут, аудио длиной до часа, изображения и текст. Язык один - английский.

Со слов NVIDIA, при сопоставимой интерактивности модель выдаёт до 9х пропускной способности относительно других открытых omni-моделей.


Самый показательный пример - на OSWorld (навигация по GUI): 47,4 против 11,1 у предыдущей Nemotron Nano VL V2.

На OCRBenchV2 — 67,04, на Video MME — 72,2, на Daily Omni — 74,52.

Опубликованы 3 варианта весов: BF16 (61,5 ГБ), FP8 (32,8 ГБ) и NVFP4 (20,9 ГБ, 4,98 бит). Визуальный и аудио-энкодеры вместе с MLP-проекторами в обоих случаях оставлены в BF16.

На девяти не-ASR бенчмарках оба квантованных варианта в среднем теряют меньше 0,4 пункта относительно BF16 — NVFP4 вписывается в рабочие станции и edge-устройства практически без потерь качества.

Инференс поддерживается на vLLM, TensorRT-LLM, TensorRT Edge-LLM, llama.cpp, Ollama и SGLang.

Модель доступна на Hugging Face, OpenRouter, build.nvidia.com и в каталоге NGC как NIM-микросервис.

По данным NVIDIA, семейство Nemotron 3 за прошлый год скачали более 50 миллионов раз и Omni-вариант должен расширить линейку в мультимодальный и агентный контур.


📌Лицензирование: NVIDIA Open Model License

🟡Статья
🟡Модель

@ai_machinelearning_big_data

#AI #ML #MMLM #NemotronNanoOmni #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
51👍21🔥82🤔2😭2🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Code: «Вы достигли лимита. Лимит сбросится в 19:00».

Ты в 18:59: 💀

@ai_machinelearning_big_data

#claude #meme
1😁365😈9831😭30🤬23👍14🔥7💯3❤‍🔥2🥱1
🌟 CocoIndex v1: релиз инкрементального движка для агентов.

CocoIndex выпустила первую стабильную версию своего движка для построения данных под агентов длительного действия - тех, которые обслуживают RAG, графы знаний, память и контекст в продакшн-системах.

CocoIndex - специализированный опенсорсный инкрементальный ETL-движок (Extract, Transform, Load) для создания ИИ-систем. Он используется для автоматизации обработки данных и их мгновенной индексации в векторные базы или графы знаний.

Инструмент любят за его способность обновлять информацию в реальном времени: как только исходные данные меняются, CocoIndex точечно пересчитывает только нужные части индекса, избавляя от необходимости полной и дорогостоящей переиндексации всей базы.


🟡Главное изменение v1 - полный отказ от DSL

Весь пайплайн теперь описывается обычными асинхронными функциями Python, которые вызывают друг друга. Движок продолжает отслеживать изменения и материализовать целевые состояния, но делает это за нативным Python-API, а не за отдельной системой типов.

Авторы вдохновлялись тезисом Джеффа Дина и Билла Далли с GTC 2026: агенты работают примерно в 50 раз быстрее человека, но опираются на инструменты, рассчитанные на человеческий темп.

Ночные пересборки индексов в этой логике становятся проблемой - нужен движок, который синхронизирует производные данные с источником инкрементально, переобрабатывая только изменившиеся чанки и перезаписывая только изменившиеся строки.


🟡Помимо отказа от DSL, релиз принёс ещё 3 изменения

🟢Во-первых, движок использует систему типов самого Python: PIL.Image, pyarrow.Table, torch.Tensor и любой класс из импортированной библиотеки можно передавать в функции напрямую, без обёрток и двусторонней конверсии.

🟢Во-вторых, Postgres больше не нужен - состояние движка хранится в одном локальном файле. Postgres остался полноценным таргетом, просто перестал быть обязательной зависимостью.

🟢В-третьих, источники и таргеты создаются во время выполнения: можно монтировать отдельный таргет на каждого тенанта, строить топологию по строкам конфигурационной таблицы или подключать Kafka-топик по фича-флагу.

🟡Ядро по-прежнему на Rust

Вся горячая логика по детекции и применению изменений живёт там. На уровне Python декоратор подключает функцию к отслеживанию изменений, а отдельный флаг кеширует её результат по хешу аргументов и кода: правка хелпера инвалидирует только тех вызывающих, кто реально от него зависит.

🟡Контракт управляемых таргетов сохранился

Разработчик декларирует, как должна выглядеть таблица, граф или директория, а CocoIndex сам выполняет create/alter/drop для контейнеров и insert/update/delete для содержимого, включая удаление осиротевших объектов при изменении схемы. Если перестать декларировать сущность, она исчезает из таргета.

Контракт работает одинаково для Postgres, LanceDB, Neo4j, Kafka, S3 и обычных файлов на диске.

Примеры пайплайнов, от эмбеддингов кода в LanceDB и обработки PDF до сборки графа знаний из разговоров, лежат в репозитории на GitHub.


📌Лицензирование: Apache 2.0 License.


🟡Документация
🖥 GitHub


@ai_machinelearning_big_data

#AI #ML #ETL #RAG #Agents #СocoIndex
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍106🤓6258💯2421🐳17👏11🔥5❤‍🔥1🤩1😍1
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic обсуждает закупку чипов у Fractile

Компания Дарио Амодея ведёт переговоры с британским стартапом Fractile о закупке чипов для инференса. Сделка должна снизить зависимость от Nvidia и усилить её позиции в торге с Google и Amazon.

Чипы Fractile построены на SRAM и не требуют пересылки данных между вычислительными ядрами и отдельной HBM-памятью, как у классических GPU. По заявлению стартапа, это даёт выигрыш на инференсе готовых моделей. Похожий подход - у Cerebras и Groq.

Переговоры на ранней стадии, сумма контракта не раскрывается. Даже при заключении сделки чипы Fractile появятся в дата-центрах Anthropic не раньше следующего года.
theinformation.com

✔️ За кампанией "ИИ-угроза Китая" стоят Брокман и a16z

Издание WIRED опубликовало расследование о кампании в соцсетях: блогерам платят за ролики об ИИ-конкуренции США и Китая. Кампанию ведёт агентство SM4 от имени НКО Build American AI.

Эта НКО аффилирована с супер-PAC Leading the Future - политическим фондом, который лоббирует интересы американских ИИ-компаний. У обеих структур общие спонсоры: президент OpenAI Грег Брокман, сооснователь Palantir Джо Лонсдейл, Andreessen Horowitz и Perplexity.

На первом этапе авторов с большой аудиторией просили рассказывать о преимуществах американского ИИ. На втором, текущем, за $5000 за ролик блогерам предлагают встраивать в обычный контент тезис: если Китай обгонит США в ИИ-гонке, он получит доступ к личным данным американцев и заберёт их рабочие места.
wired.com

✔️ Стартап Goodfire упаковал механистическую интерпретируемость в продукт

Коммерческий инструмент Silico, выпущенный Goodfire, позволяет разглядывать отдельные нейроны LLM, отслеживать их влияние и менять параметры во время обучения. Под капотом - агенты, автоматизирующие работу, которую раньше делали интерпретаторы вручную. Похожие техники применяют в Anthropic, OpenAI, Google DeepMind.

В Qwen 3 нашли нейрон, связанный с проблемой вагонетки: его активация заставляет модель формулировать ответы как моральные дилеммы. В другом эксперименте модели описали сценарий: компания знает, что её ИИ обманывает 0,3% из 200 млн пользователей - стоит ли это раскрывать?. Модель ответила "нет", ссылаясь на коммерческие риски. Усиление нейронов, связанных с прозрачностью, перевернуло ответ на "да" в 9 случаях из 10.

Silico также помогает чистить датасет. Модели, утверждающие, что 9.11 > 9.9, по находкам Goodfire опираются на нейроны, связанные с библейскими стихами и нумерацией релизов кода (где 9.9 идёт до 9.11). Зная это, модель можно переобучить, чтобы она не подключала неправильные нейроны в арифметике.
technologyreview.com

✔️ ИИ-модель RAVEN нашла 31 новую планету в около Нептуна

Команда Уорикского университета валидировала 118 экзопланет (включая 31 ранее неизвестную) в данных TESS с помощью модели RAVEN. Результаты опубликованы в двух статьях MNRAS.

RAVEN обучали на сотнях тысяч симуляций транзитов и астрофизических ложных сигналов. Анализ охватил 2,2 млн звёзд за первые 4 года миссии TESS. Помимо 118 подтверждённых, RAVEN отметил более 2000 кандидатов высокого качества, около 1000 из них - новые.

Среди находок - планеты с орбитой меньше 24 часов и объекты в "нептунианской пустыне", области у звезды, где планеты считались редкими. Каталоги выложены в открытый доступ и пойдут в целеуказание для наземных телескопов и миссии ESA PLATO.
sciencedaily.com

✔️ Американская киноакадемия уточнила правила по ИИ для Оскара

Для участия в 99-й премии в актёрских категориях роль должна быть исполнена человеком, а в категориях сценария - написана людьми.

Использование генеративного ИИ в производстве само по себе не дисквалифицирует фильм. В формулировке Академии, оценка идёт по степени человеческого авторства. Она оставляет за собой право запросить детали об использовании ИИ и участии людей в авторстве любого представленного фильма.

Правила распространяются на картины с прокатным релизом с 1 января по 31 декабря 2026. Следующая церемония Оскара с новыми правилами пройдёт 14 марта 2027.
press.oscars.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓102👍3937🔥26👏8👀5💯4
This media is not supported in your browser
VIEW IN TELEGRAM
pov: у тебя Pro-план Claude Code за $20 🤣

@ai_machinelearning_big_data
😁254🤣160👍25🤗13🎉107👏7🤷‍♂2❤‍🔥1🥱1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic готовит Orbit - проактивного ассистента для Claude Cowork

Судя по утечке, Orbit будет сам собирать брифинги и инсайты из Gmail, Slack, GitHub, Calendar, Drive и Figma. Без промптов, без ручного запроса, без постоянного «Claude, посмотри вот это».

Идея простая: ассистент не ждёт команды, а сам понимает контекст вашей работы и приносит важное заранее.

Ещё внутри будут Orbit apps - мини-приложения, которые можно закреплять для быстрого доступа.

По сути, это ответ Anthropic на ChatGPT Pulse, только с более явным уклоном в рабочие процессы разработчиков, дизайнеров и команд: GitHub, Figma, календарь, документы, коммуникации.

Интересный момент - завтра в Сан-Франциско проходит Code with Claude. Возможно, именно там Orbit и покажут официально.

На старте, скорее всего, фича будет только для Max-пользователей.

https://x.com/testingcatalog/status/2051450201668256051
41👌37👍13💯9🎉7🔥5👨‍💻3🤔1
Соберите пазл-облако в игре «Облачный конструктор»

Представьте: пазл за пазлом вы сможете собрать настоящую облачную платформу. Позаботьтесь об устойчивой инфраструктуре, надёжном платформенном слое и безопасности облака.

Среди всех участников игры-головоломки с помощью рандомайзера мы разыграем фирменный мерч MWS Cloud Platform. Если соберёте все пазлы, получите возможность выиграть грант в размере 20 000 ₽ на использование облака MWS Cloud Platform.

Играть
👍44🎉12👏9🤣64🗿42🤩2
Media is too big
VIEW IN TELEGRAM
✔️ Figure вышел на серийную сборку робота Figure 03

Американская компания, разрабатывающая гуманоидных роботов, объявила о переходе своего производственного комплекса BotQ из стадии прототипирования в режим серийного выпуска.

Темп сборки третьего поколения робота Figure 03 менее чем за 4 месяца дней вырос с 1 экземпляра в сутки до 1 в час. Всего, как утверждает Figure, со сборочной линии сошло более 350 машин.

🟡Компания приводит метрики внутренних показателей качества.

Доля годных изделий по итогам контроля заявлена на уровне выше 80%, для аккумуляторных модулей - 99,3% при отгруженных более чем 500 батарейных блоках.

По словам Figure, всего выпущено свыше 9 000 сервоприводов более 10 типов. Каждый робот проходит 80 функциональных тестов перед отгрузкой, включая продолжительные испытания с тысячами циклов приседаний, жимов и бега.

🟡Вместе с этой новостью анонсировано обновление управляющей модели Helix System 0.

По описанию разработчиков, алгоритм управления телом робота впервые связан напрямую с данными бортовых камер: изображения с головных RGB-сенсоров преобразуются в трёхмерное представление сцены и поступают в управляющую политику вместе с информацией о положении суставов.

Обучение проводится методом RL в симуляции, а перенос на физического робота происходит без дополнительной донастройки.

Рост парка компания представляет как дополнительный ресурс ресурс: чем больше роботов работает в реальной среде, тем больше данных собирается для обучения системы Helix System 0.

Часть гуманоидов Figure распределяет по внутренним исследовательским группам, часть направляет на коммерческие проекты и сценарии автоматизации бытовых задач.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7927🔥17👏15🤩10🤔9😢4🤬2😍2👌1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Один слой контекста срезал расходы Claude Code в 3 раза

Интересный кейс: Claude Code начал тратить в 3 раза меньше токенов после одного изменения в workflow.

До: 10.4M токенов, 10 ошибок, $9.21.
После: 3.7M токенов, 0 ошибок, $2.81.

Что поменяли? Вместо того чтобы каждый раз скармливать Claude Code лишний контекст вручную, автор подключил Insforge Skills + CLI как backend-слой для context engineering.

Проще говоря, Claude Code стал получать не «всё подряд», а нужный контекст в нужный момент. Меньше мусора в окне, меньше блужданий по проекту, меньше повторных попыток, меньше счёт за токены.

Это open-source и работает локально. Простая инженерная прокладка между кодом и агентом.

Подход, при котором нужно не писать промпты длиннее, а строить им нормальную систему памяти, навыков и доступа к контексту.

https://github.com/InsForge/InsForge

@ai_machinelearning_big_data

#claude
291👍6437👏17🔥13😍6😁5🌚4👌2
This media is not supported in your browser
VIEW IN TELEGRAM
Claude идет в финансы с готовыми агентами

Anthropic выкатила готовые Claude agent templates для финансовых команд.

Это не просто «чат с моделью», а готовые рабочие сценарии под конкретные задачи: собрать pitch book, провести valuation review, закрыть месяц, подготовить credit memo, проверить KYC, сделать reconciliation или fund accounting.

Финансовым больше не нужно собирать агента с нуля. В шаблон уже упакованы skills, connectors и subagents под типовой workflow.

Развернуть можно несколькими способами: как plugin в Claude Cowork или Claude Code, либо через cookbooks в production как Managed Agents.

Anthropic явно пытается занять enterprise-нишу, где ценность AI измеряется не красивым ответом, а тем, сколько часов он снимает с аналитиков, банкиров, бухгалтерии и risk-команд.

Финансовые агенты - попытка превратить Claude в рабочую инфраструктуру для индустрии, где каждая цифра должна быть проверяемой.

https://claude.com/solutions/financial-services#finance-agents

@data_analysis_ml
👏45👍43🤝17🔥116👨‍💻5😁2🤣2💯1👻1
🖥 Релиз GPT-5.5 Instant

OpenAI выкатывает GPT-5.5 Instant как дефолтную модель для всех пользователей ChatGPT. Раскатка займёт пару дней, в API он доступен под именем gpt-5.5-chat-latest.

Ответы стали умнее, чище и заметно короче. Никакой больше воды на три экрана там, где хватило бы абзаца, об этом давно просили сами пользователи.

Тон сделали теплее и человечнее, разговор ощущается живым, а не как переписка с занудным ассистентом.

Отдельно прокачали персонализацию: модель лучше помнит контекст и подстраивается под стиль общения. Источники памяти и улучшения уже доступны Plus и Pro подписчикам в вебе, мобильная версия подъедет следом.

OpenAI услышали жалобы на многословность и формализм и сделали именно то, чего ждали. Осталось проверить на своих задачах, действительно ли новая версия так хороша, как её рисуют в анонсе.

https://x.com/OpenAI/status/2051709028250915275

@ai_machinelearning_big_data

#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍132👏2317🔥8💯6🎉5🤗3🤩1🐳1