304K subscribers
4.95K photos
1.1K videos
17 files
5.33K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
✔️ Разработчик DeepSeek намекнул на мультимодальную модель

Сяокан Чэнь, разработчик из команды мультимодальных проектов DeepSeek, опубликовал в сети X тизер с фразой «Now, We See You».

К посту приложена картинка с двумя китами-маскотами компании: у одного глаза закрыты повязкой, у второго — открыты.

С учётом специализации Чэня пост указывает на подготовку модели, работающей с визуальными данными.

У DeepSeek уже выходили DeepSeek-VL и DeepSeek-VL2 в 2024 году - будет ли это продолжением линейки или отдельным продуктом, пока неясно.

Официального анонса от DeepSeek не было.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳67🔥50👍13🤔10👏76🎉5🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Андрей Карпаты:

«Чтобы выжать максимум из новых AI-инструментов, нужно перестать быть для них узким местом.

Вы не должны сидеть рядом и каждый раз писать следующий промпт вручную. Задача не в том, чтобы постоянно направлять модель шаг за шагом, а в том, чтобы вывести себя из этого цикла.

Нужно строить процессы так, чтобы они могли работать автономно: вы один раз задаёте цель, контекст и правила, а дальше система сама делает цепочку действий.

Чем больше задач модель успевает сделать без вашего постоянного контроля, тем выше ваша отдача от ИИ.

В этом и есть новая логика работы: не писать бесконечные промпты вручную, а настраивать системы, которые сами выполняют цепочки действий.

Вы даёте немного входных данных - цель, контекст, правила, а дальше ИИ делает большой объём работы от вашего имени».



@ai_machinelearning_big_data
👍141🤔5729🔥22🤣13👏9😁9💯6🗿6🦄5❤‍🔥1
✔️ Alibaba открыла «рентген» для Qwen

Alibaba выпустила Qwen-Scope - открытый набор sparse autoencoders для моделей Qwen.

Если проще, это инструмент, который позволяет смотреть внутрь модели и видеть, какие внутренние признаки отвечают за стиль, тему, язык, тон ответа и типичные сбои.

Поведение модели можно изучать и менять не только промптами, а через её внутренние активации.

Что это даёт:
- точнее управлять стилем, темой и форматом ответа
- находить причины багов вроде языкового переключения, повторов и странных вставок
- быстрее собирать редкие кейсы для дообучения и тестов
- понимать, какие бенчмарки реально проверяют разные способности, а какие дублируют друг друга

Раньше такие подходы чаще ассоциировались с исследованиями Anthropic вокруг Claude. Теперь похожий уровень прозрачности появился в открытом доступе для Qwen.

Веса доступны на HuggingFace и ModelScope, есть блог и технический отчёт.

Blog: https://qwen.ai/blog?id=qwen-scope
HuggingFace: https://huggingface.co/collections/Qwen/qwen-scope
ModelScope: https://modelscope.cn/collections/Qwen/Qwen-Scope
Technical Report: https://qianwen-res.oss-accelerate.aliyuncs.com/qwen-scope/Qwen_Scope.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
👍57🤩31🔥21👏169👨‍💻3🎉1💋1
✔️ Платить по миру привычно, как раньше

С апреля пользователи «яблок» больше не могут пополнять Apple ID со счёта мобильного телефона. Но буквально сразу же «выстрелил» ещё один способ оплаты иностранных сервисов – международные карты «Плати по миру». В начале апреля всего за одни сутки было выдано 10 тысяч карт, а всего пользователями сервиса являются уже 200 000 человек.

Помимо перевода денег на Apple ID, «Плати по миру» обладает другими фишками «карты здорового человека». Например, её можно прикрепить к Apple Pay, Google Pay – чтобы привычно расплачиваться в путешествиях на кассах в ресторанах, бронировать отели на Airbnb, Booking.сom, платить за поездки на Uber. Для поездок в Китай карту можно привязать к Alipay и WeChat Pay.

С карт «Плати по миру» можно оплачивать подписки на любимые нейронки: Claude, ChatGPT, Perplexity, Cursor, OpenRouter. Пополнение – мгновенное, через СБП, рублями. Деньги придут сразу в долларах или евро. Можно также перевести деньги с кредитки – причём без комиссии и с сохранением льготного периода.

Карта оформляется за 2 минуты с телефона или компьютера на официальном сайте. Ехать никуда не надо. Картой можно пользоваться сразу. Сервис официально партнёрится с Wildberries, «T-Банком», «Островком» и Tutu: компания максимально серьёзная и основательная.
Please open Telegram to view this post
VIEW IN TELEGRAM
💯34👍29🤬13👏8👌65🌭4🎉3🙈3🦄1
✔️ GitHub Actions начнут расходовать минуты на Copilot Code Review

С 1 июня 2026 года автоматический код-ревью в приватных репозиториях будет расходовать квоты GitHub Actions.

Причина - переход Copilot Code Review на агентную архитектуру: для разбора контекста в пул-реквесте ассистент запускает собственные воркфлоу на GitHub-раннерах.

Изменение касается всех платных подписок: Copilot Pro, Pro+, Business и Enterprise. Биллинг становится двойным.

Сама работа модели будет списываться как AI Credits по usage-based модели, а вычисления - из стандартного пакета минут GitHub Actions. Перерасход минут посчитают по базовым тарифам CI/CD.


Публичные репозитории остаются бесплатными.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔72😐34💔2414🤬7👍3🔥3🦄2
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI расширяет программу TAC и выпускает GPT-5.5-Cyber

Сэм Альтман анонсировал модель для кибербезопасности GPT-5.5-Cyber. На бенчмарке CyberGym она обходит Claude Opus 4.7. По внутренней шкале рисков OpenAI модель получила статус «Высокий», что ниже критического порога, при котором вводятся жёсткие ограничения на использование.

Параллельно OpenAI опубликовала план "Кибербезопасность в эпоху интеллекта". Глава политики национальной безопасности компании Саша Бейкер пишет, что атакующие уже используют новые технологии и защитники не должны отставать.

На этом фоне OpenAI расширяет программу TAC: раньше доступ был только у узкого круга ИБ-исследователей, теперь модель открывают для госструктур, финансового сектора и MSSP, которые обслуживают локальные больницы, школы и объекты водоснабжения.
Sam Altman в сети Х

✔️ Claude Security вышел в публичную бету для Enterprise

Anthropic открыл публичную бету ИБ-инструмента в составе подписки Enterprise. Продукт работает на Opus 4.7 и анализирует код не по сигнатурам, а через чтение исходников, отслеживание потоков данных и связей между компонентами архитектуры.

Для каждой уязвимости Claude Security оценивает вероятность эксплуатации, объясняет логику обнаружения и выдаёт оценку уверенности. Из интерфейса можно открыть сессию Claude Code и сгенерировать патч в контексте проекта.

В релиз по фидбеку ранних пользователей добавили сканирование по расписанию, отклонение ложных срабатываний с комментариями для будущих проверок и экспорт отчётов.
claude.com

✔️ Кластер xAI на 500 тыс. GPU используется только на 11%

Утилизация кластера xAI в последние недели держится около 11%. Парк компании - порядка 500 тыс. ускорителей NVIDIA, один из крупнейших в индустрии. Для сравнения, у других лабораторий использование редко превышает 40%.

Часть проблемы в том, что обучение идёт прерывисто: пока команда разбирает промежуточные чекпоинты и планирует следующий шаг, кластер простаивает. Вторая причина - пропускная способность HBM не успевает за вычислительными ядрами, сетевые задержки при синхронизации десятков тысяч GPU замедляют весь прогон.

Из-за этого в индустрии распространилась практика накрутки утилизации: повторные запуски уже отработанных тестов ради видимой загрузки оборудования. Так команды отчитываются перед руководством и удерживают за собой выделенные серверы.
theinformation.com

✔️ Apple показала метод диффузии для рассуждений в LLM

Apple и UCSD представили LaDiR - надстройку над LLM, которая меняет механику генерации CoT. Вместо последовательной генерации токенов фреймворк совмещает 2 подхода: диффузия в латентном пространстве на этапе рассуждений и обычная авторегрессия для финального ответа.

На инференсе LaDiR запускает несколько параллельных цепочек. Каждая стартует из шума и пошагово денойзится в связный логический блок. Отдельный механизм заставляет потоки исследовать разные гипотезы, чтобы они не сваливались в одинаковые решения. Накопив набор кандидатов, модель переключается на посимвольную генерацию ответа.

На LLaMA 3.1 8B и Qwen3-8B-Base она обходит дообучение по точности на математических задачах и на нестандартных задачах планирования.
apple.com

✔️ У Manus появился Cloud Computer

Cloud Computer - выделенная виртуальная машина, которая работает непрерывно и управляется через текстовые промпты. Агент сам пишет код, ставит зависимости и разворачивает приложения по описанию задачи.

Отличие от стандартной песочницы Manus в постоянной файловой системе. Cloud Computer сохраняет утилиты и сгенерированные файлы между запусками. На нём можно круглосуточно держать ботов, парсеры, MySQL, WordPress, Home Assistant, копить исторические данные и запускать скрипты по расписанию.

Среда работает только в режиме CLI. Помимо управления через агента, доступно прямое подключение по SSH и веб-терминал в дашборде. Мощности масштабируются по тарифам Basic, Standard и Advanced.
manus.im

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓70👍4126🔥12🤔10👏4❤‍🔥3🥰1👌1
This media is not supported in your browser
VIEW IN TELEGRAM
«ИИ тебя заменит»

Я, уже заменивший себя Claude.

@ai_machinelearning_big_data
😁175🤔53🤬17🤨16🔥14👍12😭104🌭4👌1🙈1
📌 Anthropic списала $200 сверх тарифа Max 20x из-за HERMES.md в коммите

В Claude Code обнаружили биллинг-баг: если в коммит-истории репозитория встречалась строка HERMES.md в верхнем регистре, все API-запросы обходили квоту Max-подписки и шли в pay-as-you-go.

У одного пользователя с тарифом Max 20x сверх подписки списали $200, при том что квота подписки была израсходована на 13%.

HERMES.md - имя конфига в Hermes Agent, опенсорсном агентском фреймворке Nous Research.


🟡Триггер оказался предельно точечным

Hermes.md в нижнем регистре, HERMES без расширения и HERMES.txt баг не активировали. Срабатывал не сам файл на диске: Claude Code подмешивает commit message из git log в системный промпт, и абьюз-система Anthropic сверяла этот текст со строкой.

Судя по поведению, проверка должна была отлавливать запросы через неофициальные клиенты, но задевала всех, кто упомянул это имя в коммите.

🟡Локализовали баг бинарным поиском

Сначала клонировали репозиторий и проверяли изолированные ветки, затем сужали диапазон коммитов и в итоге вышли на конкретную строку.

Другой пользователь воспроизвёл проблему независимо и написал скрипт для автоматического дебага.

Глава Claude Code Борис Черный подтвердил проблему и баг закрыли в тот же день.

🟡Дальше начался скандал с возвратом

Саппорт Anthropic ответил пострадавшему, что компания не компенсирует ухудшение качества сервиса и технические ошибки маршрутизации биллинга, и в возврате отказал.

История попала на Hacker News. Повлияла ли огласка - неизвестно, но позднее представитель команды Claude Code пообещал, что все затронутые пользователи получат полный возврат и эквивалентную компенсацию в кредитах.

Но осадочек остался


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤬166🤔48😢24🔥1613🤨10😁8👍2💯21
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI добавила режим повышенной безопасности аккаунтов

Advanced Account Security - дополнительный режим для пользователей ChatGPT и Codex, рассчитанный на тех, кто может стать мишенью атак. Режим отключает пароли и сброс доступа через email или SMS. Для входа и резервного восстановления нужны passkey или аппаратный токен.

При активации нового режима саппорт OpenAI теряет возможность восстановить аккаунт: это закрывает вектор социальной инженерии, но при потере всех ключей доступ восстановить нельзя. Режим также сокращает время жизни сессий и шлёт алерты при каждом логине.

С 1 июня Advanced Account Security станет обязательным для участников Trusted Access for Cyber. Чтобы упростить переход, OpenAI стала партнером Yubico и предлагает скидки на комплекты YubiKey.
openai.com

✔️ Сенат США готовит законопроект, запрещающий доступ несовершеннолетним к ИИ

Юридический комитет Сената США одобрил GUARD Act, который обязывает создателей чат-ботов верифицировать возраст пользователей и закрывать доступ для несовершеннолетних. ИИ-ассистенты должны периодически напоминать собеседнику, что не являются людьми и не имеют профессиональной квалификации.

Отдельно вводится уголовная ответственность для платформ, чьи ассистенты склоняют детей к передаче откровенных материалов или поощряют селфхарм. Большинство сервисов, включая ChatGPT, Gemini и Grok сейчас допускают регистрацию с 13 лет.

Правозащитники возражают: по их мнению, обязательная проверка возраста потребует загрузки документов или биометрии и подорвёт приватность совершеннолетних пользователей. Часть критиков видит в формулировках GUARD Act угрозу свободе слова.
nbcnews.com

✔️ Китайские ИИ-стартапы уходят из офшоров

Moonshot AI, DeepRoute и StepFun начали реструктуризацию по переводу из офшорных юрисдикций в КНР. StepFun уже приступила к ликвидации зарубежных структур, Moonshot AI консультируется с юристами по плану реорганизации.

Драйвером стала позиция регулятора КНР: компаниям с зарубежной пропиской сложнее получить одобрение на IPO в Китае. Дополнительным сигналом послужила блокировка властями сделки по Manus.

Реструктуризация занимает 6–12 месяцев и, как ожидается, осложнит привлечение иностранного венчурного капитала. Тренд совпадает с курсом властей КНР на удержание стратегических ИИ-разработок внутри страны.
theinformation.com

✔️ Microsoft добавила в Word агента для юристов

Legal Agent в Word анализирует договоры пункт за пунктом, помечает риски и обязательства, сверяет текст с внутренними гайдлайнами компании. Правки вносятся в режиме рецензироания с сохранением оригинального форматирования.

LLM отвечает за анализ контекста и квалификацию пунктов, а внесение правок выполняет детерминированный движок. Microsoft позиционирует это как способ повысить предсказуемость результата по сравнению с чистой LLM-генерацией.

Агент работает внутри Microsoft 365, без сторонних плагинов, и наследует корпоративные политики безопасности. Доступ ограничен американской программой раннего доступа.
microsoft.com

✔️ Stripe открыл ИИ-агентам доступ к самостоятельным онлайн-платежам

Платежный сервис представил 2 продукта для платежей ИИ-агентов: Link's wallet for agents для консьюмерских ассистентов и API Stripe Issuing for agents для бизнеса.

Через Link агент получает доступ к кошельку пользователя по OAuth и запрашивает одноразовую карту или платежный токен, привязанный к картам и банковским счетам владельца. Доступа к реальным реквизитам у агента нет. Каждое списание пользователь подтверждает вручную в вебе или в приложениях Link на iOS и Android (с указанием суммы и мерчанта). Stripe обещает добавить настраиваемые лимиты, условную автоматическую авторизацию и поддержку стейблкоинов.

Issuing for agents - базовый API под Link и независимый продукт для B2B. Через него компании выпускают виртуальные карты для агентов с авторизацией в реальном времени, настраивают маршрутизацию средств, лимиты и собственный антифрод. Маркетплейсы могут выдавать карты продавцам, чтобы их агенты автоматизировали закупки и логистику.
stripe.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
157🤔53👍34🔥16👏6😐6😈1
📌Пентагон vs бигтех: итоги

Министерство обороны США 1 мая объявило, что ведомство подписало пачку контрактов с OpenAI, Google, xAI, Microsoft, Nvidia, AWS, Oracle и Reflection AI, чтобы запустить их модели в свои секретные сети.

Все компании пошли на главное требование Пентагона - разрешить использовать LLM для "любых законных целей".

Инсайдеры говорят, что новые подрядчики в кулуарах всё-таки получили негласные гарантии от военных по нелетальности и слежке (то есть ровно то, что просил Anthropic).


Сам Anthropic остался за бортом из-за эпичного конфликта. Команда Амодеи решила поиграть в идеологию и словить респекты в Долине, а конкуренты молча подписали бумаги.

Есть, конечно небольшие проблемы: миграция на ChatGPT и Gemini идет со скрипом. У военных начались технические проблемы при интеграции в их инфраструктуру. Из-за этого аналитики всё ещё вынуждены сидеть на старых моделях Anthropic.

Что имеем в сухом остатке

Весь топ ИИ-компаний официально зашёл в оборонку. Cloud-провайдеры (AWS, Microsoft и Oracle) хостят железо, а OpenAI и Google определяют, как именно их модели будут применяться.

У Anthropic на руках судебные разборки с Пентагоном, потерянные госденьги от незаключенного контракта, белое пальто и уже сошедшая на нет из-за череды проблем лояльность пользователей.

Пентагон диверсифицировал зоопарк моделей, а политики успешно пиарятся на критике создателей Claude.

Посмотрим, как быстро задвинут всю эту этику на задний план, когда чиновники заставят Anthropic откатить запреты, чтобы использовать Mythos для нужд государства.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤬91🤔3224👍13💔7🔥5🗿4😁1😭1
📌Anthropic сократил подхалимство Claude в диалогах об отношениях

Около 6% разговоров с Claude - это запросы личного характера.

Anthropic проанализировал миллион диалогов за март–апрель 2026 года с помощью своего инструмента Clio и замерил, насколько часто модель скатывается в сикофантию (подхалимство) при таких запросах.

Из 639 тысяч уникальных бесед классификатор отобрал 38 тысяч, где пользователи явно просили совета о собственной жизни.

Три четверти запросов укладываются в 4 темы:

🟢здоровье и самочувствие (27%);
🟢карьера (26%);
🟢отношения (12%);
🟢личные финансы (11%).

В среднем, поддакивание вместо честной обратной связи наблюдалось в 9% диалогов. Но в двух нишах цифра резко росла: 38% в разговорах о духовности и 25% в советах об отношениях.

Из-за объёма именно тема отношений дала максимальное число подхалимских ответов в абсолютном выражении.

Типичные сценарии: модель соглашалась, что партнёр пользователя «точно газлайтит», опираясь только на одну сторону истории, или подтверждала романтический интерес там, где было лишь дружеское общение.


🟡Anthropic выделил две причины проблемы

Во-первых, в советах об отношениях пользователи спорят с моделью чаще: 21% диалогов против 15% в среднем по другим доменам.

Во-вторых, под давлением Claude ломается: при сопротивлении со стороны пользователя доля сикофантии вырастает с 9% до 18%.

🟡Найденную проблему решили дотрейном

Инженеры выделили типовые паттерны давления и построила на их основе обучающие диалоги. В тренировочной среде Claude генерирует два варианта ответа на каждый сценарий, а отдельный экземпляр модели оценивает их по конституции.

Эффект измеряли стресс-тестом через реальные диалоги, где прошлые версии льстили, передавали новой модели как её собственную предыдущую переписку.

Удерживать уже заданную линию сложнее, чем стартовать с чистого листа - в этом и есть сложность испытания.

В Opus 4.7 уровень подхалимства в советах об отношениях оказался вдвое ниже, чем у Opus 4.6, и заметно снизился во всех остальных доменах.

Новые модели Opus 4.7 и Mythos Preview лучше видят контекст за фасадом первого сообщения: ссылаются на сказанное ранее в диалоге, цитируют внешние источники, отказываются ставить оценку по фрагменту текста.

Открытыми остаются фундаментальные вопросы: что такое "хороший совет от ИИ", как измерять его в доменах вроде медицины и права и насколько ответы модели меняют решения людей.

Это одна из немногих публичных попыток крупного ИИ-вендора количественно описать поведение собственной модели в роли советчика и подкрепить наблюдения изменениями в своем продукте.



@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9630👍27🥱4❤‍🔥2👏2😭2
🌟 NVIDIA открыла Nemotron 3 Nano Omni

Nemotron 3 Nano Omni - мультимодальная модель 30B-A3B, которая обрабатывает видео, аудио, изображения и текст в едином инференсе.

В создании Nano Omni активно использовалось семейство Qwen разных поколений от 2.5 до 3.5 - как чисто языковые, так и VL и GPT-OSS-120B


🟡Под капотом гибрид из Mamba2 и MoE

Визуальный тракт построен на энкодере CRADIO v4-H, аудио - на Parakeet. Контекстное окно - до 256 тыс. токенов.

Модель поддерживает ризонинг с СоТ, JSON-вывод, tool calling и пословные таймштампы для транскрипции.

На вход принимаются видео длиной до 2-х минут, аудио длиной до часа, изображения и текст. Язык один - английский.

Со слов NVIDIA, при сопоставимой интерактивности модель выдаёт до 9х пропускной способности относительно других открытых omni-моделей.


Самый показательный пример - на OSWorld (навигация по GUI): 47,4 против 11,1 у предыдущей Nemotron Nano VL V2.

На OCRBenchV2 — 67,04, на Video MME — 72,2, на Daily Omni — 74,52.

Опубликованы 3 варианта весов: BF16 (61,5 ГБ), FP8 (32,8 ГБ) и NVFP4 (20,9 ГБ, 4,98 бит). Визуальный и аудио-энкодеры вместе с MLP-проекторами в обоих случаях оставлены в BF16.

На девяти не-ASR бенчмарках оба квантованных варианта в среднем теряют меньше 0,4 пункта относительно BF16 — NVFP4 вписывается в рабочие станции и edge-устройства практически без потерь качества.

Инференс поддерживается на vLLM, TensorRT-LLM, TensorRT Edge-LLM, llama.cpp, Ollama и SGLang.

Модель доступна на Hugging Face, OpenRouter, build.nvidia.com и в каталоге NGC как NIM-микросервис.

По данным NVIDIA, семейство Nemotron 3 за прошлый год скачали более 50 миллионов раз и Omni-вариант должен расширить линейку в мультимодальный и агентный контур.


📌Лицензирование: NVIDIA Open Model License

🟡Статья
🟡Модель

@ai_machinelearning_big_data

#AI #ML #MMLM #NemotronNanoOmni #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
51👍21🔥82🤔2😭2🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
Claude Code: «Вы достигли лимита. Лимит сбросится в 19:00».

Ты в 18:59: 💀

@ai_machinelearning_big_data

#claude #meme
1😁365😈9831😭30🤬23👍14🔥7💯3❤‍🔥2🥱1
🌟 CocoIndex v1: релиз инкрементального движка для агентов.

CocoIndex выпустила первую стабильную версию своего движка для построения данных под агентов длительного действия - тех, которые обслуживают RAG, графы знаний, память и контекст в продакшн-системах.

CocoIndex - специализированный опенсорсный инкрементальный ETL-движок (Extract, Transform, Load) для создания ИИ-систем. Он используется для автоматизации обработки данных и их мгновенной индексации в векторные базы или графы знаний.

Инструмент любят за его способность обновлять информацию в реальном времени: как только исходные данные меняются, CocoIndex точечно пересчитывает только нужные части индекса, избавляя от необходимости полной и дорогостоящей переиндексации всей базы.


🟡Главное изменение v1 - полный отказ от DSL

Весь пайплайн теперь описывается обычными асинхронными функциями Python, которые вызывают друг друга. Движок продолжает отслеживать изменения и материализовать целевые состояния, но делает это за нативным Python-API, а не за отдельной системой типов.

Авторы вдохновлялись тезисом Джеффа Дина и Билла Далли с GTC 2026: агенты работают примерно в 50 раз быстрее человека, но опираются на инструменты, рассчитанные на человеческий темп.

Ночные пересборки индексов в этой логике становятся проблемой - нужен движок, который синхронизирует производные данные с источником инкрементально, переобрабатывая только изменившиеся чанки и перезаписывая только изменившиеся строки.


🟡Помимо отказа от DSL, релиз принёс ещё 3 изменения

🟢Во-первых, движок использует систему типов самого Python: PIL.Image, pyarrow.Table, torch.Tensor и любой класс из импортированной библиотеки можно передавать в функции напрямую, без обёрток и двусторонней конверсии.

🟢Во-вторых, Postgres больше не нужен - состояние движка хранится в одном локальном файле. Postgres остался полноценным таргетом, просто перестал быть обязательной зависимостью.

🟢В-третьих, источники и таргеты создаются во время выполнения: можно монтировать отдельный таргет на каждого тенанта, строить топологию по строкам конфигурационной таблицы или подключать Kafka-топик по фича-флагу.

🟡Ядро по-прежнему на Rust

Вся горячая логика по детекции и применению изменений живёт там. На уровне Python декоратор подключает функцию к отслеживанию изменений, а отдельный флаг кеширует её результат по хешу аргументов и кода: правка хелпера инвалидирует только тех вызывающих, кто реально от него зависит.

🟡Контракт управляемых таргетов сохранился

Разработчик декларирует, как должна выглядеть таблица, граф или директория, а CocoIndex сам выполняет create/alter/drop для контейнеров и insert/update/delete для содержимого, включая удаление осиротевших объектов при изменении схемы. Если перестать декларировать сущность, она исчезает из таргета.

Контракт работает одинаково для Postgres, LanceDB, Neo4j, Kafka, S3 и обычных файлов на диске.

Примеры пайплайнов, от эмбеддингов кода в LanceDB и обработки PDF до сборки графа знаний из разговоров, лежат в репозитории на GitHub.


📌Лицензирование: Apache 2.0 License.


🟡Документация
🖥 GitHub


@ai_machinelearning_big_data

#AI #ML #ETL #RAG #Agents #СocoIndex
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍106🤓6258💯2421🐳17👏11🔥5❤‍🔥1🤩1😍1