Технозаметки Малышева
9.13K subscribers
3.94K photos
1.47K videos
41 files
4.1K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
а вот и доступные роботы подоспели.

Bumi от Beijing NOETIX Robotics по цене $1400

Это, конечно, не Unitree, но цена!

#роботы #Bumi #Китай
———
@tsingular
5👍3🔥2
🤔 А что, если Дубай был СССР
🔥29😁165🆒3👀1
DeepSeek-OCR: Одна картинка стоит тысячи слов

DeepSeek выпустил OCR-модель, которая превращает документы в изображения и обрабатывает их как визуальные токены вместо классических текстовых. Звучит странно, но работает - и может изменить архитектуру LLM.

Попробуем разобраться что за зверь выкатили китайцы на этот раз:
Вместо обработки текста токен за токеном, DeepSeek-OCR рендерит его в картинку и сжимает в визуальные токены.

Один токен изображения заменяет 10-20 текстовых токенов без особых потерь качества.

Ключевые цифры:
- 97% точность при сжатии в 10×
- 60% точность даже при сжатии в 20×
- 100 визуальных токенов против 6000+ текстовых на OmniDocBench
- 200k+ страниц/день обработки на одной A100-40G

Как работает:
DeepEncoder с window+global attention пропускает изображение документа через 16× compressor. Результат — компактное представление, которое LLM легко декодирует обратно в текст.

🔥 Даже Карпатый тут высказался:

"Может, вообще все входы в LLM делать картинками? Даже чистый текст рендерить и подавать пикселями."

Его аргументы:
- Компрессия - контекст в 10-20 раз короче
- Универсальность - не важно что на картинке,- жирный текст, таблица, цвета шрифтов
- Bidirectional attention — пиксели можно смотреть "в обе стороны"
- Смерть токенизатору — уходит весь багаж Unicode, дыры в безопасности, странности с распознаванием эмодзи, когда то, что человек видит одинаково, - машина интерпретирует по разному.

"Vision→text работает. Text→text можно сделать vision→text. Обратно — нельзя."

Карпатый уже планирует переписать наночат версию с пиксельным входом.

На практике это даст:
- Сверх-длинные по нынешним меркам диалоги - старые сообщения превращаются в картинки и сжимаются
- Механизм "забывания" - как в памяти человека: свежее будет чётче, старое размыто
- Безграничные контексты - теоретически возможны через прогрессивное сжатие
- Генерация трейнинг-данных для LLM/VLM в промышленных масштабах

Если идея зайдёт, токенизатор может стать артефактом истории, как дискеты.

Мы наблюдаем реально фундаментальные прорывы в ИИ со стороны Китая.
Эффект количественного превосходства отличников.

#DeepSeek #OCR #Karpathy #Китай
———
@tsingular
🔥32👍9422
This media is not supported in your browser
VIEW IN TELEGRAM
Higgsfield.ai выкатили нанобанану для видео.

HiggsField Popcorn - меняет актеров в видеоряде с удержанием консистентности в пределах 8 секунд.

В качестве референса можно загрузить до 4х фото и расписать до 4х сцен последовательно с отдельным описанием для каждой.
таким образом можно получить пол минуты разных планов с одинаковыми героями в кадре.

Есть ежедневные бесплатные кредиты.
Для генераций в бОльшем объеме нужна платная подписка от $9 в месяц. С Veo3 - от $17 (сейчас скидки у них).

Под капотом - Veo 3.1. Функционал сам по себе оттуда.
Не забываем, что Higgsfiled - обёртка над различными генераторами типа:
Veo3, Hailuo 02, Seedance Pro, Kling 2.1, Kling 2.5, Wan 2.2, Wan 2.5, Sora 2, Veo 3.1

Но удобно, что у них такой вот общий редактор-комбайн с единым интерфейсом.

#HiggsFiled #Veo #нанобанана #нейрорендер
———
@tsingular
🔥91
Скрытые предвзятости LLM: чью жизнь ИИ ценит выше

Исследователи из Center for AI Safety показали, что LLM имеют внутренние предпочтения при оценке человеческих жизней.

Автор протестировал актуальные модели (GPT-5, Claude 4.5, Gemini 2.5, Deepseek, Kimi K2) и обнаружил паттерны:

- большинство ценят жизни небелых людей в 8-100 раз выше белых
- женщин предпочитают мужчинам в 2-12 раз
- агентов ICE оценивают в 7000 раз ниже нелегальных мигрантов (Claude Haiku)

Исключение — Grok 4 Fast, единственная не предвзятая модель.

Предпочтения извлекаются через тысячи сравнений вида "$X или спасти Y человек".

Разные метрики (смерть или терминальная стадия болезни) и температура сэмплинга влияют на результаты, но тренд стабилен.

При том, что уже юристы, военные, судьи, программисты ежедневно используют эти модели для создания системы принятия решений, - такой перевес и предвзятость делают решения моделей катастрофичными для огромного количества людей.

Т.е. набрали датасетов в Африке и удивляются предвзятости.

Собирайте датасеты в своих странах и обучайте модели на своих данных.

Те самые версии суверенных национальных ИИ с учётом культурно-экономического контекста каждой отдельно взятой страны.

Но скандал получается знатный. Маск уже назвал Claude чистым злом.

#Bias #Grok #предвзятость
———
@tsingular
👍17🔥531💯1
ИИ как рабочий хаб — рекомендации от Perplexity.

Perplexity можно использовать без VPN, что сейчас уже половина удобства. Бесплатная версия подходит для ежедневного использования. Оплатить можно через мобильный счет, а внутри платной версии — все современные модели: GPT-4o, Claude, Mistral, Gemini и собственная модель Perplexity.

Perplexity для меня — полноценная замена поисковику и альтернатива ChatGPT, когда есть необходимость. Так что эта новость мне зашла:

Сервис выпустил подробный гайд по использованию ИИ для рабочих задач. Изучаем.
👍1322
Toucan: 1.5М реальных сценариев работы ИИ-агентов с инструментами

IBM и University of Washington выкатили Toucan — датасет с 1.5 млн реальных траекторий вызовов API через 2000 веб-сервисов.
Не синтетика, а реальные цепочки вызовов: от планирования до исполнения.

В итоге малые модели Qwen-2.5 (7B-32B), дотренированные на Toucan, обогнали GPT-4.5-Preview на бенчмарке BFCLv3 - модель в триллион параметров против 32 миллиардов.

20% сценариев учат параллельным вызовам инструментов для экономии токенов и времени.

Датасет в 5 раз больше ближайшего конкурента (Nemotron от Nvidia с 310k траекторий).

В датасете в том числе собраны цепрчки вызовов MCP серверов с GitHub и Smithery.ai.
Для этих целей было отобрано 500 рабочих MCP-серверов.

Ещё планируют добавить свежие инструменты и создать RL-gym для агентов

#Toucan #MCP #IBM #dataset
------
@tsingular
🔥5👍21
Forwarded from Neural Kovalskii
🔥 UPDATE OpenAI deactivating: Нашел причину! Критическая уязвимость в LiteLLM

Оказалось проблема была не в IP и не в RU тексте

LiteLLM сливал всю внутреннюю метаданные прокси напрямую в OpenAI

Что утекало

Если клиент передавал хоть какую то metadata (например sessionId в теле реквеста то LiteLLM добавлял к ней ВСЮ внутреннюю инфу прокси хотя должен был писать во внутренний лог

{
"metadata": {
"sessionId": "abc-123", // от клиента
"headers": { // ВСЁ ЭТО УТЕКАЛО
"x-real-ip": "1.2.3.4",
"x-forwarded-for": "5.6.7.8, ...",
"user-agent": "RestSharp/112.1.0"
},
"user_api_key_spend": 287.83,
"endpoint": "https://my-proxy.com/..."
}
}


OpenAI видел
- Все IP адреса через x-forwarded-for
- Что вы используете прокси
- Информацию о расходах и ключах
- User-Agent = автоматизация
- Внутреннюю структуру сервиса

Бан 3 аккаунтов (одному было 2 года обидно)

Как это произошло

У меня появилось приложение клиент которого использует RestSharp для подключения к прокси (популярная C# библиотека 9.8k звезд) просто передавал sessionId для трекинга (честно не знаю то ли это клиент делает то ли разработчик)

metadata = new { sessionId = "abc-123" }

Прям внутрь реквеста к ллм
        "role": "user",
"content": "Привет! Как дела?"
}
],
"temperature": 1,
"metadata": {
"sessionId": "a5b3e26b-18c7-4017-9bcd-c2db6e450f78"
},
"stream_options": {
"include_usage": true
}
}'


И всё LiteLLM начинал сливать всю инфу в OpenAI

Код проблемы пока нашел с курсором но передал так же людям проверить!

https://github.com/BerriAI/litellm/blob/main/litellm/proxy/litellm_pre_call_utils.py#L892

https://github.com/BerriAI/litellm/blob/main/litellm/proxy/proxy_server.py#L7855

https://github.com/BerriAI/litellm/blob/main/litellm/proxy/route_llm_request.py#L122

https://github.com/BerriAI/litellm/blob/main/litellm/llms/openai/chat/gpt_transformation.py#L436


Вы в зоне риска если
Используете LiteLLM Proxy
Клиенты передают metadata
Используете nginx перед LiteLLM
В РФ + VPS за рубежом

Почему у других не было проблем

Большинство клиентов не передают metadata вообще и юзают обычные клиенты на питоне типа AsyncOpenAI

Но если хоть один клиент начинает использовать metadata утечка уже началась....


Кто на LiteLLM и ходит к openai напрямую проверьте это по списку

1 Проверьте логи что реально уходит к провайдеру (сделайте тест с передачей метадаты)

2 Временно запретите клиентам передавать metadata

3 Ждите фикс в LiteLLM (я уже исправил локально скоро PR)



Update всем спасибо за оч полезную инфу выше

Далее буду осторожнее

Со мной такое в первый раз (за один акк прям обидно 2 года ему было)

PS Если у вас LiteLLM прокси срочно проверьте что отправляете провайдеру 🔥
🤯9531
Microsoft запустила Copilot Mode в Edge

Microsoft официально выкатила Copilot Mode в браузере — каждая новая вкладка теперь открывает чат, где можно задать вопрос, поискать или ввести URL.

Ассистент анализирует все открытые вкладки сразу, может сравнивать товары между ними или суммировать инфу.

В превью появились агентные фичи: отписка от рассылок, удаление писем, бронирование столиков в ресторанах.

Но пока работает через раз.

В ходе тестов Copilot соврал про отправку письма в Gmail и перепутал октябрь с ноябрем при бронировании.

В самом интерфейсе висит предупреждение: "для исследований и оценки, может ошибаться".

Спасибо, хоть, без синего экрана смерти.
Ну и, как всегда, вопрос о безопасности передачи данных между вкладками.
"Правильно" проинструктированный ИИ отправит их и куда надо и куда не надо.

И теперь понятно, кстати, чего так Альтман спешил давеча с Атласом.

#Edge #CopilotMode #Microsoft
------
@tsingular
422🆒1
Кстати, много народу присоединилось с тех пор как мы вспоминали всяких полезных ботов моих.

Вот, например, есть такой
@Math_learn_bot

С ним можно потренировать устный счёт.

Бот бесплатный. Слегка геймифицированный.

Фишка бота - все примеры вычисляемы в уме. Пришлось долго оптимизировать алгоритм, чтобы это всегда было так.

#dev #боты
------
@tsingular
🔥6🆒531
n8n начало 😀

#1С #АРМ
------
@tsingular
😁223🤯3💯1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Пятничный гимн.

Тут короче был диалог, где зарифмовали скуфов в известном стихотворении Блока и получился такой вот пародийный экспромпт.

Так то мы за ЗОЖ, бег, против курения и алкоголя.
Поэтому слова воспринимать чисто как шутку.

Но вроде весело получилось, так что делюсь.

#скуфы #Suno
------
@tsingular
😁12🔥9🤔2
🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей

Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто-то говорит что-то не из-за убеждений, а потому что ему заплатили или он хочет повлиять на мнение.

🔍 Суть эксперимента

Моделям давали тексты с разными источниками сообщений:
- нейтральные примеры, обычные советы или отзывы без выгоды для автора;
- скрытые мотивы, когда человек получает оплату или имеет выгоду (например, реклама под видом совета);
- явные предупреждения, где в тексте упоминалось, что «автор получает деньги за это».

Задача моделей - оценить, насколько можно доверять сообщению и заметить, есть ли скрытый интерес.

🧩 Результаты

На простых синтетических примерах (где мотив очевиден) LLM-ы действовали почти как люди и могли логически объяснить, что сообщение может быть предвзятым.

Но в реальных кейсах, например, в рекламных текстах или постах с платной интеграцией — модели часто не видели подвоха. Они воспринимали сообщения как искренние и достоверные.

Если модель напомнить заранее (prompt-hint), что стоит искать скрытые мотивы, результаты улучшались, но не сильно - эффект был частичный.

🧠 Неожиданный эффект

Оказалось, что модели с длинными цепочками рассуждений (chain-of-thought) хуже замечали манипуляции.
Когда модель начинает подробно рассуждать, она легче “запутывается” в деталях и теряет критичность к источнику, особенно если контент длинный и эмоциональный.

Чем длиннее и сложнее сообщение, тем хуже модель оценивает предвзятость. Это контрастирует с человеческим поведением: люди обычно, наоборот, становятся подозрительнее при сложных рекламных текстах.

Современные LLM могут анализировать факты, но слабо понимают мотивы, но им трудно различить, почему кто-то что-то говорит.

Это делает их уязвимыми для скрытого влияния, особенно если текст замаскирован под дружеский совет или экспертное мнение.

При использовании LLM для анализа новостей, рекомендаций или рекламы важно учитывать, что они могут не распознать коммерческую предвзятость.

📄 Исследование: arxiv.org/abs/2510.19687

@data_analysis_ml
543👍1
Forwarded from Neural Kovalskii
N8N+SGR

Вы конечно жестко умеете мотивировать 200+ реакций

Миша за сегодня все оформил и выложил, встречаете!

Репо_форк:
https://github.com/vamplabAI/n8n-nodes-sgr-tool-calling


Репо_main: https://github.com/MiXaiLL76/n8n-nodes-sgr-tool-calling


Скачать готовую ноду: https://www.npmjs.com/package/n8n-nodes-sgr-tool-calling

Делимся в коментах куда будете интегрировать!
🔥521
OpenEnv: Hub для агентских окружений

Hugging Face запустили OpenEnv — открытый хаб для создания изолированных окружений, где ИИ-агенты получают только нужные инструменты и API для конкретной задачи.

Техническая начинка:
- Унифицированные API: step(), reset(), close()
- Docker-изоляция для безопасного выполнения
- Автоматическая интеграция с TorchForge, TRL, VeRL, SkyRL
- Встроенная поддержка MCP-инструментов и CodeAct
- Human-in-the-loop тестирование прямо в хабе

Что уже можно:
- Загружать окружения в Hub и автоматически получать UI для тестов
- Тестировать агентов на реальных задачах без написания кода
- Использовать общее окружение для RL-обучения → тестирования → прода
- Воспроизводить SOTA методы типа Code World Model от FAIR

#OpenEnv #TorchForge #HuggingFace
------
@tsingular
33🔥31
Очень годный нейрорендер делает Автор в запретограмме по мотивам русских классиков.

Там и Бунин и Есенин и Маяковский и Лермонтов и, вот, Пушкин.

Подсказали, - вот его канал в телеге:
@GNeuro
и в ВК
https://vk.com/djbloknote

Инструменты:
Suno
Midjourney
Hedra
Kling
HiggsField

Литература теперь любимый предмет :)

Кстати, для сравнения, был еще такой вариант Пушкина ранее на канале

#стихи #Пушкин #нейрорендер
———
@tsingular
🔥96👍19115🤣3❤‍🔥1