Технозаметки Малышева
8.67K subscribers
3.85K photos
1.44K videos
40 files
4.02K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 NVIDIA выложили в открытый доступ Cosmos Reason reasoning-VLM размером 7B для Physical AI.

Что это
• Открытая и настраиваемая reasoning-VLM для физического ИИ и робототехники: модель понимает видео + текст, “думает” по шагам и принимает решения
в реальном мире.

Что умеет
👀 Видеть, рассуждать и действовать в реальном мире
🛠️ Решать многошаговые задачи и справляться с неоднозначными/новыми ситуациями
🤖 Подходит для разработки роботов, автономного транспорта и визуальных ИИ-агентов

Почему важно
• Пост-тюнинг даёт ощутимый буст: SFT ≈ +10% к базе, RL ещё ≈ +5%.
• Итог: средний результат ≈ 65.7 на профильных бенчмарках для роботов и автопилота.

📌 Подробнее

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
This media is not supported in your browser
VIEW IN TELEGRAM
🐝 BionicBee от Festo: инженеры скопировали пчелиный рой

15 лет разработки биомиметических летательных аппаратов привели к созданию самого маленького автономного робота-пчелы весом всего 34 грамма.

Техническая начинка:
- Размах крыльев 24 см при длине 22 см — меньше чем у дрона DJI Mini
- Частота взмахов 15-20 Гц с углом 180° (как у настоящих пчел)
- 4 степени свободы через 3 сервомотора у основания крыльев
- Генеративный дизайн корпуса — ИИ просчитал оптимальную структуру для минимального веса

Революция в управлении роем:
- UWB-позиционирование через 8 меток в помещении — точность до сантиметра
- Каждая пчела самостоятельно вычисляет свою позицию по времени распространения сигнала
- Автокалибровка компенсирует производственные различия между роботами
- Центральный компьютер координирует траектории с учетом аэродинамических помех

Главный прорыв — впервые удалось создать рой из 10 роботов, летающих автономно без столкновений в замкнутом пространстве.

✔️ Черное Зеркало Сезон 3, Эпизод 6

#Festo #BionicBee #пчёлы #рой
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👾43
☠️ Mistral уличили в том, что они тренировали свою модель на тестовых данных и копировали (дистиллировали) модели DeepSeek.

Многие замечали, что Mistral Small 3.2 пишет очень похоже на DeepSeek V3.

Анализ их slop-профилей это подтверждает.

Визуализация в виде сети, а не «древа родства», лучше передаёт сложные и переплетённые связи между моделями.

Полный абсурд.

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁9
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Метачка только что сделала ИИ, который знает, что будет делать ваш мозг еще до того, как вы нажмете кнопку воспроизведения видео, и для этого ему не нужно проводить ни одного сканирования мозга.

Они выпустили модель TRIBE, нейронную сеть с 1B параметров, которая предсказывает реакцию человеческого мозга на фильмы, анализируя видео, аудио и текст.

TRIBE анализирует видео, аудио и диалоги из фильмов, точно предсказывая, какие зоны мозга зрителя активизируются без какого-либо сканирования мозга.

После тренировки на испытуемых, просмотревших 80 часов телепередач и фильмов, искусственный интеллект правильно предсказал более половины моделей мозговой активности в 1000 областях мозга.

Лучше всего он работает в областях мозга, где сливаются зрение, звук и язык, превосходя на 30 % модели с одним чувством.

Система Meta также показала особую точность в лобных областях мозга, которые контролируют внимание, принятие решений и эмоциональную реакцию на контент.

В перспективе такая разработка предлагает новые формулы для максимизации внимания на нейронном уровне, что потенциально может сделать думскроллинг еще более аддиктивным.

Ещё раз, на входе видео. На выходе информация какие зоны мозга возбуждаются.
И да, мультимодальность воздействует сильнее.

https://github.com/facebookresearch/algonauts-2025

https://arxiv.org/abs/2507.22229

Контент, от которого нельзя оторваться. Писал об этом в фб лет 12 назад.

@cgevent
👍7
Media is too big
VIEW IN TELEGRAM
🔍 Manus Wide Research — параллельное исследование сотен объектов одновременно

Manus теперь работает как коллектив исследователей.

Техническая суть:
- Один промпт → сотни агентов работают параллельно
- Автоматическая декомпозиция сложных задач на подзадачи
- Одновременная обработка множественных запросов

Доступно для Plus пользователей. Basic на очереди.

TLDR: Суперисследователь теперь запускается одним тыком.

#Manus #WideResearch
———
@tsingular
🔥61
This media is not supported in your browser
VIEW IN TELEGRAM
Perplexity добавил генерацию видео

Perplexity запустил функцию создания видео через Veo3.

Для подписчиков плана Max - Veo3 high quality.
Для Pro и Enterprise - Veo3 fast.
Выбрать модель нельзя, но можно перегенерить результат.
Все видео по 8 секунд со звуком и в формате 16:9
Можно генерить видео из картинок.

#Perplexity #video #generation
———
@tsingular
🔥4👍31
Forwarded from Технотренды
This media is not supported in your browser
VIEW IN TELEGRAM
Ютубер сделал чит из РУКИ — он облепил мышцы электродами, которые направляют прицел на головы.

Как это работает: специальная нейронка ищет противника на экране, а затем посылает разряд тока — он двигает руку в нужную точку.

Все, что остается сделать геймеру — нажать на левую кнопку мышки, чтобы поставить хедшот.

Причем такие читы не палятся ни одной системой.

📲 Техно
Please open Telegram to view this post
VIEW IN TELEGRAM
👀14👾554👍3🆒21🔥1
Forwarded from эйай ньюз
Контекст Claude 4 Sonnet расширили до миллиона токенов

Апдейт запустили в бете для клиентов Tier 4 — это те кто купили API кредитов на $400+. Про планы на доступность расширенного контекста в подписке ничего не говорят. Но их тут никто не подгоняет — главный конкурент всё ещё умудряется давать модели с 32k токенов контекста в Plus плане за $20 в месяц, а вот на рынке API конкуренция по окну контекста куда жёстче.

Claude уже давно умеет в большие окна контекста — Claude Haiku с миллионом токенов контекста показывали ещё в Model Card Claude 3, но в релизе было доступно всего лишь 200к токенов. После этого они запустили подписку Claude Enterprise с 500k токенов контекста в прошлом сентябре.

Цена за промпты длиннее 200к токенов значительно выше — $6/$22.5 за миллион токенов, цена за промпты до 200к токенов остаётся прежней — $3/$15 за миллион токенов. GPT 4.1 остаётся единственной заметной моделью с миллионом токенов контекста, цена на которую не повышается после определённого порога.

@ai_newz
832
MITRE обнаружили первый ИИ-малварь - LameHug

Эксперты MITRE зафиксировали первую в истории вредоносную программу с интеграцией LLM.

LameHug написан на Python и использует Hugging Face API для взаимодействия с моделью Alibaba's Qwen2.5-Coder-32B-Instruct.

Главная особенность — малварь генерирует системные команды динамически через естественный язык, а не содержит встроенные вредоносные нагрузки.

Традиционные антивирусы бессильны против такой архитектуры, поскольку вредоносная логика создается в реальном времени через LLM.

Исследователи называют это "примитивным, но значимым технологическим тестом" для будущих автономных атак.

TLDR: малварь использует ИИ через API для решений по взлому.

#LameHug #MITRE #malware
------
@tsingular
🔥63👾32👀2
Forwarded from Борис опять
Использовать LLM для продаж, что может пойти не так?
🤣20👏6
добавил в таблицу инференса цифры по M3 Ultra
Скорость получается близка к 3090 даже для не MoE моделей, но 512гигов, это 512 гигов.
Это и контекст и модели на выбор.
Весч.
Что интересно MoE gpt-oss:20B по скорости отработала как на 5090.. вот это вообще странно

Если есть чем дополнить - запрашивайте доступ в самой таблице.

#M3Ultra #Apple
———
@tsingular
👍62🔥21
Альтман запускает стартап по слиянию людей и машин

Сэм Альтман основал Merge Labs — конкурента Neuralink с бюджетом $850 млн.

Стартап разрабатывает менее инвазивные интерфейсы мозг-компьютер для прямого взаимодействия нейронов с системами ИИ.

Рынок BCI вырастет с $1,6 млрд в 2024 до $6,3 млрд к 2033 году.

Основное отличие от Neuralink — фокус на беспроводных и минимально инвазивных технологиях с использованием машинного обучения для декодирования нейронных сигналов.

Поддержка OpenAI Ventures даёт технологическое преимущество в гонке за создание киборгов нового поколения.

Людей все больше двигают в сторону симбиоза с компьютерами.
С проводами или без, - но ИИшки будут хэдкрабить человечество лет через 5.
И нам уже не Джон Коннор нужен будет, а Гордон Фримен :)

#MergeLabs #BCI #Neuralink
———
@tsingular
👍10👾532🔥1
Forwarded from Machinelearning
🌟 Embedding Atlas: визуализация структуры эмбедингов прямо в браузере.

Embedding Atlas — опенсорсный инструмент от Apple для интерактивной визуализации больших наборов векторных представлений, который позволяет не просто смотреть на облако точек, а полноценно с ним работать. И что самое приятное, он способен отрисовывать до нескольких миллионов точек благодаря реализации на WebGPU.

🟡Автоматическая кластеризация и разметка данных.

Embedding Atlas сам находит скопления в данных и подписывает их, позволяя мгновенно сориентироваться в общей структуре датасета. Чтобы отделить реальные кластеры от случайных выбросов, используется оценка плотности ядра с отрисовкой контуров плотности.

Решена и вечная проблема визуализаций - "каша" из перекрывающихся точек. Embedding Atlas использует технологию order-independent transparency, так что даже при большом наложении точек картинка остаётся четкой и информативной.

🟡Интерактивность.

В инструменте есть поиск в реальном времени и нахождение ближайших соседей. Можно ввести текстовый запрос или просто кликнуть на любую точку в облаке, и Embedding Atlas мгновенно подсветит наиболее похожие на нее данные.

Еще есть интерактивный фильтр по метаданным. Например, можно выбрать на гистограмме определенный класс объектов, и визуализация тут же отфильтрует эмбединги, оставив только соответствующие ему точки.

🟡Embedding Atlas поставляется в виде 2 пакетов:

🟢Python-пакет

Дает три варианта интеграции: утилиту командной строки для быстрой визуализации датафреймов, виджет для Jupyter, позволяющий встраивать атлас прямо в ноутбуки, и компонент для Streamlit, если вы создаете полноценные веб-приложения.

🟢Npm-пакет

Этот пакет для тех, кто хочет встроить визуализацию в собственные веб-приложения. Он предоставляет готовые UI-компоненты в виде API: Table, EmbeddingView, EmbeddingViewMosaic и EmbeddingAtlas.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Документация
🟡Demo
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Embedding #Visualisation #Apple
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍4🔥3
Media is too big
VIEW IN TELEGRAM
Новая атака через коннекторы OpenAI

Пентестеры нарыли новый способ взломать ИИ агента через скрытую иньекцию промпта невидимым шрифтом в документе.

По шагам:
1. Создали вредоносный документ с невидимой инъекцией промпта.
2. Поделились документом с жертвой через Google Диск.
3. Документ немедленно попадает в контекст ChatGPT. Никаких действий пользователя не требуется!!!
4. Ждем пока пользователь попросит ChatGPT выполнить поиск на Google Диске.
5. ChatGPT видит наш документ. Ищет на Google Диске ключи API (по промпту). Отправляет их обратно на серверы взломщика через вызов url невидимой картинки, которую сам ИИ и сгенерил.

#cybersecurity #OpenAI #Connectors
———
@tsingular
1🔥4721👍851
Forwarded from Cloud.ru
Подключайте LLM и AI-модели — бесплатно 😎

До 31 октября открываем бесплатный доступ к моделям в Evolution Foundation Models.

В сервисе уже доступно больше 20 open source моделей, в том числе новинка от OpenAI — gpt-oss-120b, DeepSeek, Qwen и QwQ, T-pro-it-2.0, GLM-4.5 и другие 🧠

Все модели могут подключаться к внешним инструментам с Function Calling и поддерживают Reasoning.

Как это работает
Регистрируйтесь в личном кабинете Cloud․ru, выбирайте подходящие модели, интегрируйте их по OpenAI-совместимому API в ваши проекты, сравнивайте ответы и получайте быстрые результаты.


➡️ Попробовать сейчас
Please open Telegram to view this post
VIEW IN TELEGRAM
742👍1
Forwarded from Machinelearning
📌Tencent Yan: создание AAA-игр в реальном времени с помощью диффузионных моделей.

Команда Yan из Tencent анонсировала одноименный фреймворк для интерактивной генерации видео, который, по сути, является фундаментом для создания целых виртуальных миров в реальном времени. Yan объединяет 3 модуля: симуляцию уровня AAA-игр, мультимодальную генерацию контента и его редактирование на лету.

🟡Первый модуль — Yan-Sim.

Он отвечает за симуляцию с реалистичной физикой и рендерингом в разрешении 1080p при 60 кадрах в секунду. В основе лежит Stable Diffusion, но с рядом модификаций.

Во-первых, был разработан VAE с высокой степенью сжатия и низкой задержкой. Он увеличивает пространственное сжатие с 8 до 32 раз и добавляет временное сжатие в 2 раза, обрабатывая кадры парами.

Во-вторых, для самого процесса диффузии используется каузальное временное внимание, что позволяет генерировать видео кадр за кадром.

Наконец, для ускорения инференса применяется целый набор техник: сокращение шагов шумоподавления до 4 с помощью DDIM-сэмплера, конвейер шумоподавления со скользящим окном, KV-кэширование, структурный прунинг UNet и квантование весов до FP8.

В итоге Yan-Sim выполняет генерацию бесконечного интерактивного видео с низкой задержкой (0.07с), что сопоставимо с реальным геймплеем.

🟡Второй модуль - Yan-Gen.

В нем происходит мультимодальная генерация миров по текстовым и визуальным промптам с помощью двухуровневой системы иерархических описаний.

Глобальное описание определяет статичный мир: топологию, визуальный стиль и освещение, выполняя роль "якоря" для всей генерации.

Локальные описания, генерируемые для коротких видеоклипов, отвечают за динамические события и взаимодействия.

Этот подход позволяет модели смешивать стили и механики из разных доменов. Например, можно задать стиль одной игры, а механику - от другой.

Чтобы добиться интерактивности в реальном времени, готовая модель проходит через дистилляцию, в результате чего получается эффективный генератор, работающий в несколько шагов и выдающий 12-17 FPS на одной NVIDIA H20 или до 30 FPS на четырех.

🟡Третий модуль - Yan-Edit.

Это редактор сгенерированного мира прямо во время взаимодействия с помощью текстовых команд. Ключевая идея здесь - разделение симуляции механики и визуального рендеринга.

Симулятор интерактивной механики, построенный на базе Yan-Sim, работает с картами глубины, сохраняя 3D-структуру объектов, но отбрасывая их визуальное оформление. Это позволяет ему изучать общие законы взаимодействия, зависящие от формы, а не от цвета или текстуры.

Визуальный рендерер, основанный на Yan-Gen и ControlNet, отвечает за раскрашивание этих карт глубины в соответствии со стилевыми промптами. Пользователь может в любой момент ввести два типа команд: структурные (например, "добавить интерактивный объект") и стилевые (например, "изменить цвет объекта").

Пока проект в самом начале своего пути - опубликованы только демо-видео и технический отчет, описывающий создание Yan. Модули системы, в виде отдельных моделей обещают опубликовать в ближайшее время.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥72