Технозаметки Малышева
5.55K subscribers
2.79K photos
928 videos
38 files
3.07K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Исследование трендов развития ИИ

Исследование отражает обработку предсказаний 2778 экспертов AI по поводу будущего развития технологий.
Прогнозируется развитие автономной разработки сложных и творческих систем в следующее десятилетие.
Исходя из опроса, поднимается проблематика взрывного роста интеллекта и необходимость исследований в области безопасности AI.

Прогнозы дают как минимум 50% вероятность, что системы искусственного интеллекта к 2028 году будут способны:
с нуля автономно создать сайта платёжной системы, написать песню, неотличимую от новой песни популярного музыканта, а также самостоятельно обучить и дообучить большую языковую модель.
Машины без посторонней помощи превзойдут людей во всех возможных задачах, с вероятностью в 10% к 2027 году и в 50% к 2047 году.
Вероятность того, что все человеческие профессии станут полностью автоматизированными, оценивается в 10% к 2037 году и 50% уже к 2116 году.

#Research #forecast
Forwarded from Kali Novskaya (Tatiana Shavrina)
Media is too big
VIEW IN TELEGRAM
OpenAI только что выпустили SORA— text2video модель

Генерация видео по текстовому описанию наступила!

Сегодня обещают статью

Промпт: A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.

🟣https://openai.com/sora#research
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1
ИИ-ученые - самые умные по мнению ИИ учёных.

2 интересные статьи про ИИ агентов в роли учёных.

1. В Стэнфорде провели эксперимент с участием 100+ экспертов, сравнивая идеи, сгенерированные ИИ, с идеями живых людей.
Система имитирует весь процесс: от генерации концепций до написания статей.
Результат: ИИ генерирует идеи, которые эксперты оценивают как более новаторские (p меньше 0.05), но менее реализуемы.
https://arxiv.org/pdf/2408.06292
Github: github.com/SakanaAI/AI-Scientist
Sakana.ai: sakana.ai/ai-scientist/

2. Разработан сложный ИИ-агент для генерации идей:
- Использует RAG для обогащения контекста
- Генерирует множество идей и ранжирует их
- Применяет специальные промпты на каждом этапе

https://arxiv.org/pdf/2409.04109

Основной признак сингулярности - мы не успеем осознать и освоить все изобретения, а теперь и сама скорость изобретений повысится благодаря рою таких агентов-учёных.

#Research #Singularity #AIScientist #Sakana
-------
@tsingular
2
This media is not supported in your browser
VIEW IN TELEGRAM
You.com запускает ARR - исследователя

Advanced Research & Reasoning преобразует отдельные поисковые запросы в полноценные исследовательские процессы.
(один в один, как у меня в ботах год назад было сделано :) )

Система анализирует до 200 источников на каждый запрос, демонстрируя ход размышлений в реальном времени.

Пользователи получают возможность проверять первоисточники и отслеживать весь путь исследования пошагово.

Надо сказать очень детально и развёрнуто получается.
Объём генерации тянет на документ, а не просто на короткий ответ.

p.s. Работает бесплатно и без VPN (3 таких запроса в день)

#You #research
———
@tsingular
🔥53
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 Новая фича Deep Research от OpenAI

OpenAI представила новую функцию Deep Research для ChatGPT - возможность глубокого исследования темы с анализом множества источников.

Возможности:
- Глубокий веб-поиск с анализом источников
- Работа с загруженными файлами
- Создание подробных аналитических отчётов
- Пошаговое объяснение своих выводов
- Поддержка разных форматов вывода (таблицы, списки, текст)

Ограничения:
- Только для Pro-подписчиков
- Лимит 100 запросов в месяц (из-за высокой вычислительной нагрузки)
- Пока нет доступа для UK и ЕЭС
- Может занимать много времени на обработку ( ~30 минут)

Технические особенности:
- Использует улучшенную версию модели OpenAI o3
- Требует огромных вычислительных ресурсов
- Умеет верифицировать источники
- Может создавать артефакты (графики, код, SVG)

Планы развития:
- Скоро выйдет облегчённая версия
- Добавят поддержку специализированных источников данных (корпоративных в т.ч.)
- Планируют интеграцию с подпиской Plus и Team
- Обещают релиз на мобильных устройствах

Звучит круто, но... знакомо :)
DeepSeek уже месяц как запустил аналогичную функциональность через связку DeepThink + WebSearch. И работает, надо сказать, весьма неплохо!

Но самое интересное - подобные решения уже давно существуют на уровне энтузиастов и небольших проектов. Например, уже больше года такой функционал доступен у меня в ботах. А пол года назад я даже накидал локального "Исследователя" для личных целей, который за ночь может сгенерировать 120-страничный отчет с анализом 5000+ источников. И все это на обычном домашнем GPU!

Т.е. OpenAI, имея миллиардные инвестиции, выпускает функционал, который по сути можно было реализовать на уровне студенческого проекта.

При этом их решение требует космических вычислительных ресурсов - настолько, что даже Pro-пользователям дают только 100 запросов в месяц.

В общем, складывается впечатление, что OpenAI просто "догоняет" существующие решения, но с большим шумом и пафосом. А ведь от компании с такими ресурсами хотелось бы видеть что-то действительно инновационное!

Метрики выглядят интересно, пожалуй.
Humanity Last Exam 26.6%

#OpenAI #AI #DeepResearch #Research
———
@tsingular
👍8❤‍🔥61
В Langflow 1.1.4 появился ШАБЛОН Deep Researcher!

Просто, то, что вчера вышло за $250, как прогрессивная разработка,- сегодня бесплатный шаблон в nocode.

Т.е. он сам, декомпозирует задачу, пишет план, вызывает агента с поиском на выполнение этого плана и подводит итог.
Упрощённо, конечно, но это все-таки шаблон.
Все компоненты заменяемы.
любой поиск или локальные модели подключаются за пару минут.

Это просто праздник какой-то. :)

#langflow #nocode #research
———
@tsingular
4🔥3👌3
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 GPT Researcher: Автономный агент исследователь

Что умеет:
Проводит комплексное исследование по любой теме, используя множество веб-источников
Генерирует отчёты объёмом более 2000 слов с цитированием источников

Работает как с веб-контентом, так и с локальными документами (PDF, Excel, Word и др.)

Умеет извлекать и фильтровать изображения для отчётов

🤖 Архитектура: система использует два типа агентов - планировщик и исполнители. Планировщик формулирует исследовательские вопросы, а исполнители параллельно собирают информацию.
Потом специальный "издатель" собирает всё в единый отчёт.

- Сокращает время на исследование рынка с недель до часов
- Снижает риск предвзятости благодаря агрегации более 20 источников
- Может работать с корпоративными документами
- Есть API для интеграции в существующие системы

🛠 Технически проект открытый, можно развернуть локально или через Docker.

Есть даже pip-пакет для простой интеграции.

Работает на Python 3.11+, использует FastAPI для бэкенда и предлагает два варианта фронтенда - легкий на чистом HTML/CSS/JS и продакшн-версию на NextJS + Tailwind.

Сайт проекта
GitHub : 18K звёзд, 120 авторов уже.

Отменяем подписку на o3, DeepResearch теперь есть у нас дома. :)

#Research #агенты #GPTResearcher
———
@tsingular
👍9
Слушайте, по поводу Deep-Research (помните такая новая фишка, которая в прошлом месяце подавалась как прорыв, победа и т.д.), оно уже настолько перешло в разряд обыденности, что, кажется, становится тестовым выпускным заданием на базовых курсах по ИИ.

Дорогие дети, достаём карандаши, сегодня мы пишем агента-исследователя. Нет, пока без ИИ, просто в тетрадях в клеточку достаточно будет.
В конце урока за 15 минут наберёте в консоли.


Дэвид Чжан (dzhng) выложил в open source deep-research — минималистичный AI-агент для глубокого исследования любой темы.
Уже собрал 11.6k звёзд на GitHub!

Работает как настоящий исследователь:
- генерирует поисковые запросы,
- анализирует результаты и углубляется в тему на основе находок
Использует комбо из поисковиков, веб-скрапинга и LLM (по умолчанию o3-mini)

Вся логика уместилась в 500 строк кода!

Можно настраивать "ширину" (3-10 направлений) и "глубину" (1-5 уровней) исследования

Умеет задавать уточняющие вопросы, чтобы лучше понять задачу

Код открыт под MIT лицензией, можно использовать и модифицировать как угодно!

#Research #Agent
———
@tsingular
👍14
This media is not supported in your browser
VIEW IN TELEGRAM
🔬 Google представила ассистента ученого: мультиагентная система на базе Gemini 2.0

В основе - 6 специализированных агентов:

Generation - генерирует гипотезы
Reflection - анализирует
Ranking - ранжирует
Evolution - улучшает
Proximity - проверяет близость к существующим исследованиям
Meta-review - итоговая общая проверка научным методом

Главная фишка - масштабирование вычислений во время работы (test-time compute scaling). То есть, чем больше система думает над проблемой, тем лучше становятся результаты.
(Вспоминаем вчерашний пост - тупо 15 минут вычислений в цикле на DeepSeek :) )

Используют для этого:
Научные дебаты между агентами
Турниры для сравнения гипотез
Эволюционный процесс для улучшения качества

Практические примеры, рассмотренные во время запуска:
- Нашли новые применения существующих лекарств для лечения лейкемии
- Предложили новые мишени для лечения фиброза печени
- Объяснили механизмы устойчивости к антибиотикам

Для бизнеса и исследователей: Google открывает доступ через Trusted Tester Program. Если работаете в исследованиях - можно подаваться.

В целом, похоже на серьезный шаг вперед в автоматизации научных исследований. Особенно круто, что система не просто перебирает литературу, а реально генерирует новые гипотезы, которые подтверждаются в лабораторных условиях 🧪

Интересно будет посмотреть, как это повлияет на скорость научных открытий в мирных целях 😎

#Science #Research #Google
———
@tsingular
🔥9👍51
🧬 Evo 2: Крупнейшая AI-модель для работы с геномами

И следом интереснейший анонс от NVidia: Arc Institute и Stanford выпустили Evo 2 - самую большую публично доступную модель для работы с геномными данными.

1. Технический масштаб:
- Обучающий датасет: 8.85 триллионов нуклеотидов
- 15,032 эукариотических и 113,379 прокариотических геномов
- До 40B параметров
- Контекстное окно до 1 миллиона токенов (в 8 раз больше предшественника!)

2. Архитектура:
- Новый StripedHyena 2 (гибридная архитектура)
- Вместо привычных трансформеров использует комбинацию свёрточных фильтров и гейтов
- Обучается значительно быстрее традиционных моделей
- Тренировали на 2,048 NVIDIA H100 через DGX Cloud на AWS

3. Мультимодальность:
- Работает одновременно с ДНК, РНК и белками
- Охватывает все домены жизни (прокариоты, эукариоты, археи)
- Zero-shot перенос между видами

Практическое применение 💼:
1. Для исследователей:
- Доступна через NVIDIA BioNeMo как микросервис
- Можно файнтюнить под свои задачи
- Есть API для генерации биологических последовательностей

2. Для бизнеса:
- Дизайн и репозиционирование лекарств
- Предсказание влияния мутаций (точность 90% на BRCA1!)
- Разработка устойчивых к климату сельхозкультур

Самое весёлое будет подключить Evo2 как инструмент к исследователю от Google!

Это ж они так и единорогов переизобретут. :)

Кстати, безопасность не забыли - намеренно исключили из датасета вирусы эукариот.

#BioTech #Genomics #Research
———
@tsingular
🔥7
This media is not supported in your browser
VIEW IN TELEGRAM
STORM: Агент для исследований от Stanford

Наткнулся на очень крутой open-source проект из Стэнфорда - STORM (Synthesis of Topic Outlines through Retrieval and Multi-perspective Question Asking).

Наконец-то нормальная opensource реализация.

Суть в том, что STORM не просто гуглит информацию, а проводит настоящее исследование темы - задаёт умные вопросы, собирает информацию из разных источников и генерирует структурированные статьи с цитатами.

Технические особенности:
- Работает через два модуля: сначала исследует тему и составляет план, потом пишет полноценную статью
- Использует "перспективные вопросы" - смотрит на тему с разных углов, чтобы не пропустить важные аспекты
- Симулирует диалог между экспертом и писателем для глубокого понимания темы
- Интегрируется с разными LLM - можно использовать GPT-3.5 для более простых задач и GPT-4o для генерации итогового контента (экономия на токенах)
- Поддерживает несколько поисковых движков: YouRM, BingSearch, VectorRM и даже собственные документы

Недавние обновления:
- Интеграция с litellm для подключения любых языковых моделей 🔥
- Co-STORM - режим для совместной работы человека и ИИ над исследованиями
- Добавили VectorRM для работы с собственными документами

Установка через pip install knowledge-storm, но можно и напрямую с GitHub форкнуть. Уже набрал 22.2k звёзд!

Попробовать можно тут:
https://storm.genie.stanford.edu/

Лабораторный исследовательский проект. Работает только на английском, но поскольку это Open source - никто не мешает доработать напильником под свой язык, свои модели, свои поисковики.

#research #Stanford
———
@tsingular
🔥12👍72
Исследование METR: Время решения задач AI-моделями удваивается каждые 7 месяцев

Исследователи из Model Evaluation & Threat Research (METR) выпустили 19 марта интересную работу, показывающую, что временной горизонт задач, которые могут решать AI-агенты, растёт экспоненциально.

Что измеряли и как
Команда из 24 исследователей разработала метрику "50% time horizon" — это продолжительность задач (в человеко-часах), которые AI может решить с 50% вероятностью успеха. Простыми словами: "Насколько долгую человеческую работу может заменить AI?"

Они провели 800+ базовых измерений с реальными людьми-экспертами для калибровки сложности 170 задач (от простых как "какой файл содержит пароль?" до сложных вроде "оптимизируй CUDA-ядро для бэктестинга") и протестировали на них 13 моделей от GPT-2 (2019) до Claude 3.7 Sonnet (2025).

Основные результаты
1. Claude 3.7 Sonnet сейчас может решать задачи, занимающие у опытного человека около 59 минут.
2. Скорость роста: временной горизонт стабильно удваивается каждые ~7 месяцев последние 6 лет.
3. Разница между 50% и 80% надёжностью: Для Claude 3.7 Sonnet горизонт падает с 59 минут до 15 минут при требовании более высокой надёжности.
4. Основные улучшения моделей: более надёжное выполнение, адаптация к ошибкам, улучшенное логическое мышление и использование инструментов.

Прогнозы на будущее
Если тренд сохранится, то к концу 2029 года мы получим модели, способные самостоятельно выполнять месячные проекты. Это потенциально может автоматизировать значительную часть работы программистов и исследователей.

Практические соображения
1. Стоимость: Успешный запуск AI-агента стоит <10% от зарплаты человека-эксперта для той же задачи — экономически очень выгодно.
2. Контекст важен: Разработчики репозитория решают те же задачи в 5-18 раз быстрее контрактников (наёмные аутсорсеры) без контекста. AI пока ближе к контрактникам по эффективности.
3. "Грязные" задачи: AI хуже справляется с неструктурированными задачами, где нет чёткой обратной связи или требуется проактивный поиск информации.

Интересное сравнение в плане выбора - кого нанять - субподрядчика контрактника человека или ИИ.
И те и те должны "въезжать" в чужеродную для них задачу без контекста.
И умнее "контрактники" не становятся, а вот ИИ умнеет быстрее закона Мура. х2 каждые 7 месяцев

Исследование

#metr #research #futurology
———
@tsingular
🔥74
​​🔥🔥🔥 Отчет по рынку AI на 456 страниц от Stanford!

Да, огромный отчет, просто качайте его из сообщения ниже и читайте.

Никаких саммари привести просто невозможно, там 8 глав про technical performance, R&D, responsible AI, economy, science, policy, education and public opinion. Читайте интересные вам.

На что хочется обратить ваше внимание?

1/ 44.48% научных публикаций по AI в 2024 году было сделано исследователями из Азии (это отдельно East Asia и South Asia) и только 10.31% из Северной Америки. 🇨🇳 Китай против 🇺🇸 США в основном. 🇪🇺 Европа, кстати, выше США с 18.15%.

2/ Из всех публикаций только ~5.4% касаются Generative AI. В лидерах Machine Learning с ~75.7%.

3/ По количеству патентов на душу населения 🇺🇸 США и 🇨🇳 Китай идут очень близко и с 5.20 патентов и 6.08 занимают 4 и 3 место, соответственно. На первом месте 🇰🇷 Южная Корея с 17.27, далее 🇱🇺 Люксембург с 15.31.

4/ Однако по количеству заметных AI моделей 🇺🇸 США сильно впереди 🇨🇳 Китая – 40 против 15. Забавно, что моделей все же не так много, потому что на 3-м месте и далее страны с 1-й моделью (у 🇮🇱 Израиля, например, столько же, сколько у 🇸🇦 Саудовской Аравии).

5/ На Github 4.32М опенсорсных AI проектов.

6/ AI Agents пока еще не очень точные – самая топовая модель GPT-4o имеет success rate всего 36.2%.

7/ Всего в 2024 году зафиксировано 233 крупных инцидента с AI (типа как когда система определения лица определило неверного человека и его арестовали, или автономное авто совершило аварию).

8/ От 1.25% всех вакансий в 🇳🇱 Нидерландах до 3.27% всех вакансий в 🇸🇬 Сингапуре требуют AI skills.

9/ Где больше всего талантов в области AI?
Топ 3:
🇮🇱 Израиль 1.98%
🇸🇬 Сингапур: 1.64%
🇱🇺 Люксембург: 1.44%

Топ-3 страны по миграции AI талантов на 10,000 Linkedin members:
🇱🇺 Люксембург: 8.92%
🇨🇾 Кипр: 4.67%
🇦🇪 ОАЭ: 4.13%

10/ Всего в 2024 году появилось более 2,000 AI компаний, которые еще и привлекли венчурное финансирование.

Это только капля в море. Читайте отчет, данных куча.

@proVenture

#ai #research
👍6🔥32
Anthropic показали как создать мульти-агентную исследовательскую систему

Команда Anthropic опубликовала подробный разбор создания системы Research для Claude — мульти-агентной архитектуры для сложных исследовательских задач.

Система работает по принципу оркестратор-воркер: главный агент планирует стратегию и создает субагентов для параллельного поиска.

Результат — 90% прироста производительности по сравнению с одиночным агентом.

Основные рекомендации:
- мысли как агент - оптимизация промпта требует точного понимания как именно он работает
- учите оркестратор правильному делегированию задач.
- усилия на решение задачи должны соответствовать ее сложности
- организация инструментов важна и даже местами критична. Множество функций MCP серверов могут запутать агента, как и плохое описание тулов
- позвольте агентам улучшать себя, - например переписывать промпты.
- начинайте с общего и переходите к частному. Пусть агент сначала опишет задачу в целом и потом переходите к деталям
- управляйте процессом размышления. Режим размышления позволяет точнее планировать и раскрывает причины недоработок агента, которые можно исправить в следующих вызовах
- параллельные вызовы инструментов экономят время и повышают эффективность

Помните: мульти-агенты тратят в среднем в 15 раз больше токенов, поэтому использовать их нужно с умом.

Так же поделились промптами в Cookbook и детально описали проблемы деплоя в продакшн.

#MultiAgent #Claude #Anthropic #Research
———
@tsingular
632