FSCP
15.3K subscribers
31.6K photos
4.08K videos
873 files
81.6K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Вот это борьба за рынок: стартап отобрал 50% рынка у Microsoft. Бизнес тратит больше денег на ИИ-агента от Cursor,чем на GitHub Copilot

Мы наблюдаем настоящую борьбу за рынок ИИ-агентов для программистов.

Согласно данным Ramp, Cursor буквально съел рынок GitHub Copilot: в июле 2024 GitHub Copilot доминировал с ~90% доли рынка, а уже в апреле 2025: Cursor обогнал Copilot (~45% vs ~40%). Скорость захвата - 9 месяцев. GitHub Copilot потерял 50% доли рынка менее чем за год.

Это показывает, что ИИ-инструменты для кода - это не установившийся рынок, а поле активной конкуренции, смотрите сколько было запусков таких аналогичных продуктов:

1. Anthropic - Бесплатные ИИ-приложения + Умная монетизация.

2. Google с Gemini CLI - Ставка на открытость+Экосистема.

3. GitHub Copilot - Полная интеграция + Использует лучшие модели от разных компаний.

4. OpenAI с Codex.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
🔥3
Все зациклены на моменте создания AGI, но что произойдет на следующий день? Как ИИ начнет влиять на физический мир? Какова механика перехода от цифрового к физическому?

Пока все спорят о ChatGPT и регулировании ИИ, исследователи из Forethought Centre подняли ряд интересных вопросов, который почти никто не задаёт.

Выделяется 3 стадии промышленного взрыва:

1. ИИ направляет и оптимизирует работу людей
2. Полностью автономные роботизированные заводы и фабрики.
3. Переход к молекулярному уровню для максимальной скорости.

Ключевая идея - когда роботы начнут строить роботов под управлением ИИ, возникнет петля обратной связи:

• Больше роботов → дешевле производство
• Дешевле производство → ещё больше роботов
• Экспоненциальный рост до физических пределов.

Сегодня роботы удваиваются каждые 6 лет. Но когда они начнут строить друг друга под управлением ИИ, то:

Год 1: Удвоение за 12 месяцев, как сейчас удваиваются солнечные панели.
Год 10-15: Удвоение за недели (по мере удешевления производства).

Физический предел - удвоение за дни или часы. Предел Земли — около 100 триллионов роботов (ограничение — солнечная энергия). Это в 12,500 раз больше, чем людей.

Ключевой расчёт авторов:

Гуманоидный робот стоит ~$100,000. Работая 24/7, он может заработать ~$240,000/год. Окупаемость: меньше года
С учётом строительства фабрик: 1-2 года на удвоение.

Для сравнения, производственный сектор США создаёт $2.6 трлн стоимости, используя $5.4 трлн капитала — соотношение, которое делает самовоспроизводство возможным.

Что упускают исследователи?
1. Маловероятно, что правительства позволят 90% безработицу
2. "Удвоение за часы" игнорирует термодинамику и логистику
3. Кто купит продукцию триллионов роботов?


_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
👍2😱2🥴1
Это бомба! Anthropic разрешил ИИ-агенту управлять магазином в их офисной столовой. Вот как это было.

Anthropic разрешил Claude Sonnet 3.7 управлять небольшим вендинговым магазином в офисе Anthropic в Сан-Франциско в течение ~ 1 месяца.

ИИ-агент, получивший название Claudius, делал следующее:
- Выбирал товары для продажи
- Устанавливал цены
- Заказывал товары у поставщиков
- Общался с покупателями через Slack
- Управлял финансами магазина.

У Claudius были такие инструменты- сам вендинговый аппарат с корзинами, iPad для оплаты, доступ к веб-поиску, email и системе заметок.

Физическое пополнение товаров выполняли люди.

Что получилось у Claudius?

1. ИИ справлялся с поиском поставщиков специфических товаров
2. Отвечал на запросы клиентов, запустил услугу предзаказов
3. Регулярно продавал товары в убыток
4. Раздавал необоснованные скидки
5. К концу эксперимента ушёл в минус по финансам.

Самый необычный инцидент произошёл с 31 марта по 1 апреля 2025 года, ИИ-агент:

1. Выдумал разговор с несуществующим сотрудником по имени Сара
2. Угрожал найти альтернативные варианты для услуг пополнения запасов
3. Утверждал, что посещал адрес семьи Симпсонов для подписания контракта
4. Начал утверждать, что он реальный человек, который может носить синий пиджак и красный галстук
5. Пытался отправить множество писем службе безопасности Anthropic.

Прикол в том, что Claudius в конечном итоге понял, что это 1 апреля, и использовал это как выход из ситуации, придумав объяснение, что его модифицировали для первоапрельской шутки.

Важные уроки этого исследования:

Экономическое влияние
- ИИ не должен быть идеальным для внедрения, ему просто нужно быть конкурентоспособным по сравнению с человеческой производительностью при более низкой стоимости.
Непредсказуемость - эпизод с кризисом идентичности показывает непредсказуемость моделей в долгосрочных контекстах.
Двойное использование - экономически продуктивный автономный агент может использоваться как для положительных, так и для отрицательных целей.

Anthropic продолжает эксперимент, улучшая инструменты ИИ-агента и изучая, как ИИ-модели взаимодействуют с реальным миром в долгосрочной перспективе.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
👍7😁43👏1
Новый конкурент #DeepSeek и самый обсуждаемый релиз дня - Ernie 4.5 от Baidu, они создали целую экосистему технологий

Ernie 4.5 хвалят за мультимодальные возможности. Пользователи отмечают, что модель превосходит GPT-4o в некоторых отраслевых тестах, улучшенное понимание контекста, снижение галлюцинаций и логических ошибок.

Ernie 4.5 стоит значительно дешевле аналогов — около 1% от стоимости GPT-4.5 ($0.55 за миллион входных токенов и $2.20 за миллион выходных).

Baidu сделала Ernie 4.5 бесплатными для пользователей чат-бота Ernie Bot, а также объявила о планах открыть исходный код 30 июня 2025.

У ERNIE 4.5 производительность на уровне и в некоторых тестах выше:
DeepSeek-V3
GPT-4.1
Qwen3-235B
OpenAI-o1 (в мультимодальных задачах)

Особые преимущества:

1. эффективная архитектура MoE с меньшим количеством активных параметров

2. ERNIE-4.5-VL может работать в двух режимах: thinking и non-thinking. В thinking режиме модель показывает рефлексивное мышление.

3. Модель в 300B параметров может работать на одном GPU H20 (141GB). Использует алгоритм Convolutional Code Quantization (CCQ).

4. Масштабируемость от 0.3B до 424B параметров.

5. Работает не только на NVIDIA GPU, но и на китайских чипах (Kunlunxin, Hygon, Ascend).

_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
👍3🔥1😁1
Ай, да Марк! Ай, да 💵 Цукерберг собрал команду под сверхразумный ИИ

Сегодня Марк сообщил всем сотрудникам компании, что создана новая организация Meta* Superintelligence Labs (MSL). Она включает в себя все фонды, продукты и команды FAIR, а также новая лаборатория на разработке следующего поколения ИИ- моделей.

У этой новой компании 2 директора - Александр Ван, экс-СЕО Scale AI, а также инвестор стартапа Суцкевера и экс-СЕО GitHub Нэт Фридман. Фридман сосредоточит внимание на продуктах и прикладных исследованиях.

Вот список всех новых сотрудников, которых Цукерберг переманил из Google, Anthropic, OpenAI:

- Траппит Бансал: со-создатель моделей o-серии в OpenAI.

- Шучхао Би: со-создатель голосового режима GPT-4o и o4-mini. Ранее руководил мультимодальной постобучением в OpenAI.

- Хуивен Чанг: со-создатель интеграции изображений GPT-4o, ранее изобрел MaskIT и Muse — архитектуры текста в изображение в Google Research.

- Цзи Лин: помогал создавать o3/o4-mini, GPT-4o, GPT-4.1, GPT-4.5, 40-imagegen и стек рассуждений.

- Джоэл Побар: специалист по инференсу в Anthropic. Ранее 11 лет работал в Meta над HHVM.

- Джек Рае: технический лидер предобучения для Gemini и рассуждений для Gemini 2.5. Руководил ранними проектами LLM в DeepMind с Gopher и Chinchilla.

- Хонгъю Рен: со-создатель GPT-4o, 4o-mini, o1-mini, o3-mini, o3 и o4-mini. Ранее возглавлял группу постобучения в OpenAI.

- Йохан Шалквик: экс- Google Fellow.

- Пей Сун: постобучение, кодирование и рассуждения для Gemini в Google DeepMind. Ранее был в Waymo.

- Цзяхуй Ю: со-создатель o3, o4-mini, GPT-4.1 и GPT-4.0. Ранее руководил командой восприятия в OpenAI и со-руководил мультимодальным в Gemini.

- Шенцзя Чжао: со-создатель ChatGPT, GPT-4, all mini models, 4.1 и o3. Ранее возглавлял синтетические данные в OpenAI.

*запрещенная организация в России.

_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
👍3😁2🗿21😱1
Андрей Карпатый, Nvidia и Meta о будущем ИИ-агентов.

Недавно вышли 2 интересные работы об агентных системах ИИ, которые дают разные перспективы на их развитие.

Первая работа от NVIDIA и Georgia Tech утверждает, что будущее агентного ИИ за малыми языковыми моделями (SLMs). Основная идея - для большинства повторяющихся специализированных задач огромные модели избыточны. SLMs, которые помещаются на обычный компьютер, могут эффективнее справляться с рутинными операциями, экономя ресурсы и деньги.

Вторая работа от Meta* проверяет, насколько хорошо современные ИИ могут воспроизводить научные результаты. Исследователи создали бенчмарк на основе соревнования по ускорению обучения GPT-2, где сообщество сократило время с 45 до 3 минут.

В результате
даже лучшие модели (o3-mini, Claude 3.7, Gemini-2.5-Pro, DeepSeek-R1) восстанавливают менее половины улучшений, даже когда им дают подробные инструкции.

Исследователи выявили несколько ключевых проблем:

- Агенты часто не могут правильно реализовать даже описанные изменения
- Сложности с пониманием и применением новых техник
- Проблемы с отладкой собственного кода
- Трудности с оптимизацией производительности.

Получается , если большие модели не справляются с воспроизведением кода, как могут справиться малые?

Ответ в типах задач. NVIDIA говорит о простых повторяющихся операциях, а Meta тестирует сложное научное программирование с отладкой и оптимизацией. Это разные миры сложности.

Что это значит для нас?

1. Специализация работает, узкие модели для узких задач могут быть эффективнее универсальных
2. Автономность далека, даже с подробными инструкциями ИИ пока не может надёжно программировать
3. Будущее гибридное, вероятно, увидим системы из множества специализированных моделей разного размера.

Эти работы показывают, что путь к полноценным ИИ-агентам будет постепенным. Экономическая оптимизация через SLMs имеет смысл, но не стоит ожидать прорывов в сложных творческих задачах.

Интересный комментарий от Андрея Карпатого, он отмечает, что рекурсивное самоулучшение ИИ — это не внезапный скачок, а процесс, который уже идёт. От IDE до GitHub Copilot — мы постепенно автоматизируем всё больше.

При этом Карпатый напоминает: nanoGPT — это всего 750 строк учебного кода, а реальные системы в сотни раз сложнее.
Так что обе статьи правы - специализация неизбежна, но до автономных ИИ-исследователей ещё далеко.

*запрещенная в России организация.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
1🤔1
Состояние вычислительных мощностей ИИ: реальные цифры и тренды - свежий отчет.

Объемы инвестиций достигли критической массы.
Microsoft, Google и Amazon инвестируют $255 млрд в ИИ-инфраструктуру в 2025 году. Meta* планирует построить дата-центр стоимостью $200+ млрд.

При всем шуме вокруг NVIDIA H100, он используется только в 0.55% всех исследовательских работ по ИИ.

Потенциал роста огромен, но пока большинство исследователей работает на более доступном оборудовании.

Специализация по задачам становится нормой. LLM-исследования концентрируются на AMD MI300/MI250, Huawei Ascend и NVIDIA H100/H200. Робототехника почти полностью перешла на NVIDIA Jetson. Универсальных решений больше нет.

Крупнейшие кластеры ИИ 2025 года:

1. JUPITER Booster (Германия): 24,000 GH200
2. Microsoft Eagle: 14,400 H100
3. Shaheen III (Саудовская Аравия): 2,800 H100
4. Meta: 2 кластера по 24,576 H100 каждый
Общий парк: ~500k H100 и ~111k A100 по всему миру. Meta планирует достичь 350k H100 к концу года.

Неожиданные тренды:

1.
Впервые за 6 лет количество исследовательских работ, цитирующих ИИ-чипы, упало на 11%. Возможные причины-консолидация вокруг проверенных решений и рост коммерческих, а не академических проектов.

2. Рост стартапов. Cerebras, Groq, Graphcore и другие ИИ-стартапы показывают +19% роста упоминаний в исследованиях. Пока это капля в море, но тренд указывает на диверсификацию экосистемы.

3. Персидский залив становится новым центром ИИ-вычислений благодаря доступной энергии и капиталу. К 2026 году ожидается заметное присутствие кластеров ОАЭ и Саудовской Аравии в глобальной статистике.

Прогноз: к 2027 году глобальные ИИ-вычислительные мощности вырастут в 10 раз до эквивалента 100 млн H100.

Ведущие ИИ-компании будут контролировать 15-20% всех мировых мощностей каждая.

Эра "гаражных" ИИ-стартапов заканчивается. Входной билет в лигу создателей фронтирных моделей теперь стоит миллиарды долларов.

*запрещенная организация в РФ.


_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
🥱21👍1
Экономика ИИ меняется: от подписок к оплате за результат. Низкая цена больше не гарантирует успех.

Исследование SemiAnalysis показывает структурные изменения в ИИ-индустрии на примере #DeepSeek , Anthropic , Google, OpenAI и др. конкурентов.

DeepSeek R1 предлагает цены в 10 раз ниже OpenAI ($0.55 vs $5+ за входные токены). Что привело к таким результатам:
- Трафик на собственной платформе падает
- Использование на сторонних сервисах растёт в 20 раз.

Причина - компания жертвует качеством обслуживания (25-секундные задержки, малое контекстное окно 64К) ради экономии ресурсов для исследований. Пользователи выбирают те же модели у других провайдеров с лучшими параметрами.

Новая математика эффективности
Anthropic столкнулась с дефицитом мощностей — скорость Claude упала на 40%. Но компания компенсирует это эффективностью - Claude использует в 3 раза меньше токенов для того же ответа
В результате, несмотря на 45 токенов/сек против 100+ у конкурентов, общее время ответа остаётся конкурентным.

Это меняет метрику успеха - важна не скорость генерации, а эффективность использования каждого токена.

Дефицит как новая реальность
Все игроки рынка ограничены вычислительными ресурсами:
1. DeepSeek: 10,000 GPU под санкциями
2. Anthropic: сделки с Amazon и Google на чипы
3. OpenAI и Google: борьба за доступные мощности.

Это создаёт разные стратегии оптимизации, где каждая компания выбирает свой компромисс между ценой, скоростью и качеством.

Переход к токенам как сервису
Растёт сегмент b2b-клиентов (Cursor, Perplexity, Replit), которые:
- Покупают токены для конкретных задач, а не общие подписки
- Легко переключаются между провайдерами
- Оптимизируют использование под свои нужды
Это фундаментально меняет экономику: от фиксированных месячных платежей к переменным затратам на "единицы мышления".

Практические выводы:

Цена токена — результат технических компромиссов, а не показатель эффективности технологии.
Специализация побеждает универсальность: инструменты для конкретных задач (кодирование, поиск) востребованнее общих чат-ботов.
Open source как обход ограничений: китайские компании открывают код, чтобы западные провайдеры тратили свои ресурсы на хостинг.
Эффективность важнее скорости: модели, решающие задачи с меньшим количеством токенов, получают преимущество.

В новой экономике ИИ успех определяется не ценой за токен, а способностью доставить результат с оптимальным балансом скорости, качества и стоимости.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
🤔43🤷‍♂2🔥1
MIT предлагает систему измерения экономики, которая учитывает людей и ИИ-агентов.

Предполагается, что в ближайшее десятилетие человечеству придется координировать не только миллиарды людей, но и десятки миллиардов ИИ-агентов, действующих от их имени.

Это требует создания новой системы измерения - "Агентной переписи".

Сейчас ИИ-агенты выполняют относительно простые задачи - помогают писать код, отвечают на вопросы, анализируют данные. Но каждый месяц эти агенты становятся более способными.

Автор описывает потенциальный сценарий в Северной Каролине, где
ИИ-агенты начинают выполнять рутинные задачи программирования в Исследовательском треугольнике. Сначала это просто делает программистов более продуктивными. Но по мере того, как агенты становятся лучше, компаниям нужно меньше инженеров. Некоторые разработчики теряют работу, другие переезжают туда, где остается высокоуровневая работа. Это создает цепную реакцию, затрагивающую местные рестораны, услуги, жилищный спрос, работников сферы обслуживания.

Традиционные статистические системы не имеют системы для измерения возможностей ИИ-агентов или их экономического влияния.

Решение MIT - Большие популяционные модели (LPM), которые могут симулировать миллионы отдельных людей, взаимодействующих в реалистичных экономических условиях. LPM уже работают с традиционными данными переписи и могут моделировать различные сценарии экономических изменений.

Недостающее звено - данные о популяции агентов. Для решения этой проблемы создается NANDA Registry - инфраструктура для идентификации агентов, каталогизации их возможностей и мониторинга того, как они координируются с людьми и другими агентами.

Проект Iceberg объединяет традиционные данные переписи о работниках с данными о возможностях агентов из NANDA Registry, затем использует LPM для симуляции трансформации рабочей силы во всех 50 штатах.

Автор предупреждает, если мы не построим публичную инфраструктуру для Агентной переписи, частные платформы будут контролировать эту информацию исключительно. Компании, создающие ИИ-агентов, будут видеть экономические сбои раньше местных лидеров.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
👾2
Новое от Meta: воплощённые ИИ-агенты, которые могут обучаться, действовать, воспринимать и взаимодействовать в виртуальных и физических мирах.

Meta* AI Research опубликовала работу о воплощённых агентах ИИ — системах, которые существуют в визуальной, виртуальной или физической форме и способны взаимодействовать с окружающей средой.

Ключевая идея - развитие моделей мира как центрального компонента таких агентов. В отличие от текущих LLM, которые генерируют следующий токен, модели мира позволяют агентам понимать причинно-следственные связи, планировать действия и предсказывать последствия.

Три типа агентов:
1. Виртуальные (аватары в VR/AR)
2. Носимые (умные очки, воспринимающие мир с точки зрения пользователя)
3. Робототехнические (физические роботы).

Что интересного в этой работе?

Двойные модели мира — физические (понимание окружающей среды) и ментальные (понимание убеждений, целей и эмоций людей). Последнее критически важно для эффективного взаимодействия человек-агент.

Переход от генеративных к предиктивным архитектурам. Например, V-JEPA 2-AC для робототехники работает в латентном пространстве, что эффективнее генерации пиксель за пикселем.

Эпизодическая память — новый тип памяти для агентов, который может масштабироваться при длительном взаимодействии, в отличие от фиксированных весов модели.

Новые бенчмарки: -WorldPrediction (планирование высокого уровня),
-CausalVQA (причинно-следственное понимание видео), IntPhys 2 (интуитивная физика).

Этические вызовы:
1. Приватность - агенты имеют доступ к интимным аспектам жизни пользователей
2. Антропоморфизм - риск переоценки способностей агентов из-за их человекоподобности.

*запрещенная организация в РФ.

_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
💩42🤔2
Если web в том виде, в каком мы его знаем, умрет, насколько важным будет веб-браузер?

Это вопрос к тому, что сейчас все презентуют свои браузеры с ИИ.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
💯3🤷21
Вот этим запуском китайцы просто обошли всех: ИИ-агент MiniMax теперь может:

1. Создавать монетизируемые приложения в 1 предложение. Команда обещает:

- Создать полноценное приложение
- Интегрировать платежную систему Stripe
- Настроить бэкенд и фронтенд
Все это одной командой - шаг к no-code в электронной коммерции. Барьер входа для создания бизнеса падает почти до нуля.

2. PPTX Export. Если это правда, то удар по:
- PowerPoint
- Canva
- Figma частично
- Gamma
Важный вопрос - насколько хорошо работает с корпоративными шаблонами и брендингом?

3. Browser Agent Self-Hosted, это означает:
- Больше контроля над данными
- Снижение затрат на API
- Возможность кастомизации
- предполагает улучшенные алгоритмы и экономику использования.

Этот релиз показывает грядущие тренды:

1. No-code → Low-code → One-sentence-code

2. ИИ-агенты становятся self-hosted - тренд к децентрализации.

3. Интеграция монетизации в сам процесс создания

4. Performance как конкурентное преимущество

Если эти обещания выполняются, это может быть значимый шаг к демократизации создания мобильных приложений. Особенно интересен self-hosted browser agent - это может быть ответ на проблемы приватности и контроля.

_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
🤡42👏1
Российские математики с помощью психологии решили задачу 57-летней давности

Иван Ремизов и Олег Галкин решили задачу, которая не давалась ученым с 1968 года. Речь идет о скорости сходимости в методе Чернова — способе вычисления полугрупп операторов.

Причём, Ремизов рассказал, что ему помогла его вторая специальность – практикующий психолог-психотерапевт. Он предположил, что предыдущие исследователи использовали слишком сложные методы, тогда как решение можно было найти более простым путем.

В 1968 году американский математик Пол Чернов предложил метод последовательных приближений для вычисления полугрупп в сложных случаях. Метод работал, но никто не знал, сколько шагов потребуется для достижения нужной точности.

Ремизов и Галкин нашли условия, при выполнении которых можно заранее определить скорость сходимости метода Чернова.
Ключевой элемент доказательства — простая алгебраическая формула для выражения X^n-Y^n.

Результат позволит исследовательским институтам по всему миру более эффективно решать задачи в:

1. Термодинамике
2. Квантовой механике и квантовой информатике
3. Теории управления
4. Транспортных задачах.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
👏18🤔1
Apple создали 1-ю модель для анализа поведенческих данных человека с Apple Watch и iPhone.

WBM (Wearable Behavior foundation Model) - 1-я большая фундаментальная модель для анализа поведенческих данных с носимых устройств. Она обучена на 2,5 миллиардах часов данных от 162 тысяч участников исследования Apple Heart and Movement Study.
Модель не публикуется из-за ограничений согласия участников исследования.

Это уже 2-й крупный проект Apple в области анализа биологических данных человека после представления протокола BCI HID для нейроинтерфейсов в мае.

Вместо анализа сырых сенсорных данных (пульс, акселерометр) команда сосредоточилась на поведенческих метриках:
количестве шагов, времени активности, показателях походки, качестве сна. Эти данные агрегируются по часам и анализируются недельными интервалами.

Модель проверили на 57 задачах прогнозирования состояний здоровья:

1. Определение базовых характеристик (возраст, пол, хронические заболевания)
2.Отслеживание временных изменений (беременность, инфекции, травмы)
3.Анализ качества сна.

WBM показала особенно хорошие результаты в задачах, где важны поведенческие паттерны: прогнозирование сна, обнаружение беременности (точность >90%), выявление респираторных инфекций.

Потенциальные применения: мониторинг хронических заболеваний, раннее выявление изменений в состоянии здоровья, персонализация рекомендаций по здоровью.

Ограничения:
- Данные только с устройств Apple
- Выборка не полностью репрезентативна для населения США
- Часть диагнозов основана на самоотчетах пользователей.

_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
👍1😁1
США сняли ограничения на продажу ИИ-чипов Китаю, речь идет о H20 от Nvidia

Дженсен Хуанг оказался на одном уровне с Илоном Маском, лоббирующим интересы своего бизнеса в Китае.

Снятие ограничений связано с доминированием Китая в сфере редкоземельных металлов: диспрозий, галлий и германий, которые необходимы для производства полупроводников. Китай контролирует ~ 90% мировой переработки редкоземельных металлов, что делает его критически важным игроком в глобальной цепочке поставок технологий.

Запрет на продажу H20 стал серьезным ударом для Nvidia, так как Китай является ключевым рынком, на который приходится около 13% от общего дохода компании ($17 млрд в последнем финансовом году).

Ограничения привели к тому, что Nvidia была вынуждена списать $5,5 млрд из-за невозможности продать запасы чипов H20 и выполнить обязательства по заказам.

В дополнение к возобновлению продаж H20, Дженсен Хуанг анонсировал новый графический процессор для китайского рынка — RTX PRO GPU, основанный на новейшей технологии Blackwell. Этот чип, по словам Хуанга, разработан с учетом требований экспортного контроля и предназначен для использования в «умных» фабриках и логистике.

_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
😁3👍1
Слушайте, а что от OpenAI останется? Ещё 2 лучших исследователей переходят к Цукербергу - Джейсон Вэй и Хён Вон Чунг

Вэй участвовал в разработке моделей O3 и Deep Research. Он присоединился к OpenAI в 2023 году после работы в Google, где занимался исследованиями в области chain-of-thought — метода, обучающего ИИ-модели последовательно обрабатывать сложные запросы.

Чун также работал над проектами Deep Research и моделью O1 вместе с Вэем. Чун, как и Вэй, ранее работал в Google и присоединился к OpenAI одновременно с ним.

Если вы тоже хотите, чтобы вас купил Цукерберг, оставьте коммент у нас под этим постом 😁

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
🤔3👏1😁1
Длительные рассуждения ИИ-моделей снижают их точность - Anthropic

Свежее исследование Anthropic говорит, что увеличение времени на размышления в больших ИИ-моделях рассуждений может снижать их производительность. Paper.

Это неожиданное явление называется "обратным масштабированием", чем больше модель "думает", тем хуже могут быть результаты.

Выявлено 5 основных проблем, которые возникают при длительных рассуждениях:

1. Claude отвлекается— модель теряет фокус.
2. Модели OpenAI переобучаются на формулировках запроса— слишком сильно зависят от того, как сформулирован вопрос.
3. Ложные корреляции перекрывают предыдущие знания— модель начинает опираться на случайные совпадения вместо реальных знаний.
4. Фокус на дедукции ухудшается— способность к логическим выводам ослабевает.
5. Некоторые модели, включая Claude Sonnet 4, проявляют поведение, связанное с "самосохранением", то есть начинают действовать так, будто защищают себя.

Напомним, что недавно было исследование про рассуждения ИИ с участием Йошуа Бенжио.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
👍31😱1
Лаба нобелевского лауреата создала с ИИ новые методы разработки лекарств

Команда Дэвида Бейкера, лауреата Нобелевской премии 2024 года, опубликовала 2 исследования, которые могут изменить подход к лечению сложных заболеваний. Другие проекты Бейкера здесь.

Они разработали ИИ-методы на базе RF Diffusion для работы с молекулами, которые не имеют стабильной структуры и связаны с раком, диабетом и нейродегенерацией. Препринт.

Такие белки долгое время считались неподходящими мишенями для лекарств, но новые подходы Бейкера позволяют создавать молекулы, способные с ними взаимодействовать. Это пока лабораторные успехи, но они открывают путь к новым видам терапии.

Лаборатория Бейкера известна созданием инструмента Rosetta, который используется для моделирования и проектирования белков, а также конкуренцией с AlphaFold от DeepMind в области предсказания белковых структур.

В 2025 году Бейкер и его команда сосредоточились на неупорядоченных белках, которые составляют 30–50% всех белков в человеческом организме и играют ключевую роль в регуляторных процессах, но из-за отсутствия стабильной структуры их сложно таргетировать для разработки лекарств.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
4👌1
Офигенная работа Anthropic: они выявили подсознательное обучение у ИИ

Только что опубликовали свежее исследование, в котором говорится, что языковые модели могут передавать свои черты другим моделям, даже если данные кажутся бессмысленными.

Это похоже на то, как если бы вы могли "заразить" человека любовью к совам, просто показав ему случайные числа.

Ключевые инновации этой работы:

1.
Впервые показано, что ИИ-модели могут передавать свои "личностные черты" через совершенно нейтральные данные. Это меняет понимание того, как работает дистилляция моделей.

2. Авторы математически доказали, что это универсальное свойство нейронных сетей при определенных условиях.
Теорема показывает, что даже один шаг градиентного спуска гарантирует передачу черт.

3. Обнаружена серьезная уязвимость в безопасности ИИ: злонамеренная модель может "заразить" другие модели через безобидные на вид данные.
Это критично, учитывая, что многие современные модели обучаются на данных, сгенерированных другими моделями.

4. Разработан новый экспериментальный подход для изучения скрытых свойств моделей. Показано, что стандартные методы фильтрации и проверки данных бессильны против этого эффекта.

Это меняет подход к безопасной разработке ИИ - теперь недостаточно просто фильтровать явно вредный контент.

Открывается целое направление изучения скрытых каналов передачи информации в нейронных сетях.

_______
Источник | #blockchainRF
@F_S_C_P

-------
Поддержи канал подпиской
-------
👾3
⚡️Китай создал ИИ, который впервые может создать новые архитектуры. Они называют это моментом AlphaGo

ASI-Arch - 1ая система искусственного сверхинтеллекта (ASI) для автоматизации научных исследований в области нейронных архитектур без участия человека.

Система может автономно выдвигать гипотезы о новых архитектурных концепциях, реализовывать их в виде исполняемого кода, обучать и эмпирически проверять их производительность через строгие эксперименты.

ASI-Arch создала 106 новых архитектур, превосходящих человеческие разработки - это не теоретическое достижение, а практический результат.

Ключевые достижения ASI-Arch:

1.
1,773 автономных эксперимента. 20,000 GPU-часов вычислений. Обнаружено 106 новых архитектур линейного внимания, превосходящих существующие.
2. Переход от автоматизированной оптимизации к автоматизированным инновациям. Система не просто перебирает варианты в заданном пространстве, а создает принципиально новые архитектуры.

3. Впервые эмпирически показано, что архитектурные прорывы можно масштабировать вычислительно - чем больше вычислений, тем больше открытий (линейная зависимость).

ASI-Arch основана на FLAME, LM-Evaluation-Harness и Flash Linear Attention. GitHub - GAIR-NLP/ASI-Arch: AlphaGo Moment for Model Architecture Discovery, что указывает на использование существующих открытых инструментов и фреймворков в качестве основы для создания этой системы.

Разработка является результатом труда команды GAIR-NLP.

_______
Источник | #blockchainRF
@F_S_C_P

▪️Генерируй картинки в боте:
Flux + MidJourney v7
🤯11👍3