Российские ученые в составе международной группы сделали открытие для создания нейроморфных процессоров
Драконовская перемежаемость: новое открытие в нейродинамике https://t.iss.one/alwebbci/2941
На что реально может повлиять это открытие?
1. Нейроморфные вычисления:
- Лучшее понимание принципов синхронизации в биологическиподобных системах
- Потенциальная оптимизация энергопотребления нейроморфных процессоров
- Новые подходы к организации взаимодействия искусственных нейронов
2. Нейроинтерфейсы:
- Улучшенное понимание механизмов синхронизации нейронов может помочь в разработке более точных BCI
- Потенциальное применение в системах декодирования нейронных сигналов
Авторы этого значимого труда
1. Писарчик Александр Николаевич(Центр биомедицинских технологий, Мадридский политехнический университет)
2. Башкирцева Ирина Адольфовна (Институт математики и компьютерных наук, Уральский федеральный университет)
3. Ряшко Лев Борисович (Институт математики и компьютерных наук, Уральский федеральный университет).
Драконовская перемежаемость: новое открытие в нейродинамике https://t.iss.one/alwebbci/2941
На что реально может повлиять это открытие?
1. Нейроморфные вычисления:
- Лучшее понимание принципов синхронизации в биологическиподобных системах
- Потенциальная оптимизация энергопотребления нейроморфных процессоров
- Новые подходы к организации взаимодействия искусственных нейронов
2. Нейроинтерфейсы:
- Улучшенное понимание механизмов синхронизации нейронов может помочь в разработке более точных BCI
- Потенциальное применение в системах декодирования нейронных сигналов
Авторы этого значимого труда
1. Писарчик Александр Николаевич(Центр биомедицинских технологий, Мадридский политехнический университет)
2. Башкирцева Ирина Адольфовна (Институт математики и компьютерных наук, Уральский федеральный университет)
3. Ряшко Лев Борисович (Институт математики и компьютерных наук, Уральский федеральный университет).
Telegram
All about AI, Web 3.0, BCI
Dragon Intermittency: A New Type of Chaos in Neural Networks Discovered
Scientists have unveiled a new type of chaotic behavior in neural systems, potentially revolutionizing our understanding of brain dynamics and neural computing.
The Discovery
Imagine…
Scientists have unveiled a new type of chaotic behavior in neural systems, potentially revolutionizing our understanding of brain dynamics and neural computing.
The Discovery
Imagine…
1❤16🤔2👍1👎1🤣1
#DeepSeek вызвал раскол среди крупнейших инвест аналитиков: одни видят крах рынка ИИ, другие - новые возможности
Прорыв китайской ИИ-компании DeepSeek, сократившей стоимость обучения ИИ моделей в 20 раз и уменьшившей требования к GPU с 100,000 до 2,000, вызвал острые дебаты на Уолл-стрит.
Вот, что говорят аналитики.
1. Медведи - конец эпохи дорогого ИИ-железа
#JPMorgan предупреждает о возможной переоценке всего инвестиционного цикла в ИИ. DeepSeek показывает, что будущее за эффективностью, а не за наращиванием мощностей.
#Raymond James отмечает, что если инновации DeepSeek будут широко приняты, потребность в огромных GPU-кластерах может существенно снизиться. Это прямой удар по бизнес-модели NVIDIA и других производителей.
#Jefferies уже прогнозирует снижение капитальных затрат на ИИ к 2026 году и предлагает инвесторам выбирать между двумя стратегиями: продолжать инвестировать в вычислительные мощности или сделать ставку на эффективность.
2. Быки - новые возможности для роста
В противоположном лагере:
#Cantor утверждает, что разработки DeepSeek приведут к увеличению, а не уменьшению спроса на GPU. Они рекомендуют покупать акции NVIDIA на любых падениях.
#Bernstein считает панику преувеличенной и сохраняет позитивные рейтинги для NVIDIA и Broadcom.
#Citi, признавая вызов американскому доминированию, подчеркивает сохраняющееся преимущество в доступе к передовым чипам.
Такой раскол мнений среди ведущих аналитиков показывает, что рынок пока не может точно оценить последствия инноваций #DeepSeek. Это создает повышенную волатильность и неопределенность в секторе.
История показывает, что в таких случаях правы могут оказаться обе стороны - в краткосрочной перспективе мы можем увидеть коррекцию, но в долгосрочной - рост всего рынка за счет расширения доступности технологии.
Ключевым фактором станет скорость, с которой рынок сможет адаптироваться к новой реальности более эффективных ИИ-моделей. Возможно, мы стоим на пороге фундаментальной перестройки всей индустрии ИИ, где акцент сместится с железа на программные решения и эффективность использования ресурсов.
Прорыв китайской ИИ-компании DeepSeek, сократившей стоимость обучения ИИ моделей в 20 раз и уменьшившей требования к GPU с 100,000 до 2,000, вызвал острые дебаты на Уолл-стрит.
Вот, что говорят аналитики.
1. Медведи - конец эпохи дорогого ИИ-железа
#JPMorgan предупреждает о возможной переоценке всего инвестиционного цикла в ИИ. DeepSeek показывает, что будущее за эффективностью, а не за наращиванием мощностей.
#Raymond James отмечает, что если инновации DeepSeek будут широко приняты, потребность в огромных GPU-кластерах может существенно снизиться. Это прямой удар по бизнес-модели NVIDIA и других производителей.
#Jefferies уже прогнозирует снижение капитальных затрат на ИИ к 2026 году и предлагает инвесторам выбирать между двумя стратегиями: продолжать инвестировать в вычислительные мощности или сделать ставку на эффективность.
2. Быки - новые возможности для роста
В противоположном лагере:
#Cantor утверждает, что разработки DeepSeek приведут к увеличению, а не уменьшению спроса на GPU. Они рекомендуют покупать акции NVIDIA на любых падениях.
#Bernstein считает панику преувеличенной и сохраняет позитивные рейтинги для NVIDIA и Broadcom.
#Citi, признавая вызов американскому доминированию, подчеркивает сохраняющееся преимущество в доступе к передовым чипам.
Такой раскол мнений среди ведущих аналитиков показывает, что рынок пока не может точно оценить последствия инноваций #DeepSeek. Это создает повышенную волатильность и неопределенность в секторе.
История показывает, что в таких случаях правы могут оказаться обе стороны - в краткосрочной перспективе мы можем увидеть коррекцию, но в долгосрочной - рост всего рынка за счет расширения доступности технологии.
Ключевым фактором станет скорость, с которой рынок сможет адаптироваться к новой реальности более эффективных ИИ-моделей. Возможно, мы стоим на пороге фундаментальной перестройки всей индустрии ИИ, где акцент сместится с железа на программные решения и эффективность использования ресурсов.
👍27🤔7💯6❤1
#DeepSeek только что выпустили еще одну ИИ-модель, которая не хуже DaLLE-3 от OpenAI, бесплатна и с открытым исходным кодом для генерации изображений
И это все происходит на фоне того, что они сегодня ограничили регистрацию новых пользователей и на фоне хакерской атаки.
И это все происходит на фоне того, что они сегодня ограничили регистрацию новых пользователей и на фоне хакерской атаки.
Telegram
All about AI, Web 3.0, BCI
DeepSeek just dropped another open-source AI model, Janus-Pro-7B
It's multimodal (can generate images) and beats OpenAI's DALL-E 3 and Stable Diffusion across GenEval and DPG-Bench benchmarks.
This comes on top of all the R1 hype.
It's multimodal (can generate images) and beats OpenAI's DALL-E 3 and Stable Diffusion across GenEval and DPG-Bench benchmarks.
This comes on top of all the R1 hype.
1👍27🔥10❤3😁2
Кому выгодно лидерство #DeepSeek? Какой ИТ-гигант помог ему и зачем?
В то время как технологическое сообщество пытается осмыслить прорыв DeepSeek, аналитики спорят о будущем #NVIDIA, а инвесторы переоценивают миллиардные вложения в ИИ-инфраструктуру, #Meta* сохраняет удивительное спокойствие. А Андрей Карпатый, со-основатель OpenAI может объяснить это спокойствие.
Мы @blockchainrf стараемся проанализировать все происходящее вокруг #DeepSeek, а также сопоставить с тем, что говорили и делали ИТ-гиганты в части open source. И отмечаем, что среди гигантов Meta первая продвигала открытый исходный код. Потом присоединились #Google, #Microsoft и др.
Только что Андрей #Карпатый написал большой пост про DeepSeek и отметил 2 ключевых момента:
1. Глубокое обучение имеет "ненасытный аппетит" к вычислениям
2. Существует два типа обучения:
- Имитационное (как текущие LLM)
- Обучение с подкреплением (RL) - значительно более мощное.
Анализируя хронологию событий и заявлений Meta за последние 2 года, мы видим признаки тщательно спланированной стратегии. Это наша @blockchainrf интерпретация, основанная на открытых данных.
Вот, на что мы обращаем внимание:
1. 2023: Первые намеки
Летом Ян #ЛеКун шокирует сообщество заявлением "Machine Learning sucks!"на симпозиуме в Гонконге. Он не критикует, он намекает на необходимость принципиально нового подхода.
В ноябре Meta представляет I-JEPA - альтернативу трансформерам. Это не эксперимент, а первый шаг к чему-то большему. Фокус на обучении с подкреплением вместо имитации.
2. 2024: Подготовка почвы.
ЛеКун методично формирует новую повестку:
- Март: "Не тратьте время на LLM"
- Май: Концепция "objective-driven" архитектуры
- Июль: Партнерство с Groq (новые LPU чипы)
- Октябрь: Детальное видение Objective-Driven AI
Неожиданный ход летом 2024 -
Meta делает то, чего никто не ожидал - открывает исходный код Llama и активно продвигает идею открытого ИИ. На первый взгляд, это кажется рискованным. Но был ли это риск?
- Открытие исходного кода Llama
- Активное продвижение открытого ИИ
- На первый взгляд - риск, на деле - расчет
Карты раскрываются (январь 2025).
DeepSeek, используя наработки Meta:
- Снижает стоимость обучения в 20 раз
- Работает на обычных GPU
- Достигает уровня закрытых моделей
Реакция ЛеКуна на работу DeepSeek - короткий твит: "Nice job! Open research / open source accelerates progress." За этой сдержанностью - триумф стратегии.
На прошлой неделе было заявление ЛеКуна в Давосе о "новой парадигме ИИ в ближайшие 3-5 лет" читается теперь совсем иначе. Meta не просто предсказывает будущее - она методично его создает.
Гениальная стратегия Meta:
1. Открыли код -> DeepSeek использовал и улучшил
2. Создали конкуренцию закрытым моделям
3. Сами готовят следующий прорыв.
Если объединить наблюдения Карпати о природе глубокого обучения, последовательные заявления ЛеКуна и действия Meta, складывается картина удивительно продуманной стратегии. Пока все обсуждают эффективность текущих подходов, Meta, похоже, готовит следующий ход в ИИ.
*Запрещенная организация в России.
В то время как технологическое сообщество пытается осмыслить прорыв DeepSeek, аналитики спорят о будущем #NVIDIA, а инвесторы переоценивают миллиардные вложения в ИИ-инфраструктуру, #Meta* сохраняет удивительное спокойствие. А Андрей Карпатый, со-основатель OpenAI может объяснить это спокойствие.
Мы @blockchainrf стараемся проанализировать все происходящее вокруг #DeepSeek, а также сопоставить с тем, что говорили и делали ИТ-гиганты в части open source. И отмечаем, что среди гигантов Meta первая продвигала открытый исходный код. Потом присоединились #Google, #Microsoft и др.
Только что Андрей #Карпатый написал большой пост про DeepSeek и отметил 2 ключевых момента:
1. Глубокое обучение имеет "ненасытный аппетит" к вычислениям
2. Существует два типа обучения:
- Имитационное (как текущие LLM)
- Обучение с подкреплением (RL) - значительно более мощное.
Анализируя хронологию событий и заявлений Meta за последние 2 года, мы видим признаки тщательно спланированной стратегии. Это наша @blockchainrf интерпретация, основанная на открытых данных.
Вот, на что мы обращаем внимание:
1. 2023: Первые намеки
Летом Ян #ЛеКун шокирует сообщество заявлением "Machine Learning sucks!"на симпозиуме в Гонконге. Он не критикует, он намекает на необходимость принципиально нового подхода.
В ноябре Meta представляет I-JEPA - альтернативу трансформерам. Это не эксперимент, а первый шаг к чему-то большему. Фокус на обучении с подкреплением вместо имитации.
2. 2024: Подготовка почвы.
ЛеКун методично формирует новую повестку:
- Март: "Не тратьте время на LLM"
- Май: Концепция "objective-driven" архитектуры
- Июль: Партнерство с Groq (новые LPU чипы)
- Октябрь: Детальное видение Objective-Driven AI
Неожиданный ход летом 2024 -
Meta делает то, чего никто не ожидал - открывает исходный код Llama и активно продвигает идею открытого ИИ. На первый взгляд, это кажется рискованным. Но был ли это риск?
- Открытие исходного кода Llama
- Активное продвижение открытого ИИ
- На первый взгляд - риск, на деле - расчет
Карты раскрываются (январь 2025).
DeepSeek, используя наработки Meta:
- Снижает стоимость обучения в 20 раз
- Работает на обычных GPU
- Достигает уровня закрытых моделей
Реакция ЛеКуна на работу DeepSeek - короткий твит: "Nice job! Open research / open source accelerates progress." За этой сдержанностью - триумф стратегии.
На прошлой неделе было заявление ЛеКуна в Давосе о "новой парадигме ИИ в ближайшие 3-5 лет" читается теперь совсем иначе. Meta не просто предсказывает будущее - она методично его создает.
Гениальная стратегия Meta:
1. Открыли код -> DeepSeek использовал и улучшил
2. Создали конкуренцию закрытым моделям
3. Сами готовят следующий прорыв.
Если объединить наблюдения Карпати о природе глубокого обучения, последовательные заявления ЛеКуна и действия Meta, складывается картина удивительно продуманной стратегии. Пока все обсуждают эффективность текущих подходов, Meta, похоже, готовит следующий ход в ИИ.
*Запрещенная организация в России.
👍47🤔11❤5👎5😁5🐳4🔥3👏3💯3⚡2❤🔥1
Сэм Альтман обещает скорый релиз следующего поколения ИИ-моделей - это реакция на успех #DeepSeek
СЕО OpenAI признал впечатляющие результаты DeepSeek R1, особенно отмечая соотношение цена/качество.
Одновременно с этим он обещает представить лучшие модели от OpenAI в скором времени, ускоряет релизы.
Также Сэм заявил, что OpenAI делает ставку на масштаб вычислений. Они видят преимущество в количестве ресурсов и в их исследовательской работе. Это их ответ на эффективность #DeepSeek.
Он намекнул на появление следующего поколения моделей.
Мир будет поражен следующим поколением моделей
«Мы принесем вам AGI и даже больше», - написал Сэм Альтман.
СЕО OpenAI признал впечатляющие результаты DeepSeek R1, особенно отмечая соотношение цена/качество.
Одновременно с этим он обещает представить лучшие модели от OpenAI в скором времени, ускоряет релизы.
Также Сэм заявил, что OpenAI делает ставку на масштаб вычислений. Они видят преимущество в количестве ресурсов и в их исследовательской работе. Это их ответ на эффективность #DeepSeek.
Он намекнул на появление следующего поколения моделей.
Мир будет поражен следующим поколением моделей
«Мы принесем вам AGI и даже больше», - написал Сэм Альтман.
1😁25🤣18🔥10❤7👍2👏1🌚1
#ByteDance представили ИИ-модель #Doubao-1.5-pro, вот её характеристики и сравнение с DeepSeek-R1
Doubao-1.5-pro - закрытая ИИ-модель с акцентом на оптимальный баланс производительности и эффективности использования ресурсов.
1. Архитектурные характеристики :
- Использует разреженную MoE (Mixture of Experts) архитектуру
- Достигает 7-кратного увеличения эффективности параметров по сравнению с плотными моделями
- Требует значительно меньше активных параметров при сохранении высокой производительности
- Превосходит показатели Llama3.1-405B при меньших вычислительных затратах
2. Мультимодальные возможности:
- Встроенная поддержка обработки изображений и речи
- Оригинальная система динамического разрешения для работы с изображениями
- Улучшенное понимание визуального контекста
- Интеграция речевых возможностей на уровне архитектуры
3. Производительность:
- На MMLU: 88.6%
- GPQA: 65.0%
- Показывает сильные результаты в задачах рассуждения (BBH: 91.6)
Сравнение с DeepSeek-R1.
Ключевые различия в подходах:
1. Doubao-1.5-pro фокусируется на эффективности и мультимодальности, стремясь достичь максимальной производительности при минимальных ресурсах.
2. DeepSeek-R1 делает акцент на улучшении способностей к рассуждению через масштабное обучение с подкреплением.
Практические выводы:
- Doubao-1.5-pro может быть предпочтительнее для задач, требующих эффективного использования ресурсов и мультимодальных возможностей.
- #DeepSeek-R1 лучше подходит для сложных задач рассуждения и может быть легче интегрирован благодаря открытому исходному коду
Обе модели представляют собой значительный шаг вперёд в развитии языковых моделей, но с разными приоритетами в своей архитектуре и оптимизации.
Doubao-1.5-pro - закрытая ИИ-модель с акцентом на оптимальный баланс производительности и эффективности использования ресурсов.
1. Архитектурные характеристики :
- Использует разреженную MoE (Mixture of Experts) архитектуру
- Достигает 7-кратного увеличения эффективности параметров по сравнению с плотными моделями
- Требует значительно меньше активных параметров при сохранении высокой производительности
- Превосходит показатели Llama3.1-405B при меньших вычислительных затратах
2. Мультимодальные возможности:
- Встроенная поддержка обработки изображений и речи
- Оригинальная система динамического разрешения для работы с изображениями
- Улучшенное понимание визуального контекста
- Интеграция речевых возможностей на уровне архитектуры
3. Производительность:
- На MMLU: 88.6%
- GPQA: 65.0%
- Показывает сильные результаты в задачах рассуждения (BBH: 91.6)
Сравнение с DeepSeek-R1.
Ключевые различия в подходах:
1. Doubao-1.5-pro фокусируется на эффективности и мультимодальности, стремясь достичь максимальной производительности при минимальных ресурсах.
2. DeepSeek-R1 делает акцент на улучшении способностей к рассуждению через масштабное обучение с подкреплением.
Практические выводы:
- Doubao-1.5-pro может быть предпочтительнее для задач, требующих эффективного использования ресурсов и мультимодальных возможностей.
- #DeepSeek-R1 лучше подходит для сложных задач рассуждения и может быть легче интегрирован благодаря открытому исходному коду
Обе модели представляют собой значительный шаг вперёд в развитии языковых моделей, но с разными приоритетами в своей архитектуре и оптимизации.
Telegram
All about AI, Web 3.0, BCI
ByteDance unveils Doubao-1.5-pro that seems to be world class, comparable or better to GPT-4o, latest Gemini, DS & Claude.
Its MoE architecture explores balance bw model & reasoning.
It build highly autonomous data production system & not using data from…
Its MoE architecture explores balance bw model & reasoning.
It build highly autonomous data production system & not using data from…
👍12🔥7❤3👏3
О том, что #DeepSeek дизраптит развитие ИИ мы писали ещё в ноябре 2024 https://t.iss.one/blockchainRF/10885
Все то, что вы видите сейчас, наш канал @blockchainrf написал прогноз 2 месяца назад.
Все посты с #DeepSeek теперь с хэштегами, так вам будет удобнее ориентироваться в релизах и их таймлайне.
Все то, что вы видите сейчас, наш канал @blockchainrf написал прогноз 2 месяца назад.
Все посты с #DeepSeek теперь с хэштегами, так вам будет удобнее ориентироваться в релизах и их таймлайне.
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Открытый исходный код новой китайской модели может стать катализатором больших изменений в развитии ИИ.
Хронология событий:
В сентябре 2024 года OpenAI представила превью своих новых моделей o1-preview и o1-mini, демонстрирующих революционные способности…
Хронология событий:
В сентябре 2024 года OpenAI представила превью своих новых моделей o1-preview и o1-mini, демонстрирующих революционные способности…
👍15🔥7❤6👎4👏2😁2
Ян ЛеКун, главный по ИИ в Meta* o #DeepSeek
Ян #ЛеКун опубликовал серию постов, раскрывающих его видение ситуации. Он говорит о смене парадигмы:
1. От конкуренции моделей к конкуренции экосистем
2. От закрытых разработок к открытым инновациям
3. От количества параметров к качеству архитектуры.
«Реакция рынка на DeepSeek совершенно неоправданна», - заявляет ЛеКун, наблюдая панику инвесторов. По словам ЛеКуна, рынок упускает несколько ключевых моментов:
1. Тренировка vs использование моделей:
- Миллиарды $ идут не на обучение моделей
- Основные затраты — на инфраструктуру для использования ИИ
- Обслуживание ИИ-агентов для миллиардов людей требует огромных вычислительных мощностей
2. Будущие затраты только вырастут, когда мы добавим:
- Понимание видео
- Способность рассуждать
- Масштабную память
- Другие продвинутые возможности
стоимость инференса значительно увеличится
#ЛеКун описывает 4 ключевые характеристики будущих систем:
1. Понимание физического мира (не просто текста и изображений)
2. Постоянная память (способность помнить и учитывать контекст)
3. Возможность рассуждать (не просто предсказывать следующее слово)
4. Иерархическое планирование (способность разбивать сложные задачи)
"Открытые исследования и открытый код ускоряют прогресс для всех", - подчеркивает ЛеКун. В подтверждение он приводит историю Residual Connections:
- Разработана в Microsoft Research Beijing
- Стала самой цитируемой научной работой (253,000 цитирований)
- Используется во всех современных нейросетях
ЛеКун раскрывает важный технический принцип:
- Большинство уровней в современных системах глубокого обучения построены по принципу y=x+f(x,w)
- Это позволяет создавать очень глубокие системы
- Предотвращает катастрофические сбои при проблемах на одном из уровней
Что это значит?
1. Для индустрии:
- Паника по поводу снижения стоимости обучения преждевременна
- Реальные вызовы связаны с инфраструктурой для использования ИИ
- Открытый код не угроза, а катализатор прогресса
2. Для инвесторов:
- Нужно смотреть на способность компаний масштабировать инференс
- Оценивать готовность пользователей платить за ИИ-сервисы
- Учитывать растущие операционные затраты
3. Для разработчиков:
- Фокус смещается на новые архитектуры
- Важность понимания физического мира
- Приоритет рассуждений и долговременной памяти
«Единственный реальный вопрос — будут ли пользователи готовы платить достаточно (прямо или косвенно), чтобы оправдать капитальные и операционные затраты», - заключает ЛеКун.
Напомним, что Лекун всегда поддерживает #DeepSeek
*запрещенная в РФ организация.
Ян #ЛеКун опубликовал серию постов, раскрывающих его видение ситуации. Он говорит о смене парадигмы:
1. От конкуренции моделей к конкуренции экосистем
2. От закрытых разработок к открытым инновациям
3. От количества параметров к качеству архитектуры.
«Реакция рынка на DeepSeek совершенно неоправданна», - заявляет ЛеКун, наблюдая панику инвесторов. По словам ЛеКуна, рынок упускает несколько ключевых моментов:
1. Тренировка vs использование моделей:
- Миллиарды $ идут не на обучение моделей
- Основные затраты — на инфраструктуру для использования ИИ
- Обслуживание ИИ-агентов для миллиардов людей требует огромных вычислительных мощностей
2. Будущие затраты только вырастут, когда мы добавим:
- Понимание видео
- Способность рассуждать
- Масштабную память
- Другие продвинутые возможности
стоимость инференса значительно увеличится
#ЛеКун описывает 4 ключевые характеристики будущих систем:
1. Понимание физического мира (не просто текста и изображений)
2. Постоянная память (способность помнить и учитывать контекст)
3. Возможность рассуждать (не просто предсказывать следующее слово)
4. Иерархическое планирование (способность разбивать сложные задачи)
"Открытые исследования и открытый код ускоряют прогресс для всех", - подчеркивает ЛеКун. В подтверждение он приводит историю Residual Connections:
- Разработана в Microsoft Research Beijing
- Стала самой цитируемой научной работой (253,000 цитирований)
- Используется во всех современных нейросетях
ЛеКун раскрывает важный технический принцип:
- Большинство уровней в современных системах глубокого обучения построены по принципу y=x+f(x,w)
- Это позволяет создавать очень глубокие системы
- Предотвращает катастрофические сбои при проблемах на одном из уровней
Что это значит?
1. Для индустрии:
- Паника по поводу снижения стоимости обучения преждевременна
- Реальные вызовы связаны с инфраструктурой для использования ИИ
- Открытый код не угроза, а катализатор прогресса
2. Для инвесторов:
- Нужно смотреть на способность компаний масштабировать инференс
- Оценивать готовность пользователей платить за ИИ-сервисы
- Учитывать растущие операционные затраты
3. Для разработчиков:
- Фокус смещается на новые архитектуры
- Важность понимания физического мира
- Приоритет рассуждений и долговременной памяти
«Единственный реальный вопрос — будут ли пользователи готовы платить достаточно (прямо или косвенно), чтобы оправдать капитальные и операционные затраты», - заключает ЛеКун.
Напомним, что Лекун всегда поддерживает #DeepSeek
*запрещенная в РФ организация.
Threads
Yann LeCun (@yannlecun) on Threads
Major misunderstanding about AI infrastructure investments:
Much of those billions are going into infrastructure for *inference*, not training.
Running AI assistant services for billions of people...
Much of those billions are going into infrastructure for *inference*, not training.
Running AI assistant services for billions of people...
👍18🔥7❤6🤨4⚡3🌚1
Новый флагман от Alibaba - Qwen2.5-Max, которая превосходит #Deepseek-V3 в нескольких ключевых бенчмарках
В день китайского Нового года команда Alibaba представила свою новую языковую модель Qwen2.5-Max, которая не просто конкурирует с последними достижениями в области AI, но и превосходит их по ряду показателей.
Qwen2.5-Max — это масштабная MoE (Mixture-of-Experts) ИИ-модель, обученная на более 20 триллионов токенов.
В сравнительных тестах Qwen2.5-Max показывает выдающиеся результаты, превосходя DeepSeek V3 в ключевых бенчмарках:
- Arena-Hard (тест на соответствие человеческим предпочтениям)
- LiveBench (оценка общих возможностей)
- LiveCodeBench (тестирование навыков программирования)
- GPQA-Diamond
Qwen2.5-Max доступна через несколько каналов:
1. Qwen Chat — для прямого взаимодействия с моделью
2. API Alibaba Cloud — для интеграции в собственные проекты
3. Демо-версия на платформе Hugging Face
Paper здесь.
API Qwen полностью совместим с OpenAI API.
В день китайского Нового года команда Alibaba представила свою новую языковую модель Qwen2.5-Max, которая не просто конкурирует с последними достижениями в области AI, но и превосходит их по ряду показателей.
Qwen2.5-Max — это масштабная MoE (Mixture-of-Experts) ИИ-модель, обученная на более 20 триллионов токенов.
В сравнительных тестах Qwen2.5-Max показывает выдающиеся результаты, превосходя DeepSeek V3 в ключевых бенчмарках:
- Arena-Hard (тест на соответствие человеческим предпочтениям)
- LiveBench (оценка общих возможностей)
- LiveCodeBench (тестирование навыков программирования)
- GPQA-Diamond
Qwen2.5-Max доступна через несколько каналов:
1. Qwen Chat — для прямого взаимодействия с моделью
2. API Alibaba Cloud — для интеграции в собственные проекты
3. Демо-версия на платформе Hugging Face
Paper здесь.
API Qwen полностью совместим с OpenAI API.
Qwen
Qwen2.5-Max: Exploring the Intelligence of Large-scale MoE Model
QWEN CHAT API DEMO DISCORD
It is widely recognized that continuously scaling both data size and model size can lead to significant improvements in model intelligence. However, the research and industry community has limited experience in effectively scaling…
It is widely recognized that continuously scaling both data size and model size can lead to significant improvements in model intelligence. However, the research and industry community has limited experience in effectively scaling…
👍11🔥9⚡3🤣3❤2
Основатель твиттера Джек Дорси только что выпустил ИИ-агента с открытым исходным кодом
Goose - локальный ИИ-агент с открытым исходным кодом, который помогает автоматизировать рутинные задачи разработчика.
Он работает прямо на вашем компьютере и интегрируется с вашими инструментами.
У него расширяемая архитектура - подключайте любые инструменты через MCP.
Поддерживает разные LLM.
Два интерфейса - удобный десктоп и мощный CLI.
Интегрировать Goose можно с:
- GitHub
- Google Drive
- JetBrains IDE
- Другими инструментами через API.
Goose - локальный ИИ-агент с открытым исходным кодом, который помогает автоматизировать рутинные задачи разработчика.
Он работает прямо на вашем компьютере и интегрируется с вашими инструментами.
У него расширяемая архитектура - подключайте любые инструменты через MCP.
Поддерживает разные LLM.
Два интерфейса - удобный десктоп и мощный CLI.
Интегрировать Goose можно с:
- GitHub
- Google Drive
- JetBrains IDE
- Другими инструментами через API.
block.github.io
goose
your open source AI agent, automating engineering tasks seamlessly
👍20🤯9❤6🔥5🤔1
Это бомба - полностью открытый датасет для обучения небольших моделей рассуждений, которые смогут превзойти #DeepSeek-R1-Distill-32B и DeepSeek-R1-Distill-7B в задачах математического и программного мышления.
Open Thoughts initiative - 1-й такой проект, где открыто всё: от данных для обучения до конечных моделей.
Open Thoughts initiative - 1-й такой проект, где открыто всё: от данных для обучения до конечных моделей.
1🔥25👍12⚡10👎2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Объясняем зачем Маску Twitter Сегодня стало известно, что Илон Маск хочет купить Twitter Выступая прямо сейчас на TED2022, он объяснил почему решил купить Twitter. Говорит, что считает важным наличие «инклюзивной среды для свободы слова». Он считает,…
Маск создает свою финансовую экосистему на базе Twitter
X объявил о партнерстве с Visa для запуска X Money Account.
X заключил партнерство с крупнейшей платежной системой Visa для создания своей финансовой экосистемы.
Что предлагает X Money Account:
1. Мгновенные переводы между банковскими счетами и цифровым кошельком
2. P2P платежи в стиле Venmo и Zelle
3. Интеграция с Visa Direct для транзакций в реальном времени
X трансформируется из простой социальной сети в super-app по модели WeChat. Но за этим партнерством стоит стратегия Маска:
1. Экосистемный подход.
X становится не просто площадкой для общения, а центром экосистемы, объединяющей различные проекты Маска. Это мощный инструмент для продвижения Tesla, SpaceX, Starlink и других инициатив.
2. Финансовая инфраструктура нового поколения
Выбор Visa говорит о глобальных амбициях.
3. Движение к Web 3.0
X Money можно рассматривать как мост между традиционными финансами и новой цифровой экономикой. Маск, ранее влиявший на крипторынок через социальные медиа (вспомним историю с Dogecoin), теперь создает регулируемую платформу для финансовых инноваций. Потому что новая администрация Трампа полностью про-крипто.
X становится экспериментальной площадкой для построения экономики Web 3.0. Интеграция социальных взаимодействий с финансовыми транзакциями может создать новую модель цифровой экономики, где контент, коммуникации и финансы существуют в единой экосистеме.
Запуск X Money Account запланирован на 2025 год.
X объявил о партнерстве с Visa для запуска X Money Account.
X заключил партнерство с крупнейшей платежной системой Visa для создания своей финансовой экосистемы.
Что предлагает X Money Account:
1. Мгновенные переводы между банковскими счетами и цифровым кошельком
2. P2P платежи в стиле Venmo и Zelle
3. Интеграция с Visa Direct для транзакций в реальном времени
X трансформируется из простой социальной сети в super-app по модели WeChat. Но за этим партнерством стоит стратегия Маска:
1. Экосистемный подход.
X становится не просто площадкой для общения, а центром экосистемы, объединяющей различные проекты Маска. Это мощный инструмент для продвижения Tesla, SpaceX, Starlink и других инициатив.
2. Финансовая инфраструктура нового поколения
Выбор Visa говорит о глобальных амбициях.
3. Движение к Web 3.0
X Money можно рассматривать как мост между традиционными финансами и новой цифровой экономикой. Маск, ранее влиявший на крипторынок через социальные медиа (вспомним историю с Dogecoin), теперь создает регулируемую платформу для финансовых инноваций. Потому что новая администрация Трампа полностью про-крипто.
X становится экспериментальной площадкой для построения экономики Web 3.0. Интеграция социальных взаимодействий с финансовыми транзакциями может создать новую модель цифровой экономики, где контент, коммуникации и финансы существуют в единой экосистеме.
Запуск X Money Account запланирован на 2025 год.
TechCrunch
X announces a partnership with Visa to power X Money’s wallet | TechCrunch
Elon Musk-owned social network X announced a partnership with Visa to handle person-to-person payments for its upcoming X Money product. The company will
❤11👍7⚡4🔥4😁1🤔1
Глава ЦБ Чехии предлагает инвестировать до 5% резервов банка в биткоин.
Это происходит после того, как США заявили, что планируют создать гос резерв из биткоина.
Основные причины инвестиций до 5% резервов банка, что составляет часть из 140 миллиардов евро в биткоин:
1. Диверсификация активов банка
2. Потенциальная возможность увеличения доходности, несмотря на признанные риски волатильности криптовалюты.
Если это предложение будет одобрено, Чешский Национальный Банк станет первым центральным банком в мире, который будет держать биткоин в своих резервах.
Это решение соответствует общей крипто-дружественной политике Чехии, которая недавно приняла закон об освобождении долгосрочных вложений в биткоин от налога на прирост капитала.
Это происходит после того, как США заявили, что планируют создать гос резерв из биткоина.
Основные причины инвестиций до 5% резервов банка, что составляет часть из 140 миллиардов евро в биткоин:
1. Диверсификация активов банка
2. Потенциальная возможность увеличения доходности, несмотря на признанные риски волатильности криптовалюты.
Если это предложение будет одобрено, Чешский Национальный Банк станет первым центральным банком в мире, который будет держать биткоин в своих резервах.
Это решение соответствует общей крипто-дружественной политике Чехии, которая недавно приняла закон об освобождении долгосрочных вложений в биткоин от налога на прирост капитала.
The Block
'I like profitability': Czech central bank chief proposes allocating up to 5% of reserves to bitcoin: FT
Czech National Bank Governor Aleš Michl said he will present a bitcoin investment plan to the bank’s board on Thursday.
👍5🔥5❤3
Hugging Face vs DeepSeek: как битва за открытость ИИ раскрывает будущее вычислений
Исследовательская команда Hugging Face объявила, что создает полностью открытую версию #DeepSeek R1 со всеми составляющими модели, подчеркивая недостаточную открытость текущей версии.
Этот шаг интересен не только намерением задействовать мощный кластер из 768 GPU Nvidia H100, но и тем, что он высвечивает более глубокие изменения в индустрии ИИ.
Катализатором дискуссии стало недавнее достижение #DeepSeek: компания продемонстрировала возможность запуска своей модели R1 на локальном оборудовании стоимостью всего $6000. Решение, построенное на архитектуре с двумя процессорами AMD EPYC и 768 ГБ оперативной памяти, полностью исключает необходимость в дорогостоящих GPU.
Это достижение указывает на важный сдвиг в индустрии: большинство вычислительных потребностей ИИ в будущем будет связано не с обучением моделей, а с их использованием (инференсом).
Как отмечают эксперты, крупным корпоративным пользователям предстоит сделать выбор: продолжать полагаться на дорогостоящие гиперскейлерные дата-центры или перейти на более экономичные локальные решения.
Локальное развертывание позволяет компаниям заменить постоянные платежи за облачные API единоразовыми инвестициями в оборудование.
Главный научный сотрудник Meta(запрещенная в РФ) по ИИ Ян ЛеКун считает, что индустрия ИИ стоит на пороге новой революции: будущие системы будут не только обрабатывать текст, но и понимать физический мир, обладать постоянной памятью, способностью к рассуждению и иерархическому планированию. Это неизбежно увеличит требования к вычислительной инфраструктуре для инференса.
Однако ЛеКун подчеркивает, что успех таких инноваций зависит не от конкуренции, а от сотрудничества: "Идея в том, что все получают пользу от идей друг друга. Никто не 'обгоняет' других, и ни одна страна не 'проигрывает' другой".
Складывающаяся ситуация позволяет сделать несколько важных выводов:
1. Будущее ИИ-вычислений смещается в сторону оптимизации инференса, а не обучения моделей.
2. Локальные решения могут оказаться более привлекательными для бизнеса, чем облачные сервисы.
3. Успех развития ИИ зависит от баланса между открытостью исследований и практической применимостью решений.
4. Ключевым фактором становится не столько технологическое лидерство, сколько экономическая эффективность и удобство внедрения.
Исследовательская команда Hugging Face объявила, что создает полностью открытую версию #DeepSeek R1 со всеми составляющими модели, подчеркивая недостаточную открытость текущей версии.
Этот шаг интересен не только намерением задействовать мощный кластер из 768 GPU Nvidia H100, но и тем, что он высвечивает более глубокие изменения в индустрии ИИ.
Катализатором дискуссии стало недавнее достижение #DeepSeek: компания продемонстрировала возможность запуска своей модели R1 на локальном оборудовании стоимостью всего $6000. Решение, построенное на архитектуре с двумя процессорами AMD EPYC и 768 ГБ оперативной памяти, полностью исключает необходимость в дорогостоящих GPU.
Это достижение указывает на важный сдвиг в индустрии: большинство вычислительных потребностей ИИ в будущем будет связано не с обучением моделей, а с их использованием (инференсом).
Как отмечают эксперты, крупным корпоративным пользователям предстоит сделать выбор: продолжать полагаться на дорогостоящие гиперскейлерные дата-центры или перейти на более экономичные локальные решения.
Локальное развертывание позволяет компаниям заменить постоянные платежи за облачные API единоразовыми инвестициями в оборудование.
Главный научный сотрудник Meta(запрещенная в РФ) по ИИ Ян ЛеКун считает, что индустрия ИИ стоит на пороге новой революции: будущие системы будут не только обрабатывать текст, но и понимать физический мир, обладать постоянной памятью, способностью к рассуждению и иерархическому планированию. Это неизбежно увеличит требования к вычислительной инфраструктуре для инференса.
Однако ЛеКун подчеркивает, что успех таких инноваций зависит не от конкуренции, а от сотрудничества: "Идея в том, что все получают пользу от идей друг друга. Никто не 'обгоняет' других, и ни одна страна не 'проигрывает' другой".
Складывающаяся ситуация позволяет сделать несколько важных выводов:
1. Будущее ИИ-вычислений смещается в сторону оптимизации инференса, а не обучения моделей.
2. Локальные решения могут оказаться более привлекательными для бизнеса, чем облачные сервисы.
3. Успех развития ИИ зависит от баланса между открытостью исследований и практической применимостью решений.
4. Ключевым фактором становится не столько технологическое лидерство, сколько экономическая эффективность и удобство внедрения.
Telegram
All about AI, Web 3.0, BCI
Hugging Face wants to reverse engineer DeepSeek’s R1 reasoning model
Hugging Face researchers say the Open-R1 project aims to create a fully open-source duplicate of the R1 model and make all of its components available to the AI community.
Elie Bakouch…
Hugging Face researchers say the Open-R1 project aims to create a fully open-source duplicate of the R1 model and make all of its components available to the AI community.
Elie Bakouch…
🔥14👍12💯4
Йошуа Бенжио представил 1-й в истории глобальный отчет о безопасности ИИ, поддержанный 30 странами, а также ОЭСР, ООН и ЕС.
Из всего отчета можно выделить 5 важных пунктов:
1. Будущее ИИ полностью зависит от решений, принимаемых сейчас. При правильном подходе ИИ может значительно улучшить жизнь людей, при неправильном - создать серьезные риски.
2. Главные риски:
- Потеря контроля человечества над системами ИИ
- ИИ-терроризм
- Массовая безработица из-за автоматизации
- Утечки конфиденциальных данных
- Использование ИИ для массовой слежки
3. Приоритетные меры защиты:
- Обязательное внедрение локальных моделей обработки данных
- Строгие криптографические протоколы
- Удаление персональных данных из тренировочных наборов
- Постоянный мониторинг безопасности
4. Критические направления исследований:
- Изучение методов утечки конфиденциальной информации
- Разработка масштабируемых систем защиты
- Создание надежных механизмов контроля ИИ
5. Необходимые действия на глобальном уровне:
- Срочная разработка общих стандартов безопасности
- Создание системы международного контроля
- Обеспечение прозрачности разработок
- Формирование глобальной системы реагирования на инциденты.
Из всего отчета можно выделить 5 важных пунктов:
1. Будущее ИИ полностью зависит от решений, принимаемых сейчас. При правильном подходе ИИ может значительно улучшить жизнь людей, при неправильном - создать серьезные риски.
2. Главные риски:
- Потеря контроля человечества над системами ИИ
- ИИ-терроризм
- Массовая безработица из-за автоматизации
- Утечки конфиденциальных данных
- Использование ИИ для массовой слежки
3. Приоритетные меры защиты:
- Обязательное внедрение локальных моделей обработки данных
- Строгие криптографические протоколы
- Удаление персональных данных из тренировочных наборов
- Постоянный мониторинг безопасности
4. Критические направления исследований:
- Изучение методов утечки конфиденциальной информации
- Разработка масштабируемых систем защиты
- Создание надежных механизмов контроля ИИ
5. Необходимые действия на глобальном уровне:
- Срочная разработка общих стандартов безопасности
- Создание системы международного контроля
- Обеспечение прозрачности разработок
- Формирование глобальной системы реагирования на инциденты.
International AI Safety Report
1👍17⚡4😁3❤2
Дарио Амодей, основатель Anthropic: #DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности
Амодей пишет, что #DeepSeek не сделал за $6 млн то, что стоило американским компаниям ИИ миллиарды. «Я могу говорить только за Anthropic, но Claude 3.5 Sonnet стоила несколько десятков миллионов долларов в обучении. Кроме того, 3.5 Sonnet не обучался каким-либо образом, который включал бы более крупную или более дорогую модель. Обучение Sonnet проводилось 9-12 месяцев назад, а модель DeepSeek была обучена в ноябре/декабре, при этом Sonnet остается заметно впереди во многих внутренних и внешних оценках. Таким образом, я думаю, справедливое утверждение будет: "DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности, за значительно меньшую стоимость (но не в тех пропорциях, которые люди предполагали)», - пишет Амодей.
Амодей продолжает: «Как я упомянул выше, Claude чрезвычайно хорош в программировании и в хорошо продуманном стиле взаимодействия с людьми (многие люди используют его для личных советов или поддержки). По этим и некоторым дополнительным задачам просто нет сравнения с DeepSeek. Эти факторы не появляются в числах масштабирования.
R1, которая является моделью, выпущенной на прошлой неделе и которая вызвала взрыв общественного внимания (включая ~17% падение акций Nvidia), гораздо менее интересна с точки зрения инноваций или инженерии, чем V3. Она добавляет второй этап обучения — обучение с подкреплением, и по существу повторяет то, что OpenAI сделала с o1 (они, похоже, находятся на схожем масштабе с похожими результатами). Однако, поскольку мы находимся на ранней части кривой масштабирования, возможно, чтобы несколько компаний производили модели этого типа, если они начинают с сильной предварительно обученной модели. Производство R1 при наличии V3, вероятно, было очень дешевым. Поэтому мы находимся в интересной "точке пересечения", где временно несколько компаний могут производить хорошие модели рассуждения. Это быстро перестанет быть правдой, когда все продвинутся дальше по кривой масштабирования на этих моделях».
Если исторический тренд снижения стоимости составляет ~4x в год, это означает, что в обычном ходе бизнеса — в нормальных трендах исторического снижения стоимости, как те, что происходили в 2023 и 2024 годах — мы бы ожидали модель в 3-4 раза дешевле, чем 3.5 Sonnet/GPT-4o около сейчас.
Однако американские компании скоро последуют — и они сделают это не копируя DeepSeek, а потому что они тоже достигают обычного тренда в снижении стоимости.
И DeepSeek, и американские компании ИИ имеют гораздо больше денег и чипов, чем они использовали для обучения своих флагманских моделей.
Амодей пишет, что #DeepSeek не сделал за $6 млн то, что стоило американским компаниям ИИ миллиарды. «Я могу говорить только за Anthropic, но Claude 3.5 Sonnet стоила несколько десятков миллионов долларов в обучении. Кроме того, 3.5 Sonnet не обучался каким-либо образом, который включал бы более крупную или более дорогую модель. Обучение Sonnet проводилось 9-12 месяцев назад, а модель DeepSeek была обучена в ноябре/декабре, при этом Sonnet остается заметно впереди во многих внутренних и внешних оценках. Таким образом, я думаю, справедливое утверждение будет: "DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности, за значительно меньшую стоимость (но не в тех пропорциях, которые люди предполагали)», - пишет Амодей.
Амодей продолжает: «Как я упомянул выше, Claude чрезвычайно хорош в программировании и в хорошо продуманном стиле взаимодействия с людьми (многие люди используют его для личных советов или поддержки). По этим и некоторым дополнительным задачам просто нет сравнения с DeepSeek. Эти факторы не появляются в числах масштабирования.
R1, которая является моделью, выпущенной на прошлой неделе и которая вызвала взрыв общественного внимания (включая ~17% падение акций Nvidia), гораздо менее интересна с точки зрения инноваций или инженерии, чем V3. Она добавляет второй этап обучения — обучение с подкреплением, и по существу повторяет то, что OpenAI сделала с o1 (они, похоже, находятся на схожем масштабе с похожими результатами). Однако, поскольку мы находимся на ранней части кривой масштабирования, возможно, чтобы несколько компаний производили модели этого типа, если они начинают с сильной предварительно обученной модели. Производство R1 при наличии V3, вероятно, было очень дешевым. Поэтому мы находимся в интересной "точке пересечения", где временно несколько компаний могут производить хорошие модели рассуждения. Это быстро перестанет быть правдой, когда все продвинутся дальше по кривой масштабирования на этих моделях».
Если исторический тренд снижения стоимости составляет ~4x в год, это означает, что в обычном ходе бизнеса — в нормальных трендах исторического снижения стоимости, как те, что происходили в 2023 и 2024 годах — мы бы ожидали модель в 3-4 раза дешевле, чем 3.5 Sonnet/GPT-4o около сейчас.
Однако американские компании скоро последуют — и они сделают это не копируя DeepSeek, а потому что они тоже достигают обычного тренда в снижении стоимости.
И DeepSeek, и американские компании ИИ имеют гораздо больше денег и чипов, чем они использовали для обучения своих флагманских моделей.
Darioamodei
Dario Amodei — On DeepSeek and Export Controls
👍13🤔12❤3💯2🤣1
Почему Дарио Амодей считает, что успех #DeepSeek не меняет правила игры, и что нас ждет дальше?
В развернутом анализе CEO Anthropic объясняет, почему кажущийся прорыв китайской компании вписывается в обычную траекторию развития ИИ, и что нас ждет дальше.
Амодей сначала говорит о 3-х фундаментальных закона развития ИИ:
1. Закон масштабирования:
- Чем больше ресурсов, тем лучше результаты
- Прогресс плавный и предсказуемый
- $1M = 20% задач, $10M = 40%, $100M = 60%
2. Закон смещения кривой:
- Инновации делают процесс эффективнее
- Улучшения могут быть:
* Небольшие (1.2x)
* Средние (2x)
* Значительные (10x)
- Общий темп улучшений: примерно 4x в год
3. Закон смены парадигмы:
- 2020-2023: обучение на текстах
- 2024: добавление Reinforcement Learning
- Сейчас: уникальная "точка перехода"
Что на самом деле сделал DeepSeek?
- Создал модель близкую к американским моделям 7-10 месячной давности
- Потратил меньше, но в рамках обычного тренда снижения затрат
- Имел доступ к серьезным ресурсам (~50,000 чипов, ~$1B)
Почему это не революция?
- Снижение затрат соответствует обычному тренду (4x в год)
- V3 более инновационна чем нашумевший R1
- Общие затраты компании сопоставимы с US лабораториями
По мнению Амодея, для создания действительно продвинутого ИИ потребуется:
- Миллионы чипов
- Десятки миллиардов долларов
- 2-3 года работы
Почему это важно понимать?
1. Для инвесторов:
- Падение акций NVIDIA на 17% необоснованно
- Потребность в чипах будет только расти
- Эффективность не снижает общие затраты
2. Для индустрии:
- Мы в точке перехода, где несколько компаний могут показывать хорошие результаты
- Это временное явление
- Скоро начнется новая фаза масштабирования
3. Для будущего ИИ:
- Повышение эффективности ведет к большим, а не меньшим затратам
- Компании инвестируют любую экономию в более мощные модели
- Конечная цель: ИИ умнее большинства людей почти во всем
DeepSeek демонстрирует не революционный прорыв, а ожидаемую точку на кривой прогресса. Настоящая гонка за создание сверхчеловеческого ИИ только начинается, и она потребует беспрецедентных ресурсов.
В развернутом анализе CEO Anthropic объясняет, почему кажущийся прорыв китайской компании вписывается в обычную траекторию развития ИИ, и что нас ждет дальше.
Амодей сначала говорит о 3-х фундаментальных закона развития ИИ:
1. Закон масштабирования:
- Чем больше ресурсов, тем лучше результаты
- Прогресс плавный и предсказуемый
- $1M = 20% задач, $10M = 40%, $100M = 60%
2. Закон смещения кривой:
- Инновации делают процесс эффективнее
- Улучшения могут быть:
* Небольшие (1.2x)
* Средние (2x)
* Значительные (10x)
- Общий темп улучшений: примерно 4x в год
3. Закон смены парадигмы:
- 2020-2023: обучение на текстах
- 2024: добавление Reinforcement Learning
- Сейчас: уникальная "точка перехода"
Что на самом деле сделал DeepSeek?
- Создал модель близкую к американским моделям 7-10 месячной давности
- Потратил меньше, но в рамках обычного тренда снижения затрат
- Имел доступ к серьезным ресурсам (~50,000 чипов, ~$1B)
Почему это не революция?
- Снижение затрат соответствует обычному тренду (4x в год)
- V3 более инновационна чем нашумевший R1
- Общие затраты компании сопоставимы с US лабораториями
По мнению Амодея, для создания действительно продвинутого ИИ потребуется:
- Миллионы чипов
- Десятки миллиардов долларов
- 2-3 года работы
Почему это важно понимать?
1. Для инвесторов:
- Падение акций NVIDIA на 17% необоснованно
- Потребность в чипах будет только расти
- Эффективность не снижает общие затраты
2. Для индустрии:
- Мы в точке перехода, где несколько компаний могут показывать хорошие результаты
- Это временное явление
- Скоро начнется новая фаза масштабирования
3. Для будущего ИИ:
- Повышение эффективности ведет к большим, а не меньшим затратам
- Компании инвестируют любую экономию в более мощные модели
- Конечная цель: ИИ умнее большинства людей почти во всем
DeepSeek демонстрирует не революционный прорыв, а ожидаемую точку на кривой прогресса. Настоящая гонка за создание сверхчеловеческого ИИ только начинается, и она потребует беспрецедентных ресурсов.
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Дарио Амодей, основатель Anthropic: #DeepSeek создала модель, близкую к производительности американских моделей 7-10 месячной давности
Амодей пишет, что #DeepSeek не сделал за $6 млн то, что стоило американским компаниям ИИ миллиарды. «Я могу говорить только…
Амодей пишет, что #DeepSeek не сделал за $6 млн то, что стоило американским компаниям ИИ миллиарды. «Я могу говорить только…
👍18🤣13❤5👏3🙏1
❗️CEO Anthropic тонко намекает, что гонка идет за то, кто 1-м в мире достигнет порога рекурсивного улучшения, то есть, когда ИИ сможет помогать в создании более совершенного ИИ
Что на самом деле говорит основатель Anthropic? Разбираем детально.
Амодей намекает на критический момент, когда ИИ сможет помогать в создании более совершенного ИИ. Это объясняет срочность в наращивании вычислительных мощностей: кто первым достигнет этой точки, может получить долгосрочное преимущество.
Ключевое понимание: гонка идет не только за текущие возможности, она идет за то, кто первым достигнет порога рекурсивного улучшения.
Говорит о точке перехода.
Сейчас временно несколько компаний могут создавать хорошие модели для рассуждений. Указывает на короткое окно возможностей. Предупреждает о скором закрытии этого окна.
❗️Намекает на непубличные возможности моделей:
- Предполагает существование более продвинутых версий
- Указывает на социальный аспект ИИ.
Намекает на подготовку нового поколения инфраструктуры
- Предполагает существование планов по значительному масштабированию
- Указывает на неизбежное увеличение разрыва между лидерами и остальными
Намекает на существование секретных методов обработки данных.
Указывает на критическую важность скорости развития.
Что на самом деле говорит основатель Anthropic? Разбираем детально.
Амодей намекает на критический момент, когда ИИ сможет помогать в создании более совершенного ИИ. Это объясняет срочность в наращивании вычислительных мощностей: кто первым достигнет этой точки, может получить долгосрочное преимущество.
Ключевое понимание: гонка идет не только за текущие возможности, она идет за то, кто первым достигнет порога рекурсивного улучшения.
Говорит о точке перехода.
Сейчас временно несколько компаний могут создавать хорошие модели для рассуждений. Указывает на короткое окно возможностей. Предупреждает о скором закрытии этого окна.
❗️Намекает на непубличные возможности моделей:
- Предполагает существование более продвинутых версий
- Указывает на социальный аспект ИИ.
Намекает на подготовку нового поколения инфраструктуры
- Предполагает существование планов по значительному масштабированию
- Указывает на неизбежное увеличение разрыва между лидерами и остальными
Намекает на существование секретных методов обработки данных.
Указывает на критическую важность скорости развития.
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Почему Дарио Амодей считает, что успех #DeepSeek не меняет правила игры, и что нас ждет дальше?
В развернутом анализе CEO Anthropic объясняет, почему кажущийся прорыв китайской компании вписывается в обычную траекторию развития ИИ, и что нас ждет дальше.…
В развернутом анализе CEO Anthropic объясняет, почему кажущийся прорыв китайской компании вписывается в обычную траекторию развития ИИ, и что нас ждет дальше.…
1👍16⚡6❤5👌2🤣2🤔1
Оказалось, что олигарх Сулейман Керимов имел долю в SpaceX через траст Heritage
Керимов получил долю в SpaceX в 2017 году, изначально она составляла около 1%. Спустя год он попал под санкции Минфина США. Но продолжал владеть долей.
4 года спустя, в июне 2022 года, Казначейство заблокировало траст на $1 млрд, который был создан в 2017 году для активов Керимова в США. К этому моменту доля в SpaceX была уже продана.
Керимов получил долю в SpaceX в 2017 году, изначально она составляла около 1%. Спустя год он попал под санкции Минфина США. Но продолжал владеть долей.
4 года спустя, в июне 2022 года, Казначейство заблокировало траст на $1 млрд, который был создан в 2017 году для активов Керимова в США. К этому моменту доля в SpaceX была уже продана.
РБК
Bloomberg узнал о доле Керимова в SpaceX
С 2017 года Керимов через Heritage Trust владел долей в SpaceX, изначально она составляла 1%, пишет Bloomberg. Сенатор попал под санкции спустя год, однако траст заблокировали только после начала
👍7😁7
Маск объявил о массовом производстве роботов-100млн/год
А в этой таблице указаны интересные новые технологии, которые будут использоваться в новом Cybertruck Tesla. Среди интересных - система связи Etherloop - технология, которая делает обмен данными в 1000 раз быстрее традиционных автомобильных систем. Это важно для современного автомобиля, т.к. по сути является компьютером на колесах, и скорость обмена данными между его системами критически важна для безопасности и функциональности.
Компания планирует масштабное производство человекоподобных роботов Optimus:
• Старт поставок другим компаниям: вторая половина 2026 года - 100 миллионов роботов в год
• Потенциальный доход: более $10 триллионов
Маск также сказал, что для обучения Optimus требуется в 10 раз больше вычислительной мощности, чем для автомобилей Tesla.
Напомним, что на приватной встрече с главой TSMC Маск отмечал, что будущее Tesla - роботы, а не электроавтомобили.
А в этой таблице указаны интересные новые технологии, которые будут использоваться в новом Cybertruck Tesla. Среди интересных - система связи Etherloop - технология, которая делает обмен данными в 1000 раз быстрее традиционных автомобильных систем. Это важно для современного автомобиля, т.к. по сути является компьютером на колесах, и скорость обмена данными между его системами критически важна для безопасности и функциональности.
Компания планирует масштабное производство человекоподобных роботов Optimus:
• Старт поставок другим компаниям: вторая половина 2026 года - 100 миллионов роботов в год
• Потенциальный доход: более $10 триллионов
Маск также сказал, что для обучения Optimus требуется в 10 раз больше вычислительной мощности, чем для автомобилей Tesla.
Напомним, что на приватной встрече с главой TSMC Маск отмечал, что будущее Tesla - роботы, а не электроавтомобили.
👀14🔥10👍4🏆4❤2
Перед РФ сейчас стоит вызов не только в ИИ, но и в криптовалютах, исходя из того, как США активно развивают эти 2 сферы - основатель @blockchainrf Ани Асланян
В своем комментарии для «Ведомости» Асланян отметила, что США сегодня строят экосистему вокруг индустрии криптовалют, которые интегрируются в традиционные финансы через 4 основных канала:
1. социальные сети, которые трансформируются в суперапп
2. регулируемые криптобиржи (Coinbase, Kraken и другие)
3. традиционные банки, инвестфонды и платежные системы (BlackRock, JPMorgan, Visa)
4. новые финтех-платформы (Truth.Fi и др).
В пример она приводит анонсированный Илоном Маском запуск платежного сервиса на базе соцсети Х «X Money Account» в партнерстве с Visa.
Консервативный подход России по отношению к криптоиндустрии не даст возможности стране войти в новую экономику.
Необходимые изменения:
- Легализация трансграничных платежей в криптовалютах для всего бизнеса, а не для закрытого круга бизнеса.
- Развитие регулируемого рынка стейблкоинов.
- Создание правовой базы для криптобизнеса.
В своем комментарии для «Ведомости» Асланян отметила, что США сегодня строят экосистему вокруг индустрии криптовалют, которые интегрируются в традиционные финансы через 4 основных канала:
1. социальные сети, которые трансформируются в суперапп
2. регулируемые криптобиржи (Coinbase, Kraken и другие)
3. традиционные банки, инвестфонды и платежные системы (BlackRock, JPMorgan, Visa)
4. новые финтех-платформы (Truth.Fi и др).
В пример она приводит анонсированный Илоном Маском запуск платежного сервиса на базе соцсети Х «X Money Account» в партнерстве с Visa.
Консервативный подход России по отношению к криптоиндустрии не даст возможности стране войти в новую экономику.
Необходимые изменения:
- Легализация трансграничных платежей в криптовалютах для всего бизнеса, а не для закрытого круга бизнеса.
- Развитие регулируемого рынка стейблкоинов.
- Создание правовой базы для криптобизнеса.
Ведомости
Что ждет криптоиндустрию после прихода Трампа
У новой администрации проактивный взгляд на криптовалюты и негативный – на цифровые нацвалюты
👍14💯8❤7😁4🔥1🤔1