#ByteDance представили ИИ-модель #Doubao-1.5-pro, вот её характеристики и сравнение с DeepSeek-R1
Doubao-1.5-pro - закрытая ИИ-модель с акцентом на оптимальный баланс производительности и эффективности использования ресурсов.
1. Архитектурные характеристики :
- Использует разреженную MoE (Mixture of Experts) архитектуру
- Достигает 7-кратного увеличения эффективности параметров по сравнению с плотными моделями
- Требует значительно меньше активных параметров при сохранении высокой производительности
- Превосходит показатели Llama3.1-405B при меньших вычислительных затратах
2. Мультимодальные возможности:
- Встроенная поддержка обработки изображений и речи
- Оригинальная система динамического разрешения для работы с изображениями
- Улучшенное понимание визуального контекста
- Интеграция речевых возможностей на уровне архитектуры
3. Производительность:
- На MMLU: 88.6%
- GPQA: 65.0%
- Показывает сильные результаты в задачах рассуждения (BBH: 91.6)
Сравнение с DeepSeek-R1.
Ключевые различия в подходах:
1. Doubao-1.5-pro фокусируется на эффективности и мультимодальности, стремясь достичь максимальной производительности при минимальных ресурсах.
2. DeepSeek-R1 делает акцент на улучшении способностей к рассуждению через масштабное обучение с подкреплением.
Практические выводы:
- Doubao-1.5-pro может быть предпочтительнее для задач, требующих эффективного использования ресурсов и мультимодальных возможностей.
- #DeepSeek-R1 лучше подходит для сложных задач рассуждения и может быть легче интегрирован благодаря открытому исходному коду
Обе модели представляют собой значительный шаг вперёд в развитии языковых моделей, но с разными приоритетами в своей архитектуре и оптимизации.
_______
Источник | #blockchainRF
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Doubao-1.5-pro - закрытая ИИ-модель с акцентом на оптимальный баланс производительности и эффективности использования ресурсов.
1. Архитектурные характеристики :
- Использует разреженную MoE (Mixture of Experts) архитектуру
- Достигает 7-кратного увеличения эффективности параметров по сравнению с плотными моделями
- Требует значительно меньше активных параметров при сохранении высокой производительности
- Превосходит показатели Llama3.1-405B при меньших вычислительных затратах
2. Мультимодальные возможности:
- Встроенная поддержка обработки изображений и речи
- Оригинальная система динамического разрешения для работы с изображениями
- Улучшенное понимание визуального контекста
- Интеграция речевых возможностей на уровне архитектуры
3. Производительность:
- На MMLU: 88.6%
- GPQA: 65.0%
- Показывает сильные результаты в задачах рассуждения (BBH: 91.6)
Сравнение с DeepSeek-R1.
Ключевые различия в подходах:
1. Doubao-1.5-pro фокусируется на эффективности и мультимодальности, стремясь достичь максимальной производительности при минимальных ресурсах.
2. DeepSeek-R1 делает акцент на улучшении способностей к рассуждению через масштабное обучение с подкреплением.
Практические выводы:
- Doubao-1.5-pro может быть предпочтительнее для задач, требующих эффективного использования ресурсов и мультимодальных возможностей.
- #DeepSeek-R1 лучше подходит для сложных задач рассуждения и может быть легче интегрирован благодаря открытому исходному коду
Обе модели представляют собой значительный шаг вперёд в развитии языковых моделей, но с разными приоритетами в своей архитектуре и оптимизации.
_______
Источник | #blockchainRF
@F_S_C_P
Узнай судьбу картами Таро:
✨Anna Taro bot
Telegram
All about AI, Web 3.0, BCI
ByteDance unveils Doubao-1.5-pro that seems to be world class, comparable or better to GPT-4o, latest Gemini, DS & Claude.
Its MoE architecture explores balance bw model & reasoning.
It build highly autonomous data production system & not using data from…
Its MoE architecture explores balance bw model & reasoning.
It build highly autonomous data production system & not using data from…
Новый флагман от Alibaba - Qwen2.5-Max, которая превосходит #Deepseek-V3 в нескольких ключевых бенчмарках
В день китайского Нового года команда Alibaba представила свою новую языковую модель Qwen2.5-Max, которая не просто конкурирует с последними достижениями в области AI, но и превосходит их по ряду показателей.
Qwen2.5-Max — это масштабная MoE (Mixture-of-Experts) ИИ-модель, обученная на более 20 триллионов токенов.
В сравнительных тестах Qwen2.5-Max показывает выдающиеся результаты, превосходя DeepSeek V3 в ключевых бенчмарках:
- Arena-Hard (тест на соответствие человеческим предпочтениям)
- LiveBench (оценка общих возможностей)
- LiveCodeBench (тестирование навыков программирования)
- GPQA-Diamond
Qwen2.5-Max доступна через несколько каналов:
1. Qwen Chat — для прямого взаимодействия с моделью
2. API Alibaba Cloud — для интеграции в собственные проекты
3. Демо-версия на платформе Hugging Face
API Qwen полностью совместим с OpenAI API.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
В день китайского Нового года команда Alibaba представила свою новую языковую модель Qwen2.5-Max, которая не просто конкурирует с последними достижениями в области AI, но и превосходит их по ряду показателей.
Qwen2.5-Max — это масштабная MoE (Mixture-of-Experts) ИИ-модель, обученная на более 20 триллионов токенов.
В сравнительных тестах Qwen2.5-Max показывает выдающиеся результаты, превосходя DeepSeek V3 в ключевых бенчмарках:
- Arena-Hard (тест на соответствие человеческим предпочтениям)
- LiveBench (оценка общих возможностей)
- LiveCodeBench (тестирование навыков программирования)
- GPQA-Diamond
Qwen2.5-Max доступна через несколько каналов:
1. Qwen Chat — для прямого взаимодействия с моделью
2. API Alibaba Cloud — для интеграции в собственные проекты
3. Демо-версия на платформе Hugging Face
API Qwen полностью совместим с OpenAI API.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Qwen
Qwen2.5-Max: Exploring the Intelligence of Large-scale MoE Model
QWEN CHAT API DEMO DISCORD
It is widely recognized that continuously scaling both data size and model size can lead to significant improvements in model intelligence. However, the research and industry community has limited experience in effectively scaling…
It is widely recognized that continuously scaling both data size and model size can lead to significant improvements in model intelligence. However, the research and industry community has limited experience in effectively scaling…
👍4❤1
Сэм Альтман впервые поддержал open source, а также рассказал об изменениях в экономике из-за ИИ
Сегодня в ночи глава OpenAI выпустил в своем блоге новое эссе, где он размышляет об экономических изменениях, которые возникают из-за ИИ, но нас удивило несколько вещей.
Во-первых, насколько радикально изменилась его риторика в сторону открытости - очевидно, из-за #DeepSeek . Хотя, если внимательно читать, он очень осторожен в формулировках и нигде прямо не обещает открыть код моделей OpenAI. Это больше похоже на признание общего тренда в индустрии, чем на заявление о смене курса компании.
Что ждёт нас в ближайшем будущем по Альтману?
1. ИИ-агенты как виртуальные коллеги
2. Первой серьезно изменится сфера разработки ПО
3. Научный прогресс значительно ускорится
4. Большинство товаров подешевеет
5. Предметы роскоши и земля подорожают.
Его три наблюдения об экономике ИИ:
1. Стоимость ИИ падает в 10 раз каждые 12 месяцев (против закона Мура 2x/18мес). К 2035г. 1 человек сможет получить доступ к интеллектуальным возможностям, равным всем людям 2025г. вместе взятым.
2. Очень интересны его мысли о будущем рынка труда. Он говорит о появлении совершенно новых профессий, и мы видим здесь целый спектр возможностей: от операторов команд ИИ-агентов до специалистов по человеко-ИИ взаимодействиям. Похоже, что самыми ценными станут навыки направления и координации ИИ, а не выполнение конкретных задач.
3. Его прогноз о ценах тоже заставляет задуматься. Получается интересный парадокс: большинство товаров подешевеет благодаря ИИ и автоматизации, но настоящая роскошь - вещи, которые нельзя масштабировать или воспроизвести с помощью ИИ - станет еще дороже. Земля, уникальный человеческий опыт, ручная работа - всё это может стать новым определением премиум-сегмента.
Что нас действительно впечатлило - это его видение демократизации ИИ. Идея "вычислительных бюджетов" для каждого человека звучит почти как универсальный базовый доход, только в сфере ИИ. Хотя опять же, он оставляет открытым вопрос о том, как именно это будет реализовано.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Секретики!
-------
Сегодня в ночи глава OpenAI выпустил в своем блоге новое эссе, где он размышляет об экономических изменениях, которые возникают из-за ИИ, но нас удивило несколько вещей.
Во-первых, насколько радикально изменилась его риторика в сторону открытости - очевидно, из-за #DeepSeek . Хотя, если внимательно читать, он очень осторожен в формулировках и нигде прямо не обещает открыть код моделей OpenAI. Это больше похоже на признание общего тренда в индустрии, чем на заявление о смене курса компании.
Что ждёт нас в ближайшем будущем по Альтману?
1. ИИ-агенты как виртуальные коллеги
2. Первой серьезно изменится сфера разработки ПО
3. Научный прогресс значительно ускорится
4. Большинство товаров подешевеет
5. Предметы роскоши и земля подорожают.
Его три наблюдения об экономике ИИ:
1. Стоимость ИИ падает в 10 раз каждые 12 месяцев (против закона Мура 2x/18мес). К 2035г. 1 человек сможет получить доступ к интеллектуальным возможностям, равным всем людям 2025г. вместе взятым.
2. Очень интересны его мысли о будущем рынка труда. Он говорит о появлении совершенно новых профессий, и мы видим здесь целый спектр возможностей: от операторов команд ИИ-агентов до специалистов по человеко-ИИ взаимодействиям. Похоже, что самыми ценными станут навыки направления и координации ИИ, а не выполнение конкретных задач.
3. Его прогноз о ценах тоже заставляет задуматься. Получается интересный парадокс: большинство товаров подешевеет благодаря ИИ и автоматизации, но настоящая роскошь - вещи, которые нельзя масштабировать или воспроизвести с помощью ИИ - станет еще дороже. Земля, уникальный человеческий опыт, ручная работа - всё это может стать новым определением премиум-сегмента.
Что нас действительно впечатлило - это его видение демократизации ИИ. Идея "вычислительных бюджетов" для каждого человека звучит почти как универсальный базовый доход, только в сфере ИИ. Хотя опять же, он оставляет открытым вопрос о том, как именно это будет реализовано.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Секретики!
-------
Sam Altman
Three Observations
Our mission is to ensure that AGI (Artificial General Intelligence) benefits all of humanity.
Systems that start to point to AGI* are coming into view, and so we think it’s important to...
Systems that start to point to AGI* are coming into view, and so we think it’s important to...
👍2
#DeepSeek и #Kimi представили технологии, которые могут изменить возможности языковых моделей
Сразу 2 китайские компании
DeepSeek и Kimi почти одновременно анонсировали технологии, которые могут кардинально изменить возможности языковых моделей.
DeepSeek представили NSA, а Kimi выпустила MoBA - два подхода к решению одной из главных проблем современных ИИ систем - неэффективной работы с длинными текстами.
Современные ИИ модели тратят до 80% времени обработки длинных текстов на механизм внимания. Это приводит к огромным затратам на вычисления. Ограничивает возможности работы с большими документами, кодовыми базами и длинными диалогами.
DeepSeek NSA предлагает трехуровневый подход:
- Сжатие токенов для общего контекста
- Умное выделение важных частей текста
- Локальный анализ через "скользящее окно".
Kimi MoBA использует:
- Разделение контекста на блоки
- Умную систему выбора релевантных блоков
- Плавное переключение между полным и разреженным вниманием.
Результаты:
- NSA: ускорение до 11.6 раз при декодировании. NSA оптимизирован под современные GPU архитектуры.
- MoBA: ускорение в 6.5 раз в производственной среде. MoBA предоставляет открытый исходный код.
- Оба решения сохраняют или улучшают качество работы моделей. Обе технологии можно интегрировать в существующие системы.
Для бизнеса преимущества:
- Снижение стоимости использования ИИ
- Возможность работы с большими документами
- Более эффективная автоматизация процессов.
Эксперты отмечают несколько ключевых моментов:
1. Технологии переходят от простой оптимизации к фундаментальным изменениям в работе ИИ.
2. Найден баланс между возможностями и стоимостью вычислений.
3. Открываются новые возможности для практического применения.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Сразу 2 китайские компании
DeepSeek и Kimi почти одновременно анонсировали технологии, которые могут кардинально изменить возможности языковых моделей.
DeepSeek представили NSA, а Kimi выпустила MoBA - два подхода к решению одной из главных проблем современных ИИ систем - неэффективной работы с длинными текстами.
Современные ИИ модели тратят до 80% времени обработки длинных текстов на механизм внимания. Это приводит к огромным затратам на вычисления. Ограничивает возможности работы с большими документами, кодовыми базами и длинными диалогами.
DeepSeek NSA предлагает трехуровневый подход:
- Сжатие токенов для общего контекста
- Умное выделение важных частей текста
- Локальный анализ через "скользящее окно".
Kimi MoBA использует:
- Разделение контекста на блоки
- Умную систему выбора релевантных блоков
- Плавное переключение между полным и разреженным вниманием.
Результаты:
- NSA: ускорение до 11.6 раз при декодировании. NSA оптимизирован под современные GPU архитектуры.
- MoBA: ускорение в 6.5 раз в производственной среде. MoBA предоставляет открытый исходный код.
- Оба решения сохраняют или улучшают качество работы моделей. Обе технологии можно интегрировать в существующие системы.
Для бизнеса преимущества:
- Снижение стоимости использования ИИ
- Возможность работы с большими документами
- Более эффективная автоматизация процессов.
Эксперты отмечают несколько ключевых моментов:
1. Технологии переходят от простой оптимизации к фундаментальным изменениям в работе ИИ.
2. Найден баланс между возможностями и стоимостью вычислений.
3. Открываются новые возможности для практического применения.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
Telegram
All about AI, Web 3.0, BCI
#DeepSeek introduced NSA: A Hardware-Aligned and Natively Trainable Sparse Attention mechanism for ultra-fast long-context training & inference
Core components of NSA:
1. Dynamic hierarchical sparse strategy
2. Coarse-grained token compression
3. Fine-grained…
Core components of NSA:
1. Dynamic hierarchical sparse strategy
2. Coarse-grained token compression
3. Fine-grained…
Вот это конкуренция! #DeepSeek обваливает цены на экономику ИИ, а OpenAI делает Deep research массовым - это демократизация ИИ
Свежие анонсы лидеров ИИ подтверждают прогноз нашего канала @blockchainrf о том, что базовые ИИ-модели станут товаром, а реальная ценность будет в агентах и специализированных решениях.
DeepSeek сегодня объявил сразу 2 важных анонса:
1. Ценовая война. С сегодняшнего дня компания вводит агрессивные скидки в непиковые часы (16:30-00:30 UTC):
- DeepSeek-V3: -50%
- DeepSeek-R1: -75% (!)
Вдумайтесь: стоимость вывода для R1 падает с $2.19 до $0.550 за миллион токенов. Это прямое подтверждение тезиса о том, что базовые ИИ-модели становятся товаром.
2. Технологическая демократизация. DeepSeek выпускает DeepGEMM — высокоэффективную библиотеку с выдающимися характеристиками. Подробности тут.
А OpenAI движется к модели "интеллект как сервис"
Одновременно OpenAI делает серию анонсов, показывающих переход от продажи доступа к моделям к продаже уровней интеллекта:
1. Deep research для всех платных пользователей.
- Plus, Team, Edu и Enterprise получают 10 запросов/месяц
- Pro пользователи — 120 запросов/месяц
2. Advanced Voice на базе GPT-4o mini для бесплатных пользователей:
- Бесплатный доступ к технологии, но с ограничениями
- Plus и Pro получают расширенные возможности
В то же время Alibaba бросает вызов в сфере ИИ-видео и выпускает Wan2.1 — набор продвинутых моделей для видео:
- Генерация в 2,5 раза быстрее SOTA моделей
- Превосходная работа со сложными движениями и физикой
- Работает на китайском и английском языках.
Что это значит для рынка ИИ?
1. Базовые модели становятся товаром. Как мы писали ранее, базовые ИИ-модели станут как ОС — широкодоступными и дешевыми. Мы наблюдаем это в реальном времени с ценовой политикой DeepSeek.
2. Смещение ценности к специализированным решениям.
OpenAI фокусируется на создании функций вроде Deep research — это уже не просто API, а готовое решение конкретной проблемы.
3. Многоуровневая стратегия монетизации.
Компании четко сегментируют функциональность по уровням подписки:
- Бесплатный уровень: базовые возможности
- Plus/Team: доступ к продвинутым функциям с ограничениями
- Pro/Enterprise: максимальные возможности
4. Эффективность вместо сырой мощности. DeepSeek с их компактным, но мощным DeepGEMM подтверждает, что "алгоритмы становятся эффективнее" и "маленькие дистиллированные модели показывают хорошие результаты".
_______
Источник | #blockchainRF
@F_S_C_P
⚙️ Разработка ботов Telegram от 5000 руб
Свежие анонсы лидеров ИИ подтверждают прогноз нашего канала @blockchainrf о том, что базовые ИИ-модели станут товаром, а реальная ценность будет в агентах и специализированных решениях.
DeepSeek сегодня объявил сразу 2 важных анонса:
1. Ценовая война. С сегодняшнего дня компания вводит агрессивные скидки в непиковые часы (16:30-00:30 UTC):
- DeepSeek-V3: -50%
- DeepSeek-R1: -75% (!)
Вдумайтесь: стоимость вывода для R1 падает с $2.19 до $0.550 за миллион токенов. Это прямое подтверждение тезиса о том, что базовые ИИ-модели становятся товаром.
2. Технологическая демократизация. DeepSeek выпускает DeepGEMM — высокоэффективную библиотеку с выдающимися характеристиками. Подробности тут.
А OpenAI движется к модели "интеллект как сервис"
Одновременно OpenAI делает серию анонсов, показывающих переход от продажи доступа к моделям к продаже уровней интеллекта:
1. Deep research для всех платных пользователей.
- Plus, Team, Edu и Enterprise получают 10 запросов/месяц
- Pro пользователи — 120 запросов/месяц
2. Advanced Voice на базе GPT-4o mini для бесплатных пользователей:
- Бесплатный доступ к технологии, но с ограничениями
- Plus и Pro получают расширенные возможности
В то же время Alibaba бросает вызов в сфере ИИ-видео и выпускает Wan2.1 — набор продвинутых моделей для видео:
- Генерация в 2,5 раза быстрее SOTA моделей
- Превосходная работа со сложными движениями и физикой
- Работает на китайском и английском языках.
Что это значит для рынка ИИ?
1. Базовые модели становятся товаром. Как мы писали ранее, базовые ИИ-модели станут как ОС — широкодоступными и дешевыми. Мы наблюдаем это в реальном времени с ценовой политикой DeepSeek.
2. Смещение ценности к специализированным решениям.
OpenAI фокусируется на создании функций вроде Deep research — это уже не просто API, а готовое решение конкретной проблемы.
3. Многоуровневая стратегия монетизации.
Компании четко сегментируют функциональность по уровням подписки:
- Бесплатный уровень: базовые возможности
- Plus/Team: доступ к продвинутым функциям с ограничениями
- Pro/Enterprise: максимальные возможности
4. Эффективность вместо сырой мощности. DeepSeek с их компактным, но мощным DeepGEMM подтверждает, что "алгоритмы становятся эффективнее" и "маленькие дистиллированные модели показывают хорошие результаты".
_______
Источник | #blockchainRF
@F_S_C_P
⚙️ Разработка ботов Telegram от 5000 руб
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
❗️Смена экономики:не ИТ-железо и не базовые ИИ-модели будут иметь долгосрочную ценность
Почему гонка за строительством ЦОДов может оказаться ошибкой, и как ИИ- агенты изменят расстановку сил в технологическом секторе?
В то время как участники WEF в Давосе…
Почему гонка за строительством ЦОДов может оказаться ошибкой, и как ИИ- агенты изменят расстановку сил в технологическом секторе?
В то время как участники WEF в Давосе…
👍4💩2
Гарвард выпустил open source ИИ-агента для врачей, фармацевтов, фармакологов и других медицинских работников
TxAgent - ИИ-система, разработанная для анализа терапевтических проблем.
Ключевые особенности и преимущества:
1. Мышление, а не просто прогнозирование. В отличие от предсказательных моделей, TxAgent способен мыслить через терапевтические проблемы и интегрировать биомедицинские знания в реальном времени.
2. При сравнении с #DeepSeek-R1 (671B, NVIDIA) и другими моделями ИИ, TxAgent показал результаты в многоступенчатом терапевтическом мышлении, достигая точности до 92,1% в выборе лекарств, персонализации лечения и терапевтических рассуждениях.
3. TxAgent имеет доступ к 211 инструментам.
Продвинутые технологические возможности:
1. Структурированное, многошаговое принятие решений
2. Взаимодействие с 211 биомедицинскими инструментами
3. Интеграция знаний в реальном времени и непрерывное обучение
4. Динамический выбор инструментов
5. Обоснованный медицинский ИИ с минимальным риском "галлюцинаций".
_______
Источник | #blockchainRF
@F_S_C_P
Стань спонсором!
TxAgent - ИИ-система, разработанная для анализа терапевтических проблем.
Ключевые особенности и преимущества:
1. Мышление, а не просто прогнозирование. В отличие от предсказательных моделей, TxAgent способен мыслить через терапевтические проблемы и интегрировать биомедицинские знания в реальном времени.
2. При сравнении с #DeepSeek-R1 (671B, NVIDIA) и другими моделями ИИ, TxAgent показал результаты в многоступенчатом терапевтическом мышлении, достигая точности до 92,1% в выборе лекарств, персонализации лечения и терапевтических рассуждениях.
3. TxAgent имеет доступ к 211 инструментам.
Продвинутые технологические возможности:
1. Структурированное, многошаговое принятие решений
2. Взаимодействие с 211 биомедицинскими инструментами
3. Интеграция знаний в реальном времени и непрерывное обучение
4. Динамический выбор инструментов
5. Обоснованный медицинский ИИ с минимальным риском "галлюцинаций".
_______
Источник | #blockchainRF
@F_S_C_P
Стань спонсором!
zitniklab.hms.harvard.edu
TxAgent
An AI Agent for therapeutic reasoning across a universe of tools
❤7
Китай выпускает новую ИИ-модель, которая лучше #DeepSeek и GPT-4.5
Hunyuan-T1 — это новая ИИ-модель от Tencent, она основана на архитектуре Hunyuan TurboS и разработана с акцентом на скорость, точность и эффективность. https://t.iss.one/alwebbci/3127
У этой модели:
1. Гибридная архитектура Mamba-Transformer MoE.
Hunyuan-T1 — первая модель такого масштаба, использующая комбинацию Mamba и Transformer в рамках подхода Mixture of Experts (MoE).
2. Сильная логика и лаконичность. Модель способна точно следовать сложным инструкциям и выдавать четкие, логически выверенные ответы. Это делает её отличным инструментом для задач, где важна структура и ясность.
3. Минимальные галлюцинации.
4. Высокая скорость. Первое слово появляется менее чем за секунду, а скорость генерации текста достигает 60–80 токенов в секунду. Это отличный показатель для модели, работающей с такими сложными задачами.
Превосходство:
- Над DeepSeek: Hunyuan-T1 быстрее (60–80 токенов/с против "медленного" R1), возможно, лучше в лаконичности и обработке длинных текстов. DeepSeek выигрывает в открытости и цене.
- Над GPT-4.5: Hunyuan-T1 может опережать в скорости, логике и стоимости, а также в обработке сверхдлинных контекстов. GPT-4.5, вероятно, лучше в естественности общения и эмоциональном интеллекте.
Также команда выпустила исследование Insight-V, которое является шагом к тому, чтобы мультимодальные модели могли не просто видеть и говорить, а логически рассуждать на основе визуальных данных, как это делает человек.
Это одна из первых попыток создать систему, вдохновленную подходом OpenAI o1, но с акцентом на обработку визуальной информации в сочетании с текстовыми данными.
Code.
_______
Источник | #blockchainRF
@F_S_C_P
⚙️ Разработка ботов Telegram от 5000 руб
Hunyuan-T1 — это новая ИИ-модель от Tencent, она основана на архитектуре Hunyuan TurboS и разработана с акцентом на скорость, точность и эффективность. https://t.iss.one/alwebbci/3127
У этой модели:
1. Гибридная архитектура Mamba-Transformer MoE.
Hunyuan-T1 — первая модель такого масштаба, использующая комбинацию Mamba и Transformer в рамках подхода Mixture of Experts (MoE).
2. Сильная логика и лаконичность. Модель способна точно следовать сложным инструкциям и выдавать четкие, логически выверенные ответы. Это делает её отличным инструментом для задач, где важна структура и ясность.
3. Минимальные галлюцинации.
4. Высокая скорость. Первое слово появляется менее чем за секунду, а скорость генерации текста достигает 60–80 токенов в секунду. Это отличный показатель для модели, работающей с такими сложными задачами.
Превосходство:
- Над DeepSeek: Hunyuan-T1 быстрее (60–80 токенов/с против "медленного" R1), возможно, лучше в лаконичности и обработке длинных текстов. DeepSeek выигрывает в открытости и цене.
- Над GPT-4.5: Hunyuan-T1 может опережать в скорости, логике и стоимости, а также в обработке сверхдлинных контекстов. GPT-4.5, вероятно, лучше в естественности общения и эмоциональном интеллекте.
Также команда выпустила исследование Insight-V, которое является шагом к тому, чтобы мультимодальные модели могли не просто видеть и говорить, а логически рассуждать на основе визуальных данных, как это делает человек.
Это одна из первых попыток создать систему, вдохновленную подходом OpenAI o1, но с акцентом на обработку визуальной информации в сочетании с текстовыми данными.
Code.
_______
Источник | #blockchainRF
@F_S_C_P
⚙️ Разработка ботов Telegram от 5000 руб
Telegram
All about AI, Web 3.0, BCI
Tencent released Hunyuan-T1
- Better than GPT-4.5 and #DeepSeek R1.
- ultra-large-scale reasoning.
- Hybrid-Mamba-Transformer MoE Architecture –
- Strong Logic & Concise Writing
- 60-80 tokens/sec generation speed.
T1 Experience
Demo
- Better than GPT-4.5 and #DeepSeek R1.
- ultra-large-scale reasoning.
- Hybrid-Mamba-Transformer MoE Architecture –
- Strong Logic & Concise Writing
- 60-80 tokens/sec generation speed.
T1 Experience
Demo
👍2❤1
#DeepSeek представили технологию, превращающую 27млрд-модель в конкурента GPT-4o
DeepSeek развивает новый тренд в ИИ - масштабирование моделей через оптимизацию вывода (inference) вместо увеличения размера моделей.
Этот тренд уже начали показывать Databricks и Camel-AI.
SPCT (Self-Principled Critique Tuning) – это новый метод, который позволяет значительно улучшить эффективность моделей вознаграждения без увеличения размера модели.
SPCT работает через генерацию принципов оценки на лету и параллельную выборку нескольких наборов оценок, которые затем агрегируются для получения более точного результата.
Этот подход не требует специально размеченных данных для оценки качества ответов в каждом домене – модель сама определяет релевантные критерии и применяет их к оценке.
Эмпирические исследования показывают, что DeepSeek-GRM-27млрд с использованием 32 параллельных выборок превосходит Claude 3.5 Sonnet, GPT-4o и Nemotron-4-340млрд-Reward на стандартных бенчмарках оценки LLM, что эквивалентно производительности моделей с 671млрд параметров — в ~25 раз больше параметров.
SPCT подходит для:
1. Создания специализированных LLM с помощью RLHF с использованием меньшего количества вычислительных ресурсов
2. Повышения качества существующих моделей через более точные оценки их ответов
3. Гибкого управления балансом качества и стоимости в зависимости от конкретных задач
4. Разработки систем с улучшающимся циклом использования – чем больше запросов обрабатывает система, тем лучше она становится.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
DeepSeek развивает новый тренд в ИИ - масштабирование моделей через оптимизацию вывода (inference) вместо увеличения размера моделей.
Этот тренд уже начали показывать Databricks и Camel-AI.
SPCT (Self-Principled Critique Tuning) – это новый метод, который позволяет значительно улучшить эффективность моделей вознаграждения без увеличения размера модели.
SPCT работает через генерацию принципов оценки на лету и параллельную выборку нескольких наборов оценок, которые затем агрегируются для получения более точного результата.
Этот подход не требует специально размеченных данных для оценки качества ответов в каждом домене – модель сама определяет релевантные критерии и применяет их к оценке.
Эмпирические исследования показывают, что DeepSeek-GRM-27млрд с использованием 32 параллельных выборок превосходит Claude 3.5 Sonnet, GPT-4o и Nemotron-4-340млрд-Reward на стандартных бенчмарках оценки LLM, что эквивалентно производительности моделей с 671млрд параметров — в ~25 раз больше параметров.
SPCT подходит для:
1. Создания специализированных LLM с помощью RLHF с использованием меньшего количества вычислительных ресурсов
2. Повышения качества существующих моделей через более точные оценки их ответов
3. Гибкого управления балансом качества и стоимости в зависимости от конкретных задач
4. Разработки систем с улучшающимся циклом использования – чем больше запросов обрабатывает система, тем лучше она становится.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney
👍2❤1
Зато новые модельки OpenAI могут хорошо понимать картинки и рассуждать ими (образами). Вот Вальдо вам найдёт, если вы ещё его ищите https://t.iss.one/Futuris/3395
———
Российские компании и госструктуры должны будут указывать, что общаются с гражданами по телефону или через интернет с помощью ИИ, если такие технологии применяются в их контакт-центрах. Это следует из законопроекта «О регулировании систем искусственного интеллекта»
———
Свыше 50% финансового оборота в торговле России сегодня приходится на онлайн-платформы
———
ЕС одобрил продажу препарата леканемаб для лечения болезни Альцгеймера https://www.dn.se/direkt/2025-04-15/eu-godkanner-forsaljning-av-alzheimersmedicin/
———
Bloomberg: Perplexity ведет переговоры об интеграции своего ассистента в смартфоны Samsung и Motorola
———
Платформа Discord начала требовать от некоторых пользователей проверку возраста с использованием технологий распознавания лиц и удостоверений личности
———
По информации источника Bloomberg, OpenAI ведет переговоры о приобретении Windsurf (ранее известного как Codeium) — инструмента для программирования с помощью искусственного интеллекта — за около $3 млрд. Это будет крупнейшее приобретение OpenAI на сегодняшний день.
https://www.bloomberg.com/news/articles/2025-04-16/openai-said-to-be-in-talks-to-buy-windsurf-for-about-3-billion
———
Беларусь готова принять на работу 100-150 тыс. пакистанских специалистов. Лучше - семьями https://belta.by/president/view/lukashenko-belarus-gotova-prinjat-na-rabotu-100-150-tys-pakistanskih-spetsialistov-708448-2025/
———
Киберразведчики из компании PRODAFT объявили о скупке учетных записей с даркнет-форумов. Для этих целей была запущена инициатива SYS, основная задача которой — улучшение качества HUMINT-операций (разведки с участием человека) и проникновение в закрытые сообщества киберпреступников.
———
Глава ФРС говорит что криптовалюта уже стала мейнстримом.
— Джером Пауэлл.
———
Крупнейшую солнечную электростанцию Ivanpah в калифорнийской пустыне Мохаве закрывают. Сотни тысяч зеркал этой масштабной инсталляции направляли солнечные лучи на башни с водой, где из водяного пара генерировалась электроэнергия.
Теперь Ivanpah называют ошибкой, неэффективным и убыточным проектом, который вдобавок нанёс сильнейшей ущерб природе пустыни.
https://t.iss.one/groks/4209
———
CEO Nvidia встретился с основателем #DeepSeek для обсуждения новых дизайнов чипов
Дженсен Хуанг встретился со своими китайскими клиентами, включая основателя DeepSeek Лян Вэньфэна для обсуждения новых дизайнов чипов, которые не подпадали бы под новые экспортные ограничения США.
Он также провел переговоры с вице-премьером Китая Хэ Лифэном.
———
16 апреля 2025 года Роскомнадзор сообщил, что в «белый список» IP-адресов, использующих иностранные протоколы шифрования, внесено 75 тыс. записей.
———
Центробанк: треть дропперов — нерезиденты. Ведомство рассматривает ужесточение доступа к банковским картам. https://t.iss.one/platshit/1119
———
———
Российские компании и госструктуры должны будут указывать, что общаются с гражданами по телефону или через интернет с помощью ИИ, если такие технологии применяются в их контакт-центрах. Это следует из законопроекта «О регулировании систем искусственного интеллекта»
———
Свыше 50% финансового оборота в торговле России сегодня приходится на онлайн-платформы
———
ЕС одобрил продажу препарата леканемаб для лечения болезни Альцгеймера https://www.dn.se/direkt/2025-04-15/eu-godkanner-forsaljning-av-alzheimersmedicin/
———
Bloomberg: Perplexity ведет переговоры об интеграции своего ассистента в смартфоны Samsung и Motorola
———
Платформа Discord начала требовать от некоторых пользователей проверку возраста с использованием технологий распознавания лиц и удостоверений личности
———
По информации источника Bloomberg, OpenAI ведет переговоры о приобретении Windsurf (ранее известного как Codeium) — инструмента для программирования с помощью искусственного интеллекта — за около $3 млрд. Это будет крупнейшее приобретение OpenAI на сегодняшний день.
https://www.bloomberg.com/news/articles/2025-04-16/openai-said-to-be-in-talks-to-buy-windsurf-for-about-3-billion
———
Беларусь готова принять на работу 100-150 тыс. пакистанских специалистов. Лучше - семьями https://belta.by/president/view/lukashenko-belarus-gotova-prinjat-na-rabotu-100-150-tys-pakistanskih-spetsialistov-708448-2025/
———
Киберразведчики из компании PRODAFT объявили о скупке учетных записей с даркнет-форумов. Для этих целей была запущена инициатива SYS, основная задача которой — улучшение качества HUMINT-операций (разведки с участием человека) и проникновение в закрытые сообщества киберпреступников.
———
Глава ФРС говорит что криптовалюта уже стала мейнстримом.
Сейчас нормативный климат меняется, популярность криптовалют растет, они широко внедряются в различные секторы, поэтому Конгресс снова изучает разработку законов.
— Джером Пауэлл.
———
Крупнейшую солнечную электростанцию Ivanpah в калифорнийской пустыне Мохаве закрывают. Сотни тысяч зеркал этой масштабной инсталляции направляли солнечные лучи на башни с водой, где из водяного пара генерировалась электроэнергия.
Теперь Ivanpah называют ошибкой, неэффективным и убыточным проектом, который вдобавок нанёс сильнейшей ущерб природе пустыни.
https://t.iss.one/groks/4209
———
CEO Nvidia встретился с основателем #DeepSeek для обсуждения новых дизайнов чипов
Дженсен Хуанг встретился со своими китайскими клиентами, включая основателя DeepSeek Лян Вэньфэна для обсуждения новых дизайнов чипов, которые не подпадали бы под новые экспортные ограничения США.
Он также провел переговоры с вице-премьером Китая Хэ Лифэном.
———
16 апреля 2025 года Роскомнадзор сообщил, что в «белый список» IP-адресов, использующих иностранные протоколы шифрования, внесено 75 тыс. записей.
———
Центробанк: треть дропперов — нерезиденты. Ведомство рассматривает ужесточение доступа к банковским картам. https://t.iss.one/platshit/1119
———
Telegram
Futuris
Зато новые модельки OpenAI могут хорошо понимать картинки и рассуждать ими (образами). Вот Вальдо вам найдёт, если вы ещё его ищите 🌚
❤2
⚡️В сеть слили подробности новой ИИ-модели #DeepSeek R2, в 40 раз дешевле GPT-4
Согласно последним данным, DeepSeek готовится к выпуску своей новой модели R2, которая показывает значительные технологические прорывы по 3-м ключевым направлениям.
Революционная архитектура и эффективность - R2 использует инновационную архитектуру Hybrid MoE 3.0, которая обеспечивает 1,2 трлн динамически активируемых параметров при фактическом вычислительном потреблении всего 78 млрд параметров. По результатам тестирования Alibaba Cloud, при обработке задач вывода длинных текстов стоимость единицы токена снижена на впечатляющие 97,3% по сравнению с GPT-4 Turbo.
Самостоятельно разработанная система распределенного обучения показывает высокую эффективность на отечественном оборудовании — 82% использования кластера чипов Huawei Ascend 910B, с вычислительной мощностью 512 PetaFLOPS при точности FP16, что составляет 91% эффективности кластера NVIDIA A100 аналогичного размера.
DeepSeek R2 показывает крутые результаты в мультимодальных задачах:
- 92,4% точности (mAP) в сегментации объектов на датасете COCO, что на 11,6 п.п. выше модели CLIP
- Уровень ложных срабатываний 7,2E-6 в промышленных системах контроля качества
- 98,1% точности в диагностике заболеваний по рентгеновским снимкам грудной клетки, превосходя средний уровень экспертной группы главных радиологов (96,3%)
Модель обучена на обширном корпусе высококачественных данных объемом 5,2 ПБ, охватывающих финансы, право, патенты и другие специализированные области, что обеспечивает точность следования инструкциям до 89,7% по тестам C-Eval 2.0.
DeepSeek формирует экосистему из ведущих технологических компаний Китая:
Tuowei Information - основной производственный партнер экосистемы Huawei Ascend, выполняющий более 50% заказов на вычислительную инфраструктуру.
Hongbo Shares - управляет северокитайским узлом вычислений с резервом мощности более 3000P.
Zhongke Shuguang - поставляет кластеры серверов с жидкостным охлаждением с плотностью мощности 40 кВт на стойку.
Inspur Information - поставила более 5000 AI-серверов с гибридной архитектурой NVIDIA H800 + Ascend 910B.
Runjian Shares - обслуживает южнокитайский суперкомпьютерный центр с контрактом стоимостью более 500 млн юаней в год.
Xinyisheng - разработала решение CPO на основе кремниевой фотоники, снижающее энергопотребление на 35%
Технология квантизации DeepSeek R2 позволяет сократить размер модели на 83% при 8-битной точности с потерей точности менее 2%, что открывает возможности для развертывания на периферийных устройствах.
Модель уже нашла применение в проектах "умных городов", промышленной автоматизации и здравоохранении.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Согласно последним данным, DeepSeek готовится к выпуску своей новой модели R2, которая показывает значительные технологические прорывы по 3-м ключевым направлениям.
Революционная архитектура и эффективность - R2 использует инновационную архитектуру Hybrid MoE 3.0, которая обеспечивает 1,2 трлн динамически активируемых параметров при фактическом вычислительном потреблении всего 78 млрд параметров. По результатам тестирования Alibaba Cloud, при обработке задач вывода длинных текстов стоимость единицы токена снижена на впечатляющие 97,3% по сравнению с GPT-4 Turbo.
Самостоятельно разработанная система распределенного обучения показывает высокую эффективность на отечественном оборудовании — 82% использования кластера чипов Huawei Ascend 910B, с вычислительной мощностью 512 PetaFLOPS при точности FP16, что составляет 91% эффективности кластера NVIDIA A100 аналогичного размера.
DeepSeek R2 показывает крутые результаты в мультимодальных задачах:
- 92,4% точности (mAP) в сегментации объектов на датасете COCO, что на 11,6 п.п. выше модели CLIP
- Уровень ложных срабатываний 7,2E-6 в промышленных системах контроля качества
- 98,1% точности в диагностике заболеваний по рентгеновским снимкам грудной клетки, превосходя средний уровень экспертной группы главных радиологов (96,3%)
Модель обучена на обширном корпусе высококачественных данных объемом 5,2 ПБ, охватывающих финансы, право, патенты и другие специализированные области, что обеспечивает точность следования инструкциям до 89,7% по тестам C-Eval 2.0.
DeepSeek формирует экосистему из ведущих технологических компаний Китая:
Tuowei Information - основной производственный партнер экосистемы Huawei Ascend, выполняющий более 50% заказов на вычислительную инфраструктуру.
Hongbo Shares - управляет северокитайским узлом вычислений с резервом мощности более 3000P.
Zhongke Shuguang - поставляет кластеры серверов с жидкостным охлаждением с плотностью мощности 40 кВт на стойку.
Inspur Information - поставила более 5000 AI-серверов с гибридной архитектурой NVIDIA H800 + Ascend 910B.
Runjian Shares - обслуживает южнокитайский суперкомпьютерный центр с контрактом стоимостью более 500 млн юаней в год.
Xinyisheng - разработала решение CPO на основе кремниевой фотоники, снижающее энергопотребление на 35%
Технология квантизации DeepSeek R2 позволяет сократить размер модели на 83% при 8-битной точности с потерей точности менее 2%, что открывает возможности для развертывания на периферийных устройствах.
Модель уже нашла применение в проектах "умных городов", промышленной автоматизации и здравоохранении.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Telegram
All about AI, Web 3.0, BCI
⚡️Viral rumors of DeepSeek R2 leaked
—1.2T param, 78B active, hybrid MoE
—97.3% cheaper than GPT 4o ($0.07/M in, $0.27/M out)
—5.2PB training data. 89.7% on C-Eval2.0
—Better vision. 92.4% on COCO
—82% utilization in Huawei Ascend 910B
Big shift away from…
—1.2T param, 78B active, hybrid MoE
—97.3% cheaper than GPT 4o ($0.07/M in, $0.27/M out)
—5.2PB training data. 89.7% on C-Eval2.0
—Better vision. 92.4% on COCO
—82% utilization in Huawei Ascend 910B
Big shift away from…
👍8🤡2🤩1
Новый конкурент #DeepSeek и самый обсуждаемый релиз дня - Ernie 4.5 от Baidu, они создали целую экосистему технологий
Ernie 4.5 хвалят за мультимодальные возможности. Пользователи отмечают, что модель превосходит GPT-4o в некоторых отраслевых тестах, улучшенное понимание контекста, снижение галлюцинаций и логических ошибок.
Ernie 4.5 стоит значительно дешевле аналогов — около 1% от стоимости GPT-4.5 ($0.55 за миллион входных токенов и $2.20 за миллион выходных).
Baidu сделала Ernie 4.5 бесплатными для пользователей чат-бота Ernie Bot, а также объявила о планах открыть исходный код 30 июня 2025.
У ERNIE 4.5 производительность на уровне и в некоторых тестах выше:
DeepSeek-V3
GPT-4.1
Qwen3-235B
OpenAI-o1 (в мультимодальных задачах)
Особые преимущества:
1. эффективная архитектура MoE с меньшим количеством активных параметров
2. ERNIE-4.5-VL может работать в двух режимах: thinking и non-thinking. В thinking режиме модель показывает рефлексивное мышление.
3. Модель в 300B параметров может работать на одном GPU H20 (141GB). Использует алгоритм Convolutional Code Quantization (CCQ).
4. Масштабируемость от 0.3B до 424B параметров.
5. Работает не только на NVIDIA GPU, но и на китайских чипах (Kunlunxin, Hygon, Ascend).
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Ernie 4.5 хвалят за мультимодальные возможности. Пользователи отмечают, что модель превосходит GPT-4o в некоторых отраслевых тестах, улучшенное понимание контекста, снижение галлюцинаций и логических ошибок.
Ernie 4.5 стоит значительно дешевле аналогов — около 1% от стоимости GPT-4.5 ($0.55 за миллион входных токенов и $2.20 за миллион выходных).
Baidu сделала Ernie 4.5 бесплатными для пользователей чат-бота Ernie Bot, а также объявила о планах открыть исходный код 30 июня 2025.
У ERNIE 4.5 производительность на уровне и в некоторых тестах выше:
DeepSeek-V3
GPT-4.1
Qwen3-235B
OpenAI-o1 (в мультимодальных задачах)
Особые преимущества:
1. эффективная архитектура MoE с меньшим количеством активных параметров
2. ERNIE-4.5-VL может работать в двух режимах: thinking и non-thinking. В thinking режиме модель показывает рефлексивное мышление.
3. Модель в 300B параметров может работать на одном GPU H20 (141GB). Использует алгоритм Convolutional Code Quantization (CCQ).
4. Масштабируемость от 0.3B до 424B параметров.
5. Работает не только на NVIDIA GPU, но и на китайских чипах (Kunlunxin, Hygon, Ascend).
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Telegram
All about AI, Web 3.0, BCI
Huge drop from Baidu: Ernie 4.5
From 0.3B to 424B
This is a very impressive family of open models by Baidu, competitive with qwen3 and latest Deepseek V3+ they open source the training code as well.
GitHub.
Hf.
From 0.3B to 424B
This is a very impressive family of open models by Baidu, competitive with qwen3 and latest Deepseek V3+ they open source the training code as well.
GitHub.
Hf.
👍3🔥1😁1
Экономика ИИ меняется: от подписок к оплате за результат. Низкая цена больше не гарантирует успех.
Исследование SemiAnalysis показывает структурные изменения в ИИ-индустрии на примере #DeepSeek , Anthropic , Google, OpenAI и др. конкурентов.
DeepSeek R1 предлагает цены в 10 раз ниже OpenAI ($0.55 vs $5+ за входные токены). Что привело к таким результатам:
- Трафик на собственной платформе падает
- Использование на сторонних сервисах растёт в 20 раз.
Причина - компания жертвует качеством обслуживания (25-секундные задержки, малое контекстное окно 64К) ради экономии ресурсов для исследований. Пользователи выбирают те же модели у других провайдеров с лучшими параметрами.
Новая математика эффективности
Anthropic столкнулась с дефицитом мощностей — скорость Claude упала на 40%. Но компания компенсирует это эффективностью - Claude использует в 3 раза меньше токенов для того же ответа
В результате, несмотря на 45 токенов/сек против 100+ у конкурентов, общее время ответа остаётся конкурентным.
Это меняет метрику успеха - важна не скорость генерации, а эффективность использования каждого токена.
Дефицит как новая реальность
Все игроки рынка ограничены вычислительными ресурсами:
1. DeepSeek: 10,000 GPU под санкциями
2. Anthropic: сделки с Amazon и Google на чипы
3. OpenAI и Google: борьба за доступные мощности.
Это создаёт разные стратегии оптимизации, где каждая компания выбирает свой компромисс между ценой, скоростью и качеством.
Переход к токенам как сервису
Растёт сегмент b2b-клиентов (Cursor, Perplexity, Replit), которые:
- Покупают токены для конкретных задач, а не общие подписки
- Легко переключаются между провайдерами
- Оптимизируют использование под свои нужды
Это фундаментально меняет экономику: от фиксированных месячных платежей к переменным затратам на "единицы мышления".
Практические выводы:
Цена токена — результат технических компромиссов, а не показатель эффективности технологии.
Специализация побеждает универсальность: инструменты для конкретных задач (кодирование, поиск) востребованнее общих чат-ботов.
Open source как обход ограничений: китайские компании открывают код, чтобы западные провайдеры тратили свои ресурсы на хостинг.
Эффективность важнее скорости: модели, решающие задачи с меньшим количеством токенов, получают преимущество.
В новой экономике ИИ успех определяется не ценой за токен, а способностью доставить результат с оптимальным балансом скорости, качества и стоимости.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Исследование SemiAnalysis показывает структурные изменения в ИИ-индустрии на примере #DeepSeek , Anthropic , Google, OpenAI и др. конкурентов.
DeepSeek R1 предлагает цены в 10 раз ниже OpenAI ($0.55 vs $5+ за входные токены). Что привело к таким результатам:
- Трафик на собственной платформе падает
- Использование на сторонних сервисах растёт в 20 раз.
Причина - компания жертвует качеством обслуживания (25-секундные задержки, малое контекстное окно 64К) ради экономии ресурсов для исследований. Пользователи выбирают те же модели у других провайдеров с лучшими параметрами.
Новая математика эффективности
Anthropic столкнулась с дефицитом мощностей — скорость Claude упала на 40%. Но компания компенсирует это эффективностью - Claude использует в 3 раза меньше токенов для того же ответа
В результате, несмотря на 45 токенов/сек против 100+ у конкурентов, общее время ответа остаётся конкурентным.
Это меняет метрику успеха - важна не скорость генерации, а эффективность использования каждого токена.
Дефицит как новая реальность
Все игроки рынка ограничены вычислительными ресурсами:
1. DeepSeek: 10,000 GPU под санкциями
2. Anthropic: сделки с Amazon и Google на чипы
3. OpenAI и Google: борьба за доступные мощности.
Это создаёт разные стратегии оптимизации, где каждая компания выбирает свой компромисс между ценой, скоростью и качеством.
Переход к токенам как сервису
Растёт сегмент b2b-клиентов (Cursor, Perplexity, Replit), которые:
- Покупают токены для конкретных задач, а не общие подписки
- Легко переключаются между провайдерами
- Оптимизируют использование под свои нужды
Это фундаментально меняет экономику: от фиксированных месячных платежей к переменным затратам на "единицы мышления".
Практические выводы:
Цена токена — результат технических компромиссов, а не показатель эффективности технологии.
Специализация побеждает универсальность: инструменты для конкретных задач (кодирование, поиск) востребованнее общих чат-ботов.
Open source как обход ограничений: китайские компании открывают код, чтобы западные провайдеры тратили свои ресурсы на хостинг.
Эффективность важнее скорости: модели, решающие задачи с меньшим количеством токенов, получают преимущество.
В новой экономике ИИ успех определяется не ценой за токен, а способностью доставить результат с оптимальным балансом скорости, качества и стоимости.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
SemiAnalysis
DeepSeek Debrief: >128 Days Later
SemiAnalysis is hiring an analyst in New York City for Core Research, our world class research product for the finance industry. Please apply here It’s been a bit over 150 days since the launc…
🤔4❤3🤷♂2🔥1