Размер — 1 триллион параметров, при этом:
- 65.8% на SWE-bench Verified, против 50.2% у Claude Sonnet 4 и 40.8% у GPT-4.1
- Лучшие результаты среди открытых моделей по кодингу, математике и агентным задачам
- Архитектура MoE на базе DeepSeek V3, 1 трлн параметров, 32B активны.
Также доступна через API:
- $0.15 за миллион входных токенов (при попадании в кэш)
- $0.60 за миллион входных токенов (если кэш не сработал)
- $2.50 за миллион выходных токенов
Почти в 5 раз дешевле, чем Claude 4 Sonnet и Gemini 2.5 Pro!
@ai_machinelearning_big_data
#kimi #china #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍138❤46🔥29🥰8🤣8👏3🤔3❤🔥1
Media is too big
VIEW IN TELEGRAM
Брюссель выпустил практическое руководство, которое должно помочь компаниям подготовиться к вступлению в силу Закона об ИИ. Документ детализирует требования к моделям общего назначения по трем ключевым направлениям: прозрачность, авторское право и безопасность.
Разработчикам предстоит документировать источники данных для обучения, предоставлять интерфейсы для аудита и внедрять фильтры для защищенного контента. Требования по безопасности включают обязательное проведение red-teaming и оценку рисков.
Нормы станут обязательными со 2 августа 2025 года, и их публикация сигнализирует об отказе регулятора откладывать сроки, несмотря на просьбы бизнеса. Штрафы за несоблюдение могут достигать 35 миллионов евро или 7% от оборота.
digital-strategy.ec.europa.eu
GitHub изменил модели тарификации для Copilot coding agent, делая ее более предсказуемой. Теперь каждая сессия работы с агентом, будь то создание нового pull-request или изменение существующего, будет стоить ровно один «премиум-запрос».
Это изменение устраняет неопределенность в расходах. Независимо от сложности задачи и количества затронутых файлов, стоимость сессии остается фиксированной. По заявлению GitHub, такой подход позволит пользователям делегировать агенту до 20 раз больше задач в рамках своей месячной подписки.
Стоит отметить, что хотя использование премиум-запросов стало предсказуемым, расход минут GitHub Actions все еще зависит от времени, которое требуется агенту на выполнение работы. Функция доступна в публичной бета-версии для всех платных планов GitHub Copilot.
github.blog
Стартап Butterfly Effect, разработчик популярного ИИ-агента Manus, ликвидировал всю свою команду в Китае. Это часть стратегии по минимизации геополитических рисков, поскольку основной целевой рынок компании - США. Ранее стартап уже перенес штаб-квартиру из Китая в Сингапур, куда переехали и его основатели.
Компания, получившая поддержку от фонда Benchmark, теперь активно нанимает сотрудников в новых офисах в Калифорнии и Токио. Решение полностью свернуть операции в КНР отражает растущую тенденцию среди технологических стартапов с глобальными амбициями. Они вынуждены дистанцироваться от Китая, чтобы избежать политического давления и обеспечить себе доступ на западные рынки.
theinformation.com
Стартап Reka, основанный выходцами из DeepMind и FAIR, представил новую открытую модель Reka Flash 3.1. Эта модель с 21 миллиардом параметров показывает высокую производительность в задачах, связанных с программированием, и позиционируется как сильная основа для создания ИИ-агентов. Она уже доступна на Hugging Face, через API и в Playground.
Одновременно компания выпустила библиотеку Reka Quant. Она позволяет сжимать модель до 3.5 бит практически без потери производительности - падение метрик составляет всего 1.6% по сравнению с 6.8% у стандартных методов.
reka.ai
Amazon Web Services на следующей неделе представит собственный маркетплейс для ИИ-агентов. Платформа, запуск которой ожидается на саммите AWS в Нью-Йорке, позволит стартапам напрямую предлагать свои разработки огромной базе корпоративных клиентов облачного гиганта. Anthropic станет одним из ключевых партнеров на старте, что даст ему серьезное преимущество в конкуренции с OpenAI.
Модель работы будет напоминать магазины приложений: AWS будет взимать комиссию, а разработчики смогут продавать своих агентов по подписке. Запуском собственной площадки Amazon следует тренду, заданному конкурентами. Аналогичные маркетплейсы уже есть у Google Cloud, Microsoft, Salesforce и ServiceNow.
techcrunch.com
Google заплатил $2.4 млрд, на $600 млн меньше, чем OpenAI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
12❤81👍50🔥20🗿8🤣5🥰2
Это модель, которая не просто доказывает теоремы, а учится на своих ошибках.
Kimina-Prover-72B создана на базе Qwen2.5-72B, которая бьет рекорды в формальной математике на Lean 4 и ее облегченные версии 8 и 1,7 миллиарда параметров.
Numina - это некоммерческая научная коллаборация, ориентированная на развитие ИИ в области математики. Ее миссия: создание и публикация обширных баз данных математических задач, разработку open-source ИИ-решателя для их обработки и инструментов для поддержки совместной работы людей и ИИ в фундаментальных науках.
На популярном бенчмарке miniF2F Kimina-Prover-72B достигла внушительной точности в 92.2%, оставив позади Deepseek-Prover-V2 671B.
Вместо того чтобы пытаться решить сложную задачу в лоб, система научилась декомпозировать ее. Она самостоятельно генерирует, комбинирует и применяет промежуточные утверждения, или леммы, выстраивая из них длинные логические цепочки. По сути, это рекурсивный поиск: для доказательства основной теоремы модель может сначала доказать несколько вспомогательных лемм.
Система отслеживает «рейтинг полезности» каждой леммы и отбраковывает те, что ведут в тупик. Вторым эшелоном идет механизм проверки на вменяемость. Прежде чем использовать новую лемму, модель пытается доказать ее отрицание. Если это удается, значит, лемма противоречива и ее сразу выбрасывают. Такая комбинация гарантирует логическую строгость и надежность всего доказательства.
В отличие от других систем, которые в случае неудачи просто начинают заново, Kimina-Prover умеет читать сообщения об ошибках от компилятора Lean и предлагать исправления.
Для этого ее специально дообучали на датасете из комбинаций «неверное доказательство – фидбэк – верное доказательство». Чтобы обучение шло стабильно, использовали стратегию Batched Failure Replay: все неудачные попытки с одной итерации собираются и используются как обучающий батч для следующей. И это оказалось куда эффективнее, чем бездумный перебор вариантов при том же бюджете вычислений.
@ai_machinelearning_big_data
#AI #ML #LLM #TTRL #Reasoning #KiminaProver
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤105🔥62👍46😁6👏4👌2🤔1
Позволяет можно запускать и управлять сразу несколькими AI-агентами для кодинга: Claude Code, Gemini CLI, Codex — всё в одном дашборде.
- параллельный запуск агентов
- трекинг задач
- переключение между моделями на лету
- встроенный review и контроль над результатами
- backend написан на Rust, frontend на React, всё разворачивается локально
Полностью open-source
@ai_machinelearning_big_data
#ai #aiagent #opensource #Claude #Gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
❤97👍60🔥38🥰4😁3👏1
ThinkSound — духовный наследник mmAudio — который способен генерировать звук к видео с высокой точностью.
▪ Поддерживает chain-of-thought промпты: позволяет по шагам объяснить, как должен звучать объект (например: «это металл, он падает на плитку, должно звучать звонкой эхо»)
▪ Учитывает контекст сцены, физику движения объектов, состав материалов и многое другое
▪ Работает с видео как reasoning-модель, а не просто визуально-аудиофильтр
В демках можно послушать звук шагов на песке, звон разбитого стекла, шум дождя — всё сгенерировано на лету, без записанных сэмплов.
Из минусов - сложно подобрать промпт, но когда получается, то модель выдает годноту.
@ai_machinelearning_big_data
#python #videotosound
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤85👍61🔥27👏9❤🔥2😁2😐2
Forwarded from Machine learning Interview
🍏 Apple всерьёз задумалась о покупке Mistral — Bloomberg / Марк Гурман
По информации Bloomberg, Apple серьёзно рассматривает покупку французского стартапа Mistral AI, чтобы наконец войти в ИИ-гонку.
Это очень поздний шаг — но он показывает, насколько сильно Apple отстала от OpenAI, Google и даже xAI.
Пока другие выкатывают публичные LLM, мультимодальные ассистенты и интеграции в поиске, Apple остаётся в роли наблюдателя.
📌 Почему это важно:
- Mistral — один из главных open-source игроков на рынке ИИ (выпускают мощные LLM и Mixture of Experts-модели)
- У Apple пока нет ни собственной модели, ни сильной стратегии в области ИИ
- Приобретение Mistral может стать экстренной попыткой догнать конкурентов
Если сделка состоится — это будет крупнейший AI-манёвр Apple за всё время.
#Apple #Mistral #AI #LLM #ГонкаИИ
@machinelearning_interview
По информации Bloomberg, Apple серьёзно рассматривает покупку французского стартапа Mistral AI, чтобы наконец войти в ИИ-гонку.
Это очень поздний шаг — но он показывает, насколько сильно Apple отстала от OpenAI, Google и даже xAI.
Пока другие выкатывают публичные LLM, мультимодальные ассистенты и интеграции в поиске, Apple остаётся в роли наблюдателя.
📌 Почему это важно:
- Mistral — один из главных open-source игроков на рынке ИИ (выпускают мощные LLM и Mixture of Experts-модели)
- У Apple пока нет ни собственной модели, ни сильной стратегии в области ИИ
- Приобретение Mistral может стать экстренной попыткой догнать конкурентов
Если сделка состоится — это будет крупнейший AI-манёвр Apple за всё время.
#Apple #Mistral #AI #LLM #ГонкаИИ
@machinelearning_interview
❤115👍89🔥38😁25🥱14😢10🤔9🗿5❤🔥2👏2
This media is not supported in your browser
VIEW IN TELEGRAM
Глава NVIDIA объяснил, почему экспорт AI-чипов — это не слабость, а стратегия:
— Если весь мир (включая Китай) работает на американских чипах, платформах и фреймворках,
— США получают техническое и инфраструктурное преимущество,
— А значит — долгосрочное лидерство в AI, даже если некоторые страны развивают собственные модели.
🔍 А как же риски? Военные, шпионские?
> «Они не будут строить военные системы на чужих чипах. Просто не могут себе это позволить.»
Технологии, от которых зависит твой конкурент— это не оружие. Это рычаг влияния.
И чем больше стран завязаны на американском стеке — тем выше шансы, что США останутся в центре мировой AI-инфраструктуры.
Еще из интересного, после того как MIT выпустили исследование о том, что ИИ якобы снижает когнитивные способности человека, Хуанг в своём стиле — дал "жесткий" ответ:
> “Я не читал это исследование, лол”
> “Я каждый день пользуюсь ИИ — и мои когнитивные навыки только растут”
▪ Критическое мышление никто не отменял
> “Я не принимаю ответ как есть — я его анализирую, критикую, уточняю”
> “Такой подход и развивает мышлени
• Полное интервью Дженсена
@ai_machinelearning_big_data
#ai #Ml #nvidia
Please open Telegram to view this post
VIEW IN TELEGRAM
❤153👍95😁34🤣21🔥9⚡8🙉3
Elon Musk заявил, что проблемы Grok (например когда модель считала себя Гитлером) связаны с "плохими обучающими данными", и пообещал, что в версии v7 всё будет исправлено, потому что они "очистят датасет".
Это больше похоже на попытку перевести фокус с реальных проблем, которые глубже и серьёзнее:
– Выравнивание (alignment) становится всё сложнее
– Проблемы не только в данных, а в самой архитектуре, управлении памятью, RLHF и недостаточной прозрачности модели
– “Плохие данные” — это симптом, а не корень проблемы
Возможно, Grok просто не справляется с масштабом данных, и это не фиксятся «переобучением на v7».
@ai_machinelearning_big_data
#elonmusk #grok
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥106❤51😁28😨18👍16💯10🤔9👌5🌭5
🔥 Сейчас проходит ICML 2025 — одна из главных конференций по машинному обучению.
Команда AI VK всю неделю делится обзорами самых интересных работ.
📌 Сегодня в центре внимания — трансформерная архитектура нового поколения: быстрая, простая и без softmax.
Авторы статьи *“MatMuls are Enough”* предлагают кардинально упрощённую модель, в которой механизм внимания сводится к чистым матричным перемножениям без нелинейностей, dropout и маскировок.
🔧 В архитектуре:
▪️ Удалён softmax — вообще ничего не добавлено взамен
▪️ Вместо нескольких голов внимания — одна большая
▪️ Упрощены нормализации и убраны residual-соединения
▪️ Всё написано на чистом PyTorch, без CUDA-оптимизаций
📈 Результат — линейная сложность по длине текста, отличная переносимость между устройствами и SOTA на GLUE и Long Range Arena.
Честно говоря, очень достойный претендент на главную инженерную идею ICML.
@ai_machinelearning_big_data
Команда AI VK всю неделю делится обзорами самых интересных работ.
📌 Сегодня в центре внимания — трансформерная архитектура нового поколения: быстрая, простая и без softmax.
Авторы статьи *“MatMuls are Enough”* предлагают кардинально упрощённую модель, в которой механизм внимания сводится к чистым матричным перемножениям без нелинейностей, dropout и маскировок.
🔧 В архитектуре:
▪️ Удалён softmax — вообще ничего не добавлено взамен
▪️ Вместо нескольких голов внимания — одна большая
▪️ Упрощены нормализации и убраны residual-соединения
▪️ Всё написано на чистом PyTorch, без CUDA-оптимизаций
📈 Результат — линейная сложность по длине текста, отличная переносимость между устройствами и SOTA на GLUE и Long Range Arena.
Честно говоря, очень достойный претендент на главную инженерную идею ICML.
@ai_machinelearning_big_data
👍103🥱53❤🔥36🔥34❤9🤣5🐳3👻1
Forwarded from Python/ django
This media is not supported in your browser
VIEW IN TELEGRAM
🛠 Вышел новый генератор CAD‑моделей по чертежам — и он реально работает!
GenCAD умеет превращать чертежи в 3D‑модели и сразу генерирует параметрический CAD‑код. Для сложных и детализированных объектов он пока не подойдет, но с простыми деталями вроде винтиков и креплений справляется отлично.
📎 Идеально для быстрого прототипирования стандартных элементов.
📄 Статья: https://openreview.net/pdf?id=e817c1wEZ6
🔗 Сайт: https://gencad.github.io
💻 Код: https://github.com/ferdous-alam/GenCAD
@pythonl - погружение в Python
GenCAD умеет превращать чертежи в 3D‑модели и сразу генерирует параметрический CAD‑код. Для сложных и детализированных объектов он пока не подойдет, но с простыми деталями вроде винтиков и креплений справляется отлично.
📎 Идеально для быстрого прототипирования стандартных элементов.
📄 Статья: https://openreview.net/pdf?id=e817c1wEZ6
🔗 Сайт: https://gencad.github.io
💻 Код: https://github.com/ferdous-alam/GenCAD
@pythonl - погружение в Python
🔥127❤38🤷♂16🥰12👍8👏3😁3👨💻1
Machinelearning
Метод SMMR эффективнее решает эту проблему однотипных рекомендаций, случайным образом выбирая объекты из подходящего круга, а не только самые похожие. Благодаря этому рекомендации становятся разнообразнее, и пользователь чаще открывает для себя новое.
Скорость метода SMMR также превосходит известные аналоги, такие, как MMR (Maximal Marginal Relevance) и DPP (Determinantal Point Process). Алгоритм выбирает несколько объектов за одну итерацию и увеличивает объем выборки с каждым шагом. Это приводит к снижению количества необходимых шагов с 100 до 5–10 на размере выборки из 3000 кандидатов. По итогу, скорость новой методики в 2–10 раз выше MMR и DPP, а рост разнообразия рекомендаций составил 5–10%.
SMMR эффективно работает на больших объемах данных за счет снижения вычислительной сложности. По сравнению с классическими подходами, для списков из нескольких тысяч объектов алгоритм требует в 10–100 раз меньше итераций. При этом уровень случайности носит управляемый характер благодаря параметру «температуры». С его помощью степень случайности при выборе объектов можно регулировать, тем самым настраивая алгоритм под конкретные задачи.
Метод успешно протестировали на трех открытых датасетах: MovieLens (фильмы), Dunnhumby (покупки) и MIND (новости). Результаты оказались стабильными как в потребительских сценариях (подбор фильмов, товаров), так и в более динамичных — например, в рекомендациях новостей. Результаты представлены на ACM SIGIR, которая проходит прямой сейчас в Падуе. Cам метод уже размещен в открытой библиотеке на гитхабе. Кстати на Turbo ML Conf 2025 в Москве будет отдельная большая секция по рексистемам, не пропустите.
@ai_machinelearning_big_data
#news #ai #ml #ai #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77❤36🔥22🥱11🤣10🌭2🍾2⚡1😈1👀1
🎁 РАЗЫГРЫВАЕМ MacBook Air!
Разыгрываем шикарный 13-дюймовый MacBook Air! Отличная рабочая машинка!
Условия участия максимально простые:
🔸Подписаться на телеграм-канал: @machinelearning_interview
🔸Подписаться на телеграм-канал: @ai_machinelearning_big_data
🔸Нажать кнопку "Участвовать" ниже.
ВСЁ! Вы участник! Бот выберет одного человека, которому мы подарим этот MacBook. Доставка по зоне СДЭК.
Итоги подведём 14 августа.
Всем удачи! Пусть победит самый приятный человек!
⚠️ Если бот подвис — не беспокойтесь, вас все равно зарегистрирует, просто выполните условия и нажмите «Участвую».
Разыгрываем шикарный 13-дюймовый MacBook Air! Отличная рабочая машинка!
Условия участия максимально простые:
🔸Подписаться на телеграм-канал: @machinelearning_interview
🔸Подписаться на телеграм-канал: @ai_machinelearning_big_data
🔸Нажать кнопку "Участвовать" ниже.
ВСЁ! Вы участник! Бот выберет одного человека, которому мы подарим этот MacBook. Доставка по зоне СДЭК.
Итоги подведём 14 августа.
Всем удачи! Пусть победит самый приятный человек!
⚠️ Если бот подвис — не беспокойтесь, вас все равно зарегистрирует, просто выполните условия и нажмите «Участвую».
7👍1.05K🔥397❤257😁43💯39🥰27🙉22🗿20🤔17🙏12😢11
Это одна из самых сложных задач в семантической генерации:
🔸 нужно сохранить структуру сцены
🔸 вставить объект по текстовому описанию
🔸 и найти уместное место, а не просто налепить поверх
Большинство моделей с этим не справляются — объект добавляется не к месту или портит фон.
Новый метод Add-it от NVIDIA решает эту задачу без обучения модели.
Он расширяет механизм внимания в диффузионных моделях, чтобы учитывать сразу три источника:
1. Оригинальное изображение
2. Текстовый промпт
3. Промежуточную сгенерированную картинку
📌 Такой подход позволяет:
– сохранить геометрию сцены
– встроить объект туда, где он действительно мог бы быть
– не терять мелкие детали и текстуры
📊 Результаты:
– Add-it без дообучения обходит supervised‑модели
– На новом бенчмарке Additing Affordance показывает SOTA результат по «естественности размещения»
– В слепых тестах люди выбирают его в 80% случаев
– Улучшает метрики качества генерации
@ai_machinelearning_big_data
#NVIDIA #Diffusion #Addit #StableDiffusion #AIgen #ControllableGeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
❤82🔥33👍29👻7💯6
Media is too big
VIEW IN TELEGRAM
Google объявила о выходе в общий доступ модели для создания текстовых эмбеддингов - Gemini-Embedding-001. Она доступна разработчикам через Gemini API и Vertex AI. С момента своего экспериментального запуска модель стабильно занимает лидирующие позиции в бенчмарке MTEB и поддерживает более 100 языков.
Gemini Embedding использует технику Matryoshka Representation Learning. Она позволяет разработчикам гибко настраивать размерность выходных векторов, чтобы оптимизировать производительность и затраты на хранение. Максимальная длина входных данных составляет 2048 токенов.
Стоимость использования модели : $0.15 за 1 миллион входных токенов. Доступ к ней можно получить через Gemini API, а бесплатно протестировать - в Google AI Studio.
developers.googleblog.com
Недавно созданное подразделение по разработке AGI инициировало дискуссию о кардинальном изменении стратегии компании. Ключевая идея - отказаться от развития флагманской open-source модели Behemoth в пользу закрытой архитектуры, по аналогии с OpenAI и Google. Такой шаг стал бы серьезным философским сдвигом для компании, которая годами продвигала открытый код и завоевала признание разработчиков.
Обсуждения пока находятся на ранней стадии и требуют одобрения Марка Цукерберга. Однако сама дискуссия, начатая новой командой под руководством Александра Ванга, указывает на возможный стратегический разворот гиганта соцсетей.
nytimes.com
xAI начала развертывание новой функции «Companions» для чат-бота Grok в приложении для iOS. Обновление добавляет в интерфейс интерактивных трехмерных персонажей, цель которых - сделать общение более персонализированным и выйти за рамки текстовых ответов. На данный момент функция доступна платным подписчикам SuperGrok.
Пользователи могут выбрать одного из двух анимированных аватаров: аниме-девушку Ani или красную панду Bad Rudy. Включить их можно в меню настроек. В компании обещают позже добавить третьего персонажа.
Elon Mask в сети Х
Два выдающихся специалиста из Германии, Роланд Эйльс и Ирина Леманн, присоединились к Университету Фудань в Шанхае. Их работа была ключевой в создании атласа клеток поджелудочной железы человека и использовании ИИ для прогнозирования рисков заболеваний.
Эйльс - всемирно известный математик и биолог, руководивший крупными национальными исследовательскими проектами. Леманн - профессор в области эпигенетики, возглавлявшая несколько международных научных конференций. Супруги опубликовали более 1000 научных работ и имеют свыше 100 000 цитирований.
В Университете Фудань они присоединились к Институту интеллектуальной медицины и планируют создать совместную немецко-китайскую ИИ-лабораторию.
scmp.com
Глава Perplexity Аравинд Шринивас рассказал о планах компании начать пост-тренинг моделей Kimi от Moonshot AI. Решение было принято после внутренних тестов, которые показали, что потенциал Kimi сопоставим с GPT-4 и Claude.
Решающим фактором стало превосходство Kimi K2 в бенчмарках на программирование. В частности, в тесте SWE-bench Verified она показала результат 65.8%, значительно опередив Claude с его 50.2%.
В Perplexity рассчитывают, что дальнейшее дообучение модели усилит ее агентные возможности.
CEO Perplexity сети X
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍99❤41🥰11💘8💋1