360K subscribers
4.33K photos
816 videos
17 files
4.81K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
✔️ На OpenRouter появилась модель, которую считают прототипом GPT-5.1.

Без официального анонса стала доступна новая ИИ-модель Polaris Alpha с контекстным окном до 256 тыс. токенов. Она описывается как универсальный инструмент для генерации кода и выполнении инструкций. Модель была запущена для сбора обратной связи от пользователей.

В технических сообществах предполагают, что Polaris Alpha может быть тестовой версией GPT-5.1 от OpenAI. Эту гипотезу подкрепляют отзывы первых пользователей, отмечающих крайне низкий уровень галлюцинаций и стиль ответов, характерный для GPT. Сама Polaris Alpha на прямой вопрос о своей связи с GPT-4 отвечает утвердительно.

По результатам бенчмарка EQ-Bench, производительность модели сопоставима с Claude-3.5-Sonnet. Доступ к Polaris Alpha открыт бесплатно через веб-интерфейс и API на OpenRouter.
openrouter.ai

✔️ Microsoft создает команду для разработки гуманистического сверхинтеллекта.

Мустафа Сулейман, CEO Microsoft AI, анонсировал новую стратегию, основанную на концепции «гуманистического сверхинтеллекта» (HSI). Для работы над этим направлением создается специальное подразделение - MAI Superintelligence Team.

В отличие от идеи AGI, подход Microsoft предполагает создание узкоспециализированных и контролируемых систем для решения конкретных проблем человечества. Стратегия отказывается от гонки за ASI в пользу разработки практических технологий.

Цели HSI — добиться прорывов в медицине, поиск чистой энергии и создание персонализированных ИИ-ассистентов, избегая рисков создания автономных и неконтролируемых систем. По словам Сулеймана, это должно гарантировать, что самые топовые версии ИИ будут создаваться строго в интересах людей.
microsoft.ai

✔️ Google выпустила Magika 1.0: ИИ-систему для определения типов файлов.

Google представила первый стабильный релиз опенсорсной утилиты Magika с полностью переписанным с нуля на Rust движком. Новая версия способна сканировать сотни файлов в секунду на одном ядре процессора, используя ONNX Runtime для инференса и Tokio для асинхронной обработки.

Количество поддерживаемых типов файлов было удвоено и теперь превышает 200. Добавилась поддержка актуальных форматов для Data Science и ML (Jupyter, PyTorch, ONNX), современных языков программирования (Swift, Kotlin, TypeScript, Zig) и DevOps-инструментов (Dockerfile, TOML, HCL). Разработчикам доступны обновленные модули для Python и TypeScript, а также новый нативный клиент командной строки.
opensource.googleblog.com

✔️ Foxconn внедрит человекоподобных роботов на производстве ИИ-серверов.

Крупнейший в мире контрактный производитель электроники в течение 6 месяцев начнет использовать человекоподобных роботов на своем заводе в Техасе. Роботы будут задействованы в сборке серверов для ИИ-систем. По словам CEO Янг Лю, это первый подобный опыт за более чем 50-летнюю историю Foxconn.

Этот шаг является частью стратегии по агрессивному расширению производства в Северной Америке. Компания, являясь ключевым поставщиком Nvidia, считает Северную Америку своим главным хабом по выпуску ИИ-серверов на ближайшие 3 года. Решение о роботизации принято для повышения эффективности производства, которое, по словам Лю, критически важно в сфере ИИ.
asia.nikkei.com

✔️ Сооснователь и руководитель PyTorch Сумит Чинтала покидает компанию Марка Цукерберга.

Сумит Чинтала, один из создателей и ключевых руководителей проекта PyTorch, объявил о своем уходе. Его последний рабочий день в компании - 17 ноября. Чинтала, проработавший у Цукерберга 11 лет, возглавлял PyTorch с момента его создания. За это время фреймворк стал индустриальным стандартом, заняв, по оценкам, более 90% рынка ИИ-разработки.

Свой уход он объяснил желанием после долгого отпуска заняться чем-то новым. По его словам, PyTorch достиг зрелости и стабильности, а сильная команда готова продолжать его развитие. Сам Чинтала планирует остаться активным участником open-source сообщества.
Soumith Chintala в сети X

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8347🔥13👏2💘2
⚡️ OpenAI выпустила GPT-5-Codex-Mini.

GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.

Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.

Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
39🔥19👍13🥱1😇1
❤️ Готовы хакнуть будущее вместе с Альфой?

Прокачайте технические скиллы и создайте реальное ИИ-решение для бизнеса на хакатоне «Альфа-Будущее» с призовым фондом в 1 000 000 ₽!

Для кого: студентов вузов и колледжей по направлениям Data Science, NLP, AI, ML, Frontend, Backend и Fullstack.

А еще вас ждет:
— возможность получить фаст-трек в команду Альфы;
— поддержка от экспертов Альфа-Банка и шанс улучшить свой код вместе с ними;
обмен опытом и встреча лучших команд на офлайн-финале в Москве;
— возможность решить задачу в одном из двух актуальных треков: настройка RAG-системы для ответов на вопросы или разработка copilot-приложения для клиентов микробизнеса.


🔗 Успейте зарегистрироваться до 10 ноября: https://u.to/hPtgIg

Больше полезного в Changellenge >>
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3627🔥23🤣13🤔8
🙂 Как использовать ИИ и проиграть.

В швейцарской сети супермаркетов Migros продается печенье с пятиногим оленем. Принт на коробке явно сгенерирован ИИ, но на самом деле недочётов гораздо больше.

Пользователи реддита насчитали как минимум еще 11 косяков этой генерации. А сколько видите вы?

1. У оленя пять ног

2. У оленя либо три рога, либо два, но они очень странной формы
3. Обе задние ноги оленя не касаются земли
4. У саней пять опор: три справа и две слева
5. На задней части саней неразборчивый символ, похожий на буквы XX
6. Ноги Санты очень короткие или он стоит на коленях.
7. Вожжи в руках Санты частично отсоединены, а та часть, которая соединена, прикреплена к ремню, тянущему сани, а не к самому оленю, что делает их практически бесполезными.
8. Вожжи как бы превращаются в его пояс.
9. Руки Санты странные, особенно та, которая держит вожжи.
10. Подарки на санях упадут, если сани ускорятся. (возможно нет, и это просто магия Санты)
11. Ветка в левом верхнем углу слишком толстая и просто заканчивается
12. На елке все шары красные, кроме одного желтого.



@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
😁17941👍18😐9🔥7👨‍💻5👻4🌭3
🤖 Google представила Nested Learning — новую парадигму ИИ, которая учится как человек и не забывает прошлые знания

Google предлагает новый подход: Nested Learning - *вложенное обучение*, при котором новая информация интегрируется в уже существующую структуру знаний, а не замещает её.

Как это работает?
Каждое новое обучение добавляется внутрь уже выученного, как слой внутри слоя.

Это позволяет модели:

- сохранять предыдущие навыки
- адаптироваться к новым задачам
- отличать, в каком контексте она работает

Что это даёт?

1. Постоянное обучение без потерь
Модель может учиться бесконечно, не забывая старое. Новые знания не затирают прежние.

2. Контекстное понимание
ИИ понимает, *в каком режиме* он работает — это делает поведение гибче и разумнее.

3. Ближе к человеческому мышлению
Nested Learning приближает нейросети к человеческому типу обучения: поэтапному, постепенному и адаптивному.

📌 Подробнее: https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning

#google

@data_analysis_ml
👍172👏11764🔥32🥰20🤩19😁7🎉7🤔3💯3🤣2
📉 AI-рынок просел на $800 млрд за неделю

Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.

Что происходит:

Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.

Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.

Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.


Почему падение получилось таким резким:

- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.

Главный удар:

- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.

Дополнительные точки напряжения:

- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*

ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.

ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8

@ai_machinelearning_big_data

#ai #ml #finance
186😢47👍39🤔29🔥11🤬9😐4🤨3😨3🎉2🤝1
🧠 ByteDance показывает: моделям для рассуждений нужны не только слова, но и картинки

MIRA - Multimodal Imagination for Reasoning Assessment, тест, который измеряет, как модели рассуждают, если им дать промежуточные визуальные шаги.

Суть очень простая и понятная:

- Там, где текст не помогает, картинки резко улучшают мышление модели.
- Если дать модели рисунки промежуточных шагов, точность в среднем растёт на 33.7%.
- Бенчмарк включает 546 задач в 20 категориях, где нужно «видеть», а не просто читать: кубики, зеркала, траектории, силы и тд.

Как устроена проверка:

- прямой вопрос
- рассуждение текстом
- рассуждение с визуальными шагами (скетчами)

Что выяснилось:

- Только текст часто делает хуже, потому что слова плохо описывают пространство.
- Если дать модели картинки - результат сильно улучшается, особенно в точных науках.

В бенчмарке: 546 задач по геометрии, физике, логическим головоломкам и причинным связям.

Режимы тестирования:
• Direct - модель отвечает напрямую
• Text-CoT - текстовый chain-of-thought
• Visual-CoT - модель рассуждает через рисунки и визуальные шаги

Ключевые результаты:
• Ни одна модель не превысила 20% точности в Direct-режиме (GPT-5 ~16.5%)
• Text-CoT часто ухудшает результат (например, −18% у Gemini 2.5 Pro)
• Visual-CoT даёт средний прирост +33.7%, особенно заметный в задачах по физике

Главный вывод:

Моделям нужен *визуальный способ думать*.
Им нужно уметь читать простые схемы, понимать их и использовать в рассуждениях, иначе многие задачи просто остаются нерешаемыми.

Статья: arxiv.org/abs/2511.02779

@ai_machinelearning_big_data

#ByteDance
🤔51👍4116🔥5👏4👨‍💻2
🔎 Upscale-LoRA мощный инструмент для восстановления изображений

Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.

Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.

Подходит для архивных снимков, скринов и любых изображений с низким разрешением.

https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA

@ai_machinelearning_big_data

#Upscaler
62👍38💘5🥰4🔥3😁2🤩2👌21🕊1
В России можно посещать IT-мероприятия хоть каждый день: как оффлайн, так и онлайн

Но где их находить? Как узнавать о них раньше, чем когда все начнут выкладывать фотографии оттуда?

Переходите на канал IT-Мероприятия России. В нём каждый день анонсируются мероприятия со всех городов России

📆 в канале размещаются как онлайн, так и оффлайн мероприятия;
👩‍💻 можно найти ивенты по любому стеку: программирование, frontend-backend разработка, кибербезопасность, дата-аналитика, osint, devops и другие;
🎙 разнообразные форматы мероприятий: митапы с коллегами по цеху, конференции и вебинары с известными опытными специалистами, форумы и олимпиады от важных представителей индустрии и многое другое

А чтобы не искать по разным форумам и чатам новости о предстоящих ивентах:

🚀 IT-мероприятия Россииподписывайся и будь в курсе всех предстоящих мероприятий!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21😁9🔥64🗿3🤷2💋1
✔️ Google выпустил новый 50-страничный документ о том, как создавать AI-агентов, которые реально работают в практических задачах

Это понятное и структурированное введение в основы агентных систем.

В гайде рассматриваются:
- архитектура агента и его основные компоненты
- роль LLM как «мозга» агента
- подключение и использование инструментов
- оркестрация нескольких агентов
- подходы к деплою и продакшн-интеграции
- метрики и способы оценки работы
- как создаются самообучающиеся и эволюционирующие агенты
- пример архитектуры AlphaEvolve

📌 Гайд: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view

@ai_machinelearning_big_data


#AI #Agents #Google #LLM #MachineLearning #AIResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
67🔥29👍275🙈4🙏2
Media is too big
VIEW IN TELEGRAM
✔️ Omnilingual ASR: опенсорсная система распознавания речи для 1600 языков от FAIR.

Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.

Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com

✔️ Microsoft создаёт инструмент для запуска CUDA-кода на видеокартах AMD.

Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.

Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.

Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com

✔️ xAI проведет 24-часовой хакатон.

xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.

Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai

✔️ Выбор новостных источников ChatGPT зависит от способа доступа.

Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.

Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.

Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io

✔️ Wikipedia хочет справедливого лицензирования своего контента.

Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.

В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.

Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6229🔥7🥰2
Искусственный интеллект теперь помогает в деловом общении

МТС Бизнес первой на рынке внедряет сервисы искусственного интеллекта в мобильную связь.
Теперь на всех тарифах МТС Умный бизнес можно подключить умные ИИ-сервисы:
· Секретарь для бизнеса ответит за вас на срочный звонок, переведёт общение в чат и передаст ваш ответ собеседнику в режиме реального времени
· Интеллектуальная запись телефонных разговоров сохранит аудиозаписи и их текстовые расшифровки в Личном кабинете МТС Бизнес

Узнайте подробнее о тарифах Умный бизнес и возможностях технологий VoiceTech для бизнеса.
🤣24👍127🆒3🔥1🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 GPT-5 и Sudoku-Bench, почему новые модели всё ещё ломаются на судоку

Sakana AI представили Sudoku-Bench - набор классических и продвинутых судоку-задач, который проверяет не память модели, а её способность рассуждать, понимать новые правила и держать всю логику пазла в голове.

Они протестировали современные модели, включая GPT-5 и методы тонкой настройки вроде GRPO и thought-cloning.

Главное:
GPT-5 стала первой моделью, которая уверенно решает часть сложных задач и показала около 33 % успешных решений на наборе challenge_100. Ранее ни одна LLM не справлялась даже с обычным 9×9.
Но треть решённых - это всё ещё мало: большая часть задач остаётся нерешённой, особенно варианты с необычными правилами.

Ключевая трудность в том, что такие головоломки требуют не просто следовать правилам, а уметь понять незнакомые ограничения, найти стратегию «входа», просчитывать ходы вперёд и сохранять глобальную согласованность. Модели часто делают правильные локальные шаги, но теряют общую структуру.

GRPO и thought-cloning дают улучшения, но пока не позволяют моделям преодолеть сложные варианты. Даже с обучением на человеческих примерах ИИ быстро «запутывается» в длинных логических цепочках.

Sudoku-Bench - это тест на реальное рассуждение, а не на подбор паттернов. Он проверяет пространственное мышление, логику, способность адаптироваться и работать с новыми правилами. Прогресс на таких задачах - показатель движения к более структурному и осмысленному ИИ.

Авторы предлагают Sudoku-Bench как стандарт, по которому можно судить, насколько модели действительно умеют думать. Для будущих систем важны не просто большие параметры, а развитая логика, планирование и умение работать с новыми структурами задач.

@ai_machinelearning_big_data

#ai #ml #sakana
Please open Telegram to view this post
VIEW IN TELEGRAM
57👍26🥰7🔥5
🧠 Baidu открыли ERNIE-4.5-VL-28B-A3B-Thinking

Модель с 28B параметров и архитектурой A3B активирует лишь ~3B на шаг, но при этом показывает уровень топовых визуальных моделей. Подходит для задач, где нужно сочетать изображение, контекст и многошаговое рассуждение.

Что умеет:
- визуальное рассуждение: анализ диаграмм, многошаговая логика, причинно-следственные связи
- STEM-задачи по фото: можно сфотографировать пример и получить решение
- визуальное указание: точное определение объектов в сцене
- детальный анализ изображения: фиксирует мелочи при масштабировании
- вызов инструментов: например, Image Search
- понимание видео: отслеживание событий по таймлинии

Лицензия Apache 2.0.

Модель: https://huggingface.co/baidu/ERNIE-4.5-VL-28B-A3B-Thinking

@ai_machinelearning_big_data

#ai #ml #Baidu
34👍20🔥6🤔2
💡 HierarchicalTopK — новый взгляд на интерпретируемость нейросетей

На EMNLP 2025 представили метод HierarchicalTopK — подход, который позволяет обучать нейросети сразу на нескольких уровнях разреженности, не теряя интерпретируемости и качества. Разреженность обычно выбирают еще до начала обучения — изменить ее потом нельзя. Слишком маленькая — модель описывается плохо, большая — признаки теряют смысл. HierarchicalTopK, в свою очередь, решает эту проблему, обучая сеть сразу на нескольких уровнях разреженности в едином пространстве.

Главное:
Идея в том, чтобы уйти от классической схемы, где под каждый уровень разреженности приходится обучать отдельную модель, так как этот подход трудоемкий, дорогой и плохо масштабируется.

HierarchicalTopK предлагает обучать единичное пространство, где все уровни учитываются одновременно — внутри одной модели несколько уровней представления данных от подробного до обобщенного.

Благодаря этому можно динамически переключаться между уровнями разреженности без потери связи между ними. Модель остается интерпретируемой даже при высокой разреженности, потому что каждая грань пространства понимает, как соотносится с другими.

Вместо десятков отдельных сетей и наборов данных достаточно одной модели, которая гибко адаптируется под нужную задачу — что снижает затраты. Метод открывает возможности для аудита и анализа моделей, помогает корректировать их поведение и ускоряет внедрение интерпретируемого ИИ в индустрии.

https://huggingface.co/t-tech/flex-sae

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍3816🔥5👏3😁1