Привет, друзья!
Совпадение или нет, но последняя неделя посвящена китайским LLM🫢 На этот раз новость ещё более актуальная для программистов
Сегодня вышел Qwen3-Coder - и судя по отчётам, это один из самых мощных open-source кодеров на текущий момент. Новая модель от Alibaba - серьёзный конкурент для DeepSeek-Coder, Claude-Sonnet, GPT-4и даже недавно вышедшей Kimi-K2 в задачах генерации и понимания кода. Ещё из плюсов: всё открыто и бесплатно😏
🤖 Что такое Qwen3-Coder?
Это серия LLM, заточенных именно под программирование. Они обучены на коде, документации, инженерных задачах и issue-тредах. В отличие от general-purpose LLM, Qwen3-Coder понимает разработку по-настоящему - от Python и C++ до frontend-а и devops-скриптов.
🤖 У самой эффективной модели в линейке:
- 480 млрд параметров, из которых активных 35 млрд
- контекст до 256k токенов напрямую и до 1 млн с помощью экстраполяций🤯
- обучена на свежем коде и диалогах разработчиков
- может читать, писать и рефакторить большие проекты, а не просто отвечать на мелкие вопросы
В демо модель решает наши стандартные задачи: распознаёт и комментирует код, предлагает правки, пишет unit-тесты, пайплайны, CI/CD-сценарии, отвечает как StackOverflow...
🤖 Ссылки:
- Репозиторий на GitHub
- Официальный блог-пост с метриками, параметрами и инструкциями по запуску (можно легко всё подключить через терминал)
- Протестировать модель ТУТ
PS: тем временем почти неделю жду, когда пришлют демо-доступ к KIRO👊
#полезный_ии@data_easy
Совпадение или нет, но последняя неделя посвящена китайским LLM
Сегодня вышел Qwen3-Coder - и судя по отчётам, это один из самых мощных open-source кодеров на текущий момент. Новая модель от Alibaba - серьёзный конкурент для DeepSeek-Coder, Claude-Sonnet, GPT-4
Это серия LLM, заточенных именно под программирование. Они обучены на коде, документации, инженерных задачах и issue-тредах. В отличие от general-purpose LLM, Qwen3-Coder понимает разработку по-настоящему - от Python и C++ до frontend-а и devops-скриптов.
- 480 млрд параметров, из которых активных 35 млрд
- контекст до 256k токенов напрямую и до 1 млн с помощью экстраполяций🤯
- обучена на свежем коде и диалогах разработчиков
- может читать, писать и рефакторить большие проекты, а не просто отвечать на мелкие вопросы
В демо модель решает наши стандартные задачи: распознаёт и комментирует код, предлагает правки, пишет unit-тесты, пайплайны, CI/CD-сценарии, отвечает как StackOverflow...
- Репозиторий на GitHub
- Официальный блог-пост с метриками, параметрами и инструкциями по запуску (можно легко всё подключить через терминал)
- Протестировать модель ТУТ
PS: тем временем почти неделю жду, когда пришлют демо-доступ к KIRO
#полезный_ии@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11👏3❤2
Привет, друзья!
В DS-задачах часто важно не только получить точное предсказание модели, но и понять, как именно каждый признак влияет на результат. А простые встроенные методы оценки feature importance часто показывают лишь общее влияние, не раскрывая деталей и взаимодействий между признаками 🤷♀️
Зато есть мощная библиотека SHAP - она позволяет объяснять предсказания любой классической модели, давая детальные и справедливые оценки вклада каждого признака в конкретное предсказание. SHAP-значения основаны на теории игр и помогают понять не только важность, но и направление влияния признаков (подробнее про них тут и в colab😉).
В карточках листайте примеры основных возможностей SHAP, а в уже упомянутом ноутбуке - какими командами всё это построить на питоне🐍
🔗 Ещё полезные ссылки для изучения SHAP:
- Официальная документация
- Репозиторий на GitHub
- Статья с обзором и более глубокой теорией
Откройте черный ящик моделей 😁
#classic_ml@data_easy
В DS-задачах часто важно не только получить точное предсказание модели, но и понять, как именно каждый признак влияет на результат. А простые встроенные методы оценки feature importance часто показывают лишь общее влияние, не раскрывая деталей и взаимодействий между признаками 🤷♀️
Зато есть мощная библиотека SHAP - она позволяет объяснять предсказания любой классической модели, давая детальные и справедливые оценки вклада каждого признака в конкретное предсказание. SHAP-значения основаны на теории игр и помогают понять не только важность, но и направление влияния признаков (подробнее про них тут и в colab😉).
В карточках листайте примеры основных возможностей SHAP, а в уже упомянутом ноутбуке - какими командами всё это построить на питоне
🔗 Ещё полезные ссылки для изучения SHAP:
- Официальная документация
- Репозиторий на GitHub
- Статья с обзором и более глубокой теорией
Откройте черный ящик моделей 😁
#classic_ml@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥14❤5🐳2
Привет, друзья!
Вы не раз спрашивали в комментариях про книги по Deep Learning, и, как оказалось, про это у нас ещё не было поста… Исправляем эту оплошность! Сохраняйте подборку - будет полезно как новичкам, так и тем, кто хочет копнуть глубже❤️
🔥 Deep Learning - Ian Goodfellow, Yoshua Bengio, Aaron Courville
Библия по глубокому обучению: от основ нейросетей до продвинутых тем. Отлично подойдёт тем, кто хочет получить фундаментальное и строгое понимание.
Источники: версия на русском.
🔥 Neural Networks and Deep Learning - Michael Nielsen
Простой и интуитивный вход в мир нейросетей, материал относительно небольшой. Много визуализаций, понятные объяснения, минимум формальностей - идеально для первого знакомства.
Источники: оригинал, перевод на русский.
🔥 Dive into Deep Learning (D2L) - Aston Zhang, Zachary Lipton, Mu Li, Alexander Smola
Книга-учебник с интерактивными ноутбуками: теорию можно сразу пробовать в коде. Построена на PyTorch и MXNet, активно обновляется. Хороший баланс между практикой и объяснениями.
Источники: оригинал, перевод на русский.
🔥 Deep Learning for Coders with fastai and PyTorch - Jeremy Howard, Sylvain Gugger
Книга для тех, кто хочет быстро перейти к решению реальных задач. Много примеров, best practices и объяснений - особенно подойдёт тем, кто уже умеет кодить и хочет перейти к серьёзным DL-проектам.
Источники: оригинал на английском.
Если вы только начинаете - начните с Nielsen или D2L. Если хотите системности - читайте Goodfellow. А если тянет в продвинутую практику - берите последнее из списка❔
#dl@data_easy
Вы не раз спрашивали в комментариях про книги по Deep Learning, и, как оказалось, про это у нас ещё не было поста… Исправляем эту оплошность! Сохраняйте подборку - будет полезно как новичкам, так и тем, кто хочет копнуть глубже
Библия по глубокому обучению: от основ нейросетей до продвинутых тем. Отлично подойдёт тем, кто хочет получить фундаментальное и строгое понимание.
Источники: версия на русском.
Простой и интуитивный вход в мир нейросетей, материал относительно небольшой. Много визуализаций, понятные объяснения, минимум формальностей - идеально для первого знакомства.
Источники: оригинал, перевод на русский.
Книга-учебник с интерактивными ноутбуками: теорию можно сразу пробовать в коде. Построена на PyTorch и MXNet, активно обновляется. Хороший баланс между практикой и объяснениями.
Источники: оригинал, перевод на русский.
Книга для тех, кто хочет быстро перейти к решению реальных задач. Много примеров, best practices и объяснений - особенно подойдёт тем, кто уже умеет кодить и хочет перейти к серьёзным DL-проектам.
Источники: оригинал на английском.
Если вы только начинаете - начните с Nielsen или D2L. Если хотите системности - читайте Goodfellow. А если тянет в продвинутую практику - берите последнее из списка
#dl@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥21❤🔥9❤7
Привет, друзья!
Современные реалии таковы - новости про LLM заполонили все ленты. Но сегодня речь про кое-что особенное: OpenAI вернулась к своим корням и анонсировала GPT‑OSS - первую модель с открытыми весами после GPT‑2.
🐈 А поподробнее?
🔜 Доступны две версии: gpt‑oss‑120B (117 B параметров) и gpt‑oss‑20B (21 B параметров).
🔜 Лицензия Apache 2.0 - а значит, можно свободно использовать и дорабатывать без ограничений.
🔜 Это открытые веса, а не просто куча исходников - то есть можно запускать локально, адаптировать под себя и никак не связываться с API OpenAI.
🔜 Производительность впечатляет: gpt‑oss‑120B сравнима с o4‑mini и даже превосходит её в некоторых задачах (смотрите на скрине).
😏 Это крутой поворот: OpenAI впервые с 2019 года возвращается в open‑weight лигу, а модели уже можно скачать с Hugging Face и запустить.
🐈 Технические моменты:
🔜 Модель использует Mixture-of-Experts (MoE) архитектуру: в расширенной версии из ~117 B параметров активны только ~5.1 B на токен, что делает её эффективной для инференса при больших нагрузках.
🔜 Поддерживает chain-of-thought reasoning и function-calling, подходит для сложных агентных сценариев, интеллектуальных пайплайнов и использования внутри своей инфраструктуры.
🔗Самые важные ссылки:
🔜 20B на Hugging Face
🔜 120B на Hugging Face
🔜 Официальный пост OpenAI с подробностями архитектуры и бенчмарками
Продолжаем следить за развитием событий👀
#полезный_ии@data_easy
#nlp@data_easy
Современные реалии таковы - новости про LLM заполонили все ленты. Но сегодня речь про кое-что особенное: OpenAI вернулась к своим корням и анонсировала GPT‑OSS - первую модель с открытыми весами после GPT‑2.
🔗Самые важные ссылки:
Продолжаем следить за развитием событий
#полезный_ии@data_easy
#nlp@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥10👍4❤2👏1
Привет, друзья!
В продолжение к предыдущему посту: на GitHub докинули ноутбуки для файнтюна gpt-oss с LoRA и запуска gpt-oss-20B в Colab(вторая ссылка может не открыться на самом GitHub, попробуйте скачать ноутбук).
Обещают, что последнее запустится даже в бесплатном Colab… но нет - 15 Гб видеопамяти не хватает☹️ Пробуйте на Kaggle, там дают 16 ГБ (кстати, там ещё и сессия до 12 часов:)).
🤔 И ещё одна интересная деталь...
Если заглянуть в код ноутбука run-colab, можно заметить строчку с установкой triton. Это не просто библиотека, а важная часть ускорения современных моделей: именно Triton лежит в основе многих оптимизаций PyTorch 2.x и кастомных операций в LLM, позволяя получать скорость уровня CUDA, но писать код почти как на Python.
🤔 Поподробнее про Triton...
➡️ Это язык и компилятор для написания собственных GPU-ядер, но с синтаксисом, который больше напоминает Python, чем C++ / CUDA. Он избавляет от рутины вроде ручного управления памятью и потоками - достаточно понимать принципы работы GPU и знать нужные команды.
➡️ Активно используется в PyTorch (например, в torch.compile).
➡️ Позволяет писать свои высокопроизводительные матричные умножения, операции внимания, редукции и вообще всё, что можно распараллелить на GPU.
🤔 В чём плюсы тритона?
➡️ Простота: код выглядит дружелюбно, но под капотом превращается в оптимизированный PTX для NVIDIA GPU (к слову, пока официально есть поддержка только NVIDIA GPU; для других архитектур либо отсутствует, либо ещё на экспериментальном уровне).
➡️ Автоматическая оптимизация: Triton сам раскладывает данные по блокам, чтобы GPU был загружен на максимум.
➡️ Производительность: в некоторых кастомных сценариях Triton-ядра догоняют и даже обгоняют cuBLAS/cuDNN.
🔗 Если хотите больше примеров, вот несколько полезных ссылок:
➡️ Документация
➡️ Репозиторий на GitHub
➡️ И отличная вводная статья от OpenAI с примерами кода
#dl@data_easy
В продолжение к предыдущему посту: на GitHub докинули ноутбуки для файнтюна gpt-oss с LoRA и запуска gpt-oss-20B в Colab
Обещают, что последнее запустится даже в бесплатном Colab… но нет - 15 Гб видеопамяти не хватает
Если заглянуть в код ноутбука run-colab, можно заметить строчку с установкой triton. Это не просто библиотека, а важная часть ускорения современных моделей: именно Triton лежит в основе многих оптимизаций PyTorch 2.x и кастомных операций в LLM, позволяя получать скорость уровня CUDA, но писать код почти как на Python.
🔗 Если хотите больше примеров, вот несколько полезных ссылок:
#dl@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
openai-cookbook/articles/gpt-oss/fine-tune-transfomers.ipynb at main · openai/openai-cookbook
Examples and guides for using the OpenAI API. Contribute to openai/openai-cookbook development by creating an account on GitHub.
🔥10❤🔥5👍2👏2
Привет, друзья!
Наконец-то и до меня дошла очередь в waiting-листе на доступ к KIRO - новой AI-IDE от AWS. Выглядит многообещающе😏
🫤 Что такое KIRO?
Это экспериментальная среда разработки со встроенным ИИ. Не просто «Copilot для автодополнения кода», а полноценный ассистент, который работает по принципу spec-driven development:
➡️ сначала формирует документ с требованиями и архитектурой,
➡️ разбивает всё на задачи,
➡️ и только потом вносит изменения в проект.
То есть KIRO сразу мыслит на уровне проекта целиком, а не отдельной функции или файла.
🫤 Модель под капотом - Claude Sonnet 4.0 (Anthropic), с fallback на Sonnet 3.7.
🫤 Первое впечатление от использования
Интерфейс максимально интуитивный, по сути - форк VS Code. Достаточно пару минут потыкать, и всё становится понятно: где папки, вкладки, чаты, терминал.
Для проверки открыла свой существующий готовый проект, на вопрос: «Что можно улучшить?» - KIRO внимательно изучил весь репозиторий и выдал 10+ довольно обоснованных рекомендаций - от архитектурных правок до мелких рефакторингов.
И, конечно, завершил всё традиционным: «Давай внесу эти изменения прямо в проект?»🙂
В отличие от обычных LLM-помощников, KIRO смотрит на кодовую базу комплексно, понимает контекст и модули, а не отвечает точечно на короткие вопросы.
🫤 Есть ли аналоги?
Да, но KIRO делает ставку на структурность. Ближе всего к нему:
- Cursor (форк VS Code с AI-интеграцией),
- Cline (open-source агент для VS Code, бесплатный),
- Aider (CLI-агент для работы с кодом через git, тоже open-source).
Хоть KIRO пока и в превью, но это большой шаг в сторону новых IDE, где ассистент не просто дополняет код, а реально берёт на себя роль соразработчика.
‼️Кто ещё не записался - можно добавиться в waiting-list тут, мне доступ пришел ровно через месяц.
#полезный_ии@data_easy
Наконец-то и до меня дошла очередь в waiting-листе на доступ к KIRO - новой AI-IDE от AWS. Выглядит многообещающе
Это экспериментальная среда разработки со встроенным ИИ. Не просто «Copilot для автодополнения кода», а полноценный ассистент, который работает по принципу spec-driven development:
То есть KIRO сразу мыслит на уровне проекта целиком, а не отдельной функции или файла.
Интерфейс максимально интуитивный, по сути - форк VS Code. Достаточно пару минут потыкать, и всё становится понятно: где папки, вкладки, чаты, терминал.
Для проверки открыла свой существующий готовый проект, на вопрос: «Что можно улучшить?» - KIRO внимательно изучил весь репозиторий и выдал 10+ довольно обоснованных рекомендаций - от архитектурных правок до мелких рефакторингов.
И, конечно, завершил всё традиционным: «Давай внесу эти изменения прямо в проект?»🙂
В отличие от обычных LLM-помощников, KIRO смотрит на кодовую базу комплексно, понимает контекст и модули, а не отвечает точечно на короткие вопросы.
Да, но KIRO делает ставку на структурность. Ближе всего к нему:
- Cursor (форк VS Code с AI-интеграцией),
- Cline (open-source агент для VS Code, бесплатный),
- Aider (CLI-агент для работы с кодом через git, тоже open-source).
Хоть KIRO пока и в превью, но это большой шаг в сторону новых IDE, где ассистент не просто дополняет код, а реально берёт на себя роль соразработчика.
‼️Кто ещё не записался - можно добавиться в waiting-list тут, мне доступ пришел ровно через месяц.
#полезный_ии@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥9❤🔥6👏2
Привет, друзья!
Следующий месяц обещает быть жарким - и не из-за погоды, а из-за множества интересных встреч и конференций про ML! Держите подборку:
📱 D >< Vision - митап, посвященный CV от МТС AI.
Когда: 21 августа офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
👍 RecSys Meetup WB - встреча про рекомендательные системы и ML в e-commerce.
Когда: 28 августа офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
⚛️ MoscowAI #3 - серия встреч про нейросети, их применение и практические кейсы.
Когда: 3 сентября офлайн в Москве (возможно, будет и онлайн).
Ссылка на регистрацию: тык.
📦 ECUP от Ozon - турнир + конференция для ML-инженеров и дата-сайентистов с практическими кейсами от индустрии.
Когда: 13 сентября офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
📱 Data Driven - конференция о работе с данными для дата-саентистов и аналитиков.
Когда: 20 сентября офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
⚛️ DCCN - научная конференция под эгидой IEEE по вычислительным системам, сетям и ML-подходам.
Когда: 22–26 сентября офлайн в Москве.
Ссылка на регистрацию: тык.
📱 Practical ML Conf - практическая конференция для ML-инженеров и исследователей на самые разные темы.
Когда: 27 сентября офлайн в Москве.
Ссылка на регистрацию: тык.
🐍 А для новичков - завтра я участвую в открытом эфире "Первые-шаги-дата-сайентиста", где разберем классическую задачу прогнозирования стоимости недвижимости.
Когда: 21 августа 19:00 (мск) онлайн.
Ссылка на регистрацию: тык.
Входновения и полезных инсайтов!😎
#полезный_ии@data_easy
Следующий месяц обещает быть жарким - и не из-за погоды, а из-за множества интересных встреч и конференций про ML! Держите подборку:
Когда: 21 августа офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
Когда: 28 августа офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
⚛️ MoscowAI #3 - серия встреч про нейросети, их применение и практические кейсы.
Когда: 3 сентября офлайн в Москве (возможно, будет и онлайн).
Ссылка на регистрацию: тык.
Когда: 13 сентября офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
Когда: 20 сентября офлайн в Москве и онлайн.
Ссылка на регистрацию: тык.
⚛️ DCCN - научная конференция под эгидой IEEE по вычислительным системам, сетям и ML-подходам.
Когда: 22–26 сентября офлайн в Москве.
Ссылка на регистрацию: тык.
Когда: 27 сентября офлайн в Москве.
Ссылка на регистрацию: тык.
Когда: 21 августа 19:00 (мск) онлайн.
Ссылка на регистрацию: тык.
Входновения и полезных инсайтов!
#полезный_ии@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤6⚡3