Что получим при запуске кода?
Anonymous Quiz
22%
<__main__.SomeClass object at …>
21%
AttributeError
7%
None
14%
SyntaxError
36%
42
🔥4 2⚡1👍1💋1
match-case в Python: полный гайд по структурному сопоставлению ↔️
Если ваша первая мысль при виде
Хватит городить монструозные if-лесенки!
В гайде мы:
▫️ Начнем с основ на простых примерах, чтобы освоить синтаксис.
▫️ Научимся элегантно парсить команды.
▫️ Перейдем к главной "боевой" задаче — разбору JSON-ответов от API.
▫️ И, конечно, разберем антипаттерны — когда
Если ваша первая мысль при виде
match-case
из Python 3.10 была: "А, ну наконец-то switch
завезли!", то стоит сказать, что это на самом деле, это гораздо больше, чем просто синтаксический сахар для замены громоздких if-elif-else
. Его настоящая суперсила заключается в работе со структурой данных.Хватит городить монструозные if-лесенки!
В гайде мы:
▫️ Начнем с основ на простых примерах, чтобы освоить синтаксис.
▫️ Научимся элегантно парсить команды.
▫️ Перейдем к главной "боевой" задаче — разбору JSON-ответов от API.
▫️ И, конечно, разберем антипаттерны — когда
match
использовать не нужно, чтобы не усложнить код.👍7 3🔥2👨💻2⚡1
🎨 Носорог Дюрера на matplotlib! Когда художник – Python-разработчик, а муза – гравюра 16-го века.
🦏 Есть такая знаменитая гравюра носорога Альбрехта Дюрера, он её создал в 1515 году по описанию и эскизу, так и не увидев зверя вживую. Она на века стала каноническим изображением носорога, не смотря на неточности.
Один энтузиаст решил переосмыслить этот шедевр с помощью matplotlib. Не просто нарисовать, а поставить себе челлендж: использовать как можно больше разных встроенных типов графиков matplotlib, причем каждый тип – только один раз. Почти справился!
В этом нелегком деле автору активно помогал GitHub Copilot 🤖, который, по его словам, продемонстрировал "энциклопедические знания matplotlib и бесконечное терпение", отвечая на бесконечные "А как сделать вот это?..".
Результат – постер "Современный Носорог", полностью созданный при помощи кода, который можно посмотреть здесь.
🦏 Есть такая знаменитая гравюра носорога Альбрехта Дюрера, он её создал в 1515 году по описанию и эскизу, так и не увидев зверя вживую. Она на века стала каноническим изображением носорога, не смотря на неточности.
Один энтузиаст решил переосмыслить этот шедевр с помощью matplotlib. Не просто нарисовать, а поставить себе челлендж: использовать как можно больше разных встроенных типов графиков matplotlib, причем каждый тип – только один раз. Почти справился!
В этом нелегком деле автору активно помогал GitHub Copilot 🤖, который, по его словам, продемонстрировал "энциклопедические знания matplotlib и бесконечное терпение", отвечая на бесконечные "А как сделать вот это?..".
Результат – постер "Современный Носорог", полностью созданный при помощи кода, который можно посмотреть здесь.
🔥6❤4🤔2👍1🙏1
Вышел опенсорсный фреймворк Claude Code Development Kit, который превращает Claude Code в целую ИИ-команду.
Коротко:
- Оркестрация ИИ-агентов: Запускает сразу несколько "специалистов" (безопасник, архитектор, рефакторщик) для одной задачи.
- Самообновляемая документация: ИИ сам анализирует ваши коммиты и обновляет доки. Да, серьезно.
- Контекст, который не теряется: Специальная 3-уровневая система документации, которую ИИ реально понимает и не забывает через 5 минут.
- Хуки и безопасность: Автоматически проверяет код на забытые ключи и пароли перед отправкой во внешние сервисы.
Выглядит как попытка системно решить главную боль при работе с LLM в больших проектах — потерю контекста. Вместо того чтобы быть нянькой для нейронки, вы становитесь тимлидом для своей ИИ-команды.
👉 Более подробный обзор здесь
👉 Код проекта здесь
Коротко:
- Оркестрация ИИ-агентов: Запускает сразу несколько "специалистов" (безопасник, архитектор, рефакторщик) для одной задачи.
- Самообновляемая документация: ИИ сам анализирует ваши коммиты и обновляет доки. Да, серьезно.
- Контекст, который не теряется: Специальная 3-уровневая система документации, которую ИИ реально понимает и не забывает через 5 минут.
- Хуки и безопасность: Автоматически проверяет код на забытые ключи и пароли перед отправкой во внешние сервисы.
Выглядит как попытка системно решить главную боль при работе с LLM в больших проектах — потерю контекста. Вместо того чтобы быть нянькой для нейронки, вы становитесь тимлидом для своей ИИ-команды.
👉 Более подробный обзор здесь
👉 Код проекта здесь
🔥7👍2⚡1🙏1👌1
Кстати, сами Anthropic, создатели Claude, выкатили целую пачку бесплатных курсов для разработчиков.
Там разное: и про работу с их API напрямую, и через облака Amazon/Google, и про Model Context Protocol.
В первую очередь рекомендовал бы обратить внимание на курс Claude Code in Action.
Если коротко, это практический гайд по их командному AI-ассистенту, который живёт прямо в терминале. Штука, которая умеет читать файлы, выполнять команды, сама править код и интегрироваться с GitHub для ревью пулл-реквестов.
👉🏻 Все курсы лежат здесь, они бесплатные и с сертификатами
Там разное: и про работу с их API напрямую, и через облака Amazon/Google, и про Model Context Protocol.
В первую очередь рекомендовал бы обратить внимание на курс Claude Code in Action.
Если коротко, это практический гайд по их командному AI-ассистенту, который живёт прямо в терминале. Штука, которая умеет читать файлы, выполнять команды, сама править код и интегрироваться с GitHub для ревью пулл-реквестов.
👉🏻 Все курсы лежат здесь, они бесплатные и с сертификатами
❤5👍3🔥3 2⚡1🙏1🆒1
Встречайте, Kimi K2 от Moonshot AI 🇨🇳
🤯 Что за зверь?
Это MoE-модель на триллион (!!!) параметров, из которых 32 миллиарда — активные. Архитектура основана на DeepSeek V3, но с важными доработками.
Kimi K2 — это так называемая "агентная" модель. Говоря по-простому, это не просто болталка, которая генерит вам текст по запросу, а модель, которая может действовать: анализировать данные, писать и запускать код, исправлять ошибки, работать с инструментами.
И что по бенчмаркам?
В задачах на программирование (бенчмарк SWE-bench) эта модель, работая в "рефлекторном" режиме (без долгого обдумывания), обходит Claude 4 Sonnet и даже GPT-4.1. И это, напомню, открытая модель, которую можно развернуть у себя.
🤖 А что под капотом?
Китайские инженеры не просто скопировали архитектуру. Они использовали модифицированный оптимизатор MuonClip, который позволил им провести тренировку на 15.5 триллионах токенов с нулевой нестабильностью. Никаких "лосс спайков", которыми так славятся большие модели. Чистая, стабильная тренировка.
Ну и главное — деньги.
API у них стоит смешных денег по сравнению с конкурентами:
- $0.60 за миллион входных токенов
- $2.50 за миллион выходных токенов
Это почти в 5 раз дешевле, чем условный Claude 4 Sonnet.
Ссылочки
- Официальный блогпост с примерами
- Код на GitHub
- Веса на Hugging Face
🤯 Что за зверь?
Это MoE-модель на триллион (!!!) параметров, из которых 32 миллиарда — активные. Архитектура основана на DeepSeek V3, но с важными доработками.
Kimi K2 — это так называемая "агентная" модель. Говоря по-простому, это не просто болталка, которая генерит вам текст по запросу, а модель, которая может действовать: анализировать данные, писать и запускать код, исправлять ошибки, работать с инструментами.
В официальном блогпосте есть шикарный пример: модели дают задачу проанализировать данные по зарплатам, найти зависимости, построить графики и в конце сверстать HTML-страничку с результатами и интерактивным калькулятором. Kimi K2 последовательно выполняет 13 шагов в IPython, чтобы получить готовый результат.
И что по бенчмаркам?
В задачах на программирование (бенчмарк SWE-bench) эта модель, работая в "рефлекторном" режиме (без долгого обдумывания), обходит Claude 4 Sonnet и даже GPT-4.1. И это, напомню, открытая модель, которую можно развернуть у себя.
🤖 А что под капотом?
Китайские инженеры не просто скопировали архитектуру. Они использовали модифицированный оптимизатор MuonClip, который позволил им провести тренировку на 15.5 триллионах токенов с нулевой нестабильностью. Никаких "лосс спайков", которыми так славятся большие модели. Чистая, стабильная тренировка.
Ну и главное — деньги.
API у них стоит смешных денег по сравнению с конкурентами:
- $0.60 за миллион входных токенов
- $2.50 за миллион выходных токенов
Это почти в 5 раз дешевле, чем условный Claude 4 Sonnet.
Ссылочки
- Официальный блогпост с примерами
- Код на GitHub
- Веса на Hugging Face
❤4👍3 3🙏1
Прогресс не остановить: Google рапортует об успехах ИИ 🚀
Все носятся с ИИ-помощниками, и вот Google подкатил официальный отчет, как у них там дела с внедрением нейронок в разработку.
Если коротко: всё просто великолепно.
Ключевые тезисы из их блога:
▫️ 50% кода (!) Google теперь пишутся с помощью ИИ. То есть объём кода, написанного руками, сравнялся с объёмом, сгенерированным нейронкой.
▫️ Секрет успеха, говорят, в том, что они годами собирали тонны своих внутренних данных о работе инженеров: правки кода, ревью, фиксы багов. И на этом всём обучили свои модели.
▫️ ИИ не только дописывает код, но и помогает исправлять комменты к код-ревью и адаптировать вставленный код под новый контекст.
В общем, будущее уже здесь, разработчик всё больше превращается в ревьюера, а производительность и счастье инженеров (они их тщательно мониторят, ага) растут как на дрожжах.
Звучит как идеальный мир, правда? Корпорация добра в очередной раз победила рутину.
Вот только так ли всё радужно на самом деле?😏
Завтра разберем одно ОЧЕНЬ интересное исследование на этот счёт🤫
Все носятся с ИИ-помощниками, и вот Google подкатил официальный отчет, как у них там дела с внедрением нейронок в разработку.
Если коротко: всё просто великолепно.
Ключевые тезисы из их блога:
▫️ 50% кода (!) Google теперь пишутся с помощью ИИ. То есть объём кода, написанного руками, сравнялся с объёмом, сгенерированным нейронкой.
▫️ Секрет успеха, говорят, в том, что они годами собирали тонны своих внутренних данных о работе инженеров: правки кода, ревью, фиксы багов. И на этом всём обучили свои модели.
▫️ ИИ не только дописывает код, но и помогает исправлять комменты к код-ревью и адаптировать вставленный код под новый контекст.
В общем, будущее уже здесь, разработчик всё больше превращается в ревьюера, а производительность и счастье инженеров (они их тщательно мониторят, ага) растут как на дрожжах.
Звучит как идеальный мир, правда? Корпорация добра в очередной раз победила рутину.
Вот только так ли всё радужно на самом деле?
Завтра разберем одно ОЧЕНЬ интересное исследование на этот счёт
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7🤔3 3👍2⚡1🔥1🙏1🏆1🆒1 1
А теперь наоборот... ИИ замедляет разрабов? 🐌
Прочитали отчёт от Google, где ИИ уже почти пишет код сам, а разработчики радостно хлопают в ладоши?
А сегодня читайте свежее исследование — ученые провели эксперимент: взяли 16 опытных разрабов из крупных open-source проектов и дали им реальные задачи из их же репозиториев. Половину задач они делали как обычно, а вторую — с использованием самых модных ИИ-инструментов (Claude 3.5/3.7).
И что в итоге?
😱 С ИИ-помощниками разработчики выполняли задачи на 19% медленнее.
Да, вы всё правильно прочитали. Медленнее.
Но самый сок не в этом. Самое смешное — это разрыв между реальностью и восприятием:
- До начала эксперимента разрабы ожидали, что ИИ ускорит их на 24%.
- Даже после того, как они по факту работали медленнее, они всё равно считали, что ИИ ускорил их на 20%.
Надо бы мне над собой эксперимент провести🗒
Прочитали отчёт от Google, где ИИ уже почти пишет код сам, а разработчики радостно хлопают в ладоши?
А сегодня читайте свежее исследование — ученые провели эксперимент: взяли 16 опытных разрабов из крупных open-source проектов и дали им реальные задачи из их же репозиториев. Половину задач они делали как обычно, а вторую — с использованием самых модных ИИ-инструментов (Claude 3.5/3.7).
И что в итоге?
Да, вы всё правильно прочитали. Медленнее.
Но самый сок не в этом. Самое смешное — это разрыв между реальностью и восприятием:
- До начала эксперимента разрабы ожидали, что ИИ ускорит их на 24%.
- Даже после того, как они по факту работали медленнее, они всё равно считали, что ИИ ускорил их на 20%.
Получается, ИИ создает настолько мощную иллюзию продуктивности, что люди просто не замечают, как тратят больше времени. Вместо того чтобы писать код, они тратят время на промты, регенерацию ответов и исправление того, что нагенерила нейронка.
Надо бы мне над собой эксперимент провести
Please open Telegram to view this post
VIEW IN TELEGRAM
😁10 4👀3❤1👍1🌚1👾1
ЛОКАЛЬНЫЙ И ОПЕНСОРСНЫЙ AI-КОНСТРУКТОР ПРИЛОЖЕНИЙ 🤔
Все эти ваши облачные AI-билдеры типа v0 или Lovable — это, конечно, круто. Но есть нюансы: подписка, вендор-лок, данные улетают «на деревню дедушке», а иногда и просто тормозит из-за разницы между облачной средой и вашим локальным окружением. Знакомо?
Тут появился Dyad — дерзкий проект, который как v0, только он живёт прямо у вас на компе. Быстрый, приватный и полностью под вашим контролем.
Что в нём такого особенного?
⚡️ Полностью локально. Вся работа происходит на вашей машине. Это значит:
- Приватность: Никакой код и никакие данные никуда не отправляются. Можно даже работать с локальными моделями через Ollama.
- Скорость: Никаких сетевых задержек. Все изменения, превью и откаты происходят мгновенно.
- Никаких проблем с окружением: Что видите, то и получаете. Никаких сюрпризов при переносе на локалхост.
🔑 Свои ключи, любые модели. Вы не привязаны к одному поставщику. Используйте свои API-ключи от чего угодно:
- Gemini 2.5 Pro
- OpenAI GPT-4.1
- Claude Sonnet 3.7
- Любые модели через Ollama
🛠 Не только UI, а полноценный бэкенд. В отличие от многих UI-генераторов, Dyad идет дальше. Благодаря встроенной интеграции с Supabase, вы можете прямо в нём делать:
- Аутентификацию
- Базу данных
- Серверные функции
То есть, можно собрать и запустить полноценный MVP, не выходя из одного приложения.
❤️ Опенсорс и бесплатно. Никаких триалов, подписок и регистраций. Просто скачиваете бинарник под свою систему (Mac, Windows) и начинаете работать. Весь сгенерированный код остается у вас.
👉 Забираем и пробуем здесь: github.com/dyad-sh/dyad
👀 Посмотреть демки и почитать подробнее: dyad.sh
Все эти ваши облачные AI-билдеры типа v0 или Lovable — это, конечно, круто. Но есть нюансы: подписка, вендор-лок, данные улетают «на деревню дедушке», а иногда и просто тормозит из-за разницы между облачной средой и вашим локальным окружением. Знакомо?
Тут появился Dyad — дерзкий проект, который как v0, только он живёт прямо у вас на компе. Быстрый, приватный и полностью под вашим контролем.
Что в нём такого особенного?
⚡️ Полностью локально. Вся работа происходит на вашей машине. Это значит:
- Приватность: Никакой код и никакие данные никуда не отправляются. Можно даже работать с локальными моделями через Ollama.
- Скорость: Никаких сетевых задержек. Все изменения, превью и откаты происходят мгновенно.
- Никаких проблем с окружением: Что видите, то и получаете. Никаких сюрпризов при переносе на локалхост.
🔑 Свои ключи, любые модели. Вы не привязаны к одному поставщику. Используйте свои API-ключи от чего угодно:
- Gemini 2.5 Pro
- OpenAI GPT-4.1
- Claude Sonnet 3.7
- Любые модели через Ollama
🛠 Не только UI, а полноценный бэкенд. В отличие от многих UI-генераторов, Dyad идет дальше. Благодаря встроенной интеграции с Supabase, вы можете прямо в нём делать:
- Аутентификацию
- Базу данных
- Серверные функции
То есть, можно собрать и запустить полноценный MVP, не выходя из одного приложения.
❤️ Опенсорс и бесплатно. Никаких триалов, подписок и регистраций. Просто скачиваете бинарник под свою систему (Mac, Windows) и начинаете работать. Весь сгенерированный код остается у вас.
👉 Забираем и пробуем здесь: github.com/dyad-sh/dyad
👀 Посмотреть демки и почитать подробнее: dyad.sh
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡4👍2🔥2 2🙏1🌚1
Моя вчерашняя рабочая сессия с Gemini закончилась так.
Как думаете, решение оказалось по итогу рабочим?😂
Как думаете, решение оказалось по итогу рабочим?
Please open Telegram to view this post
VIEW IN TELEGRAM
😁18 6🤣4🌚1🤪1
Общий сбор! 💪
Есть, кто может порекомендовать курсы / магистерские программы по таким критериям?
◽️Тематика — ИИ и около
◽️Наполнение — не стандартные от основ python и sql к перцептрону, а что-то более интересное (например, агенты, MCP, LLM, всё, что за рамками стандартного джентельменского набора)
◽️Формат — много практики внутри (хакатоны, kaggle, проекты, стартапы)
◽️Уровень — не для совсем начинающих
Ну или максимально приближенное к этому.
Не дайте мне разочароваться в мире, точно что-то должно быть😳
Есть, кто может порекомендовать курсы / магистерские программы по таким критериям?
◽️Тематика — ИИ и около
◽️Наполнение — не стандартные от основ python и sql к перцептрону, а что-то более интересное (например, агенты, MCP, LLM, всё, что за рамками стандартного джентельменского набора)
◽️Формат — много практики внутри (хакатоны, kaggle, проекты, стартапы)
◽️Уровень — не для совсем начинающих
Ну или максимально приближенное к этому.
Не дайте мне разочароваться в мире, точно что-то должно быть
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓2👀2✍1🤔1
🧹 Пора навести порядок в списках Python! 💥 При помощи карточек вспоминаем, как удалять элементы: от
del
до list comprehensions.🔥12👍5 2⚡1👌1👨💻1
This media is not supported in your browser
VIEW IN TELEGRAM
Главная фишка, которой они трясут — переход от «вайб-кодинга» к «spec-driven development». Типа, ты больше не кидаешь в чат абстрактные идеи, а IDE сама раскладывает их на внятные спеки, архитектуру и таски. А уже потом по этому ТЗ работают AI-агенты.
Что еще обещают:
▫️ Автоматическое написание доков и тестов по триггерам (например, на save файла).
▫️ Полная совместимость с плагинами и настройками VS Code.
▫️ Можно скормить фотку диаграммы с доски, и она её поймет.
Звучит как попытка превратить тупого AI-ассистента в системного аналитика.
Ну и самое прекрасное — пока что всё это бесплатно, потому что "Preview" 🌚. Мы-то знаем, что это значит.
Тестим, пока дают: https://kiro.dev/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4 3🔥2🤔2⚡1🌚1