Forwarded from AI for Devs
На прошлой неделе Habr опубликовал итоги года — и наш проект попал в ТОП-2 среди UGC-авторов (независимых, не аффилированных с компаниями) и в ТОП-8 overall!
Учитывая, что активно публиковаться мы начали только в сентябре, результат за один квартал, на мой взгляд, более чем достойный. Проект изначально запускался как эксперимент — и теперь уже можно уверенно сказать, что эксперимент удался.
В следующем году постараемся как минимум сохранить текущие темпы, а как максимум — заметно их преумножить. Если вы следите только за одним из каналов проекта, напоминаю полный список наших ресурсов:
— @ai_for_devs — флагман проекта. Неудивительно, учитывая взрывной рост прикладного ИИ именно для разработчиков
— @go_for_devs — второй по популярности, но самый активный по вовлечённости
— @python_for_devs — канал, с которого всё началось, и этим он прекрасен
— @js_for_devs — здесь всё ещё впереди. Если вы из frontend-мира — добро пожаловать, догоним остальных 🙂
Суммарно за проектом уже следит более 6.5 тысяч человек!
Поздравляю всех с наступающим Новым годом и желаю профессионального роста и сильных результатов в 2026!
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Хабр — Итоги 2025
Привет, Хабр! Ну, как настроение? Кажется, что мир начинает вращаться с какой-то практически неуловимой для человеческого внимания скоростью: ИИ, нейрослоп, мошенники, зоопарк хакеров найма, утечки,...
👍7🔥6❤3
⚡️ DuckDB разрушает мифы: 1 ТБ данных — за секунды, без Spark
Принято считать, что терабайты аналитики – это всегда Spark, кластеры и сложная инфраструктура. Но свежий бенчмарк показывает обратное: DuckDB спокойно агрегирует 1 ТБ данных на одном движке — и делает это менее чем за 30 секунд.
Запрос самый обычный: группировка по дате,
Финальный буст даёт сортировка данных при загрузке. Благодаря zonemap-индексам одна из итераций укладывается меньше чем в 10 секунд. Просто потому что данные лежат «правильно».
Полный разбор, бенчмарки и код — читайте целиком на Хабре.
Принято считать, что терабайты аналитики – это всегда Spark, кластеры и сложная инфраструктура. Но свежий бенчмарк показывает обратное: DuckDB спокойно агрегирует 1 ТБ данных на одном движке — и делает это менее чем за 30 секунд.
Запрос самый обычный: группировка по дате,
count(*) и sum(value). Никаких синтетических трюков. Локально на MacBook M2 Pro — около 1,5 минуты. В облачном MotherDuck — в среднем ~17 секунд.Финальный буст даёт сортировка данных при загрузке. Благодаря zonemap-индексам одна из итераций укладывается меньше чем в 10 секунд. Просто потому что данные лежат «правильно».
Полный разбор, бенчмарки и код — читайте целиком на Хабре.
👍6🔥2❤1
🔥 Anthropic инвестируют $1.5 млн в Python — и делают ставку на безопасность open source
Anthropic объявили о двухлетнем партнёрстве с Python Software Foundation и инвестируют $1.5 млн в развитие Python-экосистемы. Ключевой фокус — безопасность цепочки поставок и защита PyPI.
Деньги пойдут на конкретные инженерные изменения:
– разработку проактивных инструментов анализа всех пакетов, загружаемых в Python Package Index, вместо текущей в основном реактивной модели
– создание датасета известного malware для анализа поведения и capability-based детекта
– улучшения, которые потенциально можно будет перенести и на другие open source репозитории, не только Python
@python_for_devs
Anthropic объявили о двухлетнем партнёрстве с Python Software Foundation и инвестируют $1.5 млн в развитие Python-экосистемы. Ключевой фокус — безопасность цепочки поставок и защита PyPI.
Деньги пойдут на конкретные инженерные изменения:
– разработку проактивных инструментов анализа всех пакетов, загружаемых в Python Package Index, вместо текущей в основном реактивной модели
– создание датасета известного malware для анализа поведения и capability-based детекта
– улучшения, которые потенциально можно будет перенести и на другие open source репозитории, не только Python
@python_for_devs
🔥15👍5⚡3👏1
В новой статье разбираем попытку превратить Python в формат распространения уровня «один бинарник»
Идея простая: вместо Docker-образов с интерпретатором и зависимостями компилировать обычные Python-функции в кроссплатформенные исполняемые файлы, которые запускаются вообще без Python.
Работает это следующим образом: Python-код разбирают в AST, строят промежуточное представление, затем "понижают" его до C++ и компилируют под нужную платформу — от серверов до мобилок и WebAssembly.
Интересная часть — оптимизация. Из одной Python-функции генерируют сразу много эквивалентных C++-программ с разными библиотеками, алгоритмами и ускорителями. Все варианты тестируются на реальном железе, собирается телеметрия, и дальше система эмпирически выбирает самый быстрый путь.
LLM используют утилитарно: для генерации и поддержки большого количества C++-операторов под разные библиотеки.
Для пользователя всё сводится к декоратору
Идея простая: вместо Docker-образов с интерпретатором и зависимостями компилировать обычные Python-функции в кроссплатформенные исполняемые файлы, которые запускаются вообще без Python.
Работает это следующим образом: Python-код разбирают в AST, строят промежуточное представление, затем "понижают" его до C++ и компилируют под нужную платформу — от серверов до мобилок и WebAssembly.
Интересная часть — оптимизация. Из одной Python-функции генерируют сразу много эквивалентных C++-программ с разными библиотеками, алгоритмами и ускорителями. Все варианты тестируются на реальном железе, собирается телеметрия, и дальше система эмпирически выбирает самый быстрый путь.
LLM используют утилитарно: для генерации и поддержки большого количества C++-операторов под разные библиотеки.
Для пользователя всё сводится к декоратору
@compile и CLI.Хабр
Python без Python: как запускать код где угодно
Команда Python for Devs подготовила перевод статьи о том, как можно компилировать Python в быстрые, кроссплатформенные исполняемые файлы без изменения исходного кода. Автор подробно...
🔥8👍6😱5⚡2
За год вышло всего два патч-релиза к версии 3.1.0, без новых minor-версий и без заметных изменений для пользователей.
Активность на GitHub это подтверждает: в Flask и Werkzeug за год замёржено 43 PR против 131 в 2024. При этом доля PR, закрытых без мерджа, выросла до 72% — исторически она держалась около 30%. Вероятные причины: проект всё чаще воспринимается как «завершённый» и рост низкокачественных PR, сгенерированных AI-инструментами.
На фоне этого FastAPI резко ускорился. В 2025 году Flask и FastAPI почти сравнялись по загрузкам с PyPI, а в опросах разработчиков FastAPI уже вышел вперёд. Flask остаётся массовым и стабильным, но темп развития ядра и экосистемы заметно снизился.
Подробнее в новой статье на Хабр.
@python_for_devs
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8😢2❤1🔥1😁1😱1