PythonTalk
5K subscribers
1.6K photos
50 videos
6 files
1.37K links
Привет, меня зовут Олег Булыгин 👋

🐍 Здесь я делюсь полезной информацией для тех, кто пишет код на Python: от разработки до Data Science.

По вопросам: @obulygin91
Download Telegram
🧠 Меньше — значит больше? Нейронка на 7МБ уделывает LLM-гигантов.

Пока все меряются миллиардами параметров, появилась моделька TRM (Tiny Recursive Model) размером всего в 7Мб, которая решает сложные логические головоломки лучше, чем гиганты вроде Gemini.

Идея проста: вместо того чтобы строить монструозную сеть, которая "думает" один раз, TRM использует крошечную двухслойную сетку, которая итеративно и рекурсивно улучшает свой собственный ответ. Она буквально "перепроверяет" и "додумывает" решение шаг за шагом.

Что по цифрам?
- На жестких головоломках ARC-AGI-2 (где Gemini 2.5 Pro набирает жалкие 4.9%) эта малышка показывает 7.8%.
- На экстремальных Судоку — 87% точности против 55% у своего более сложного предшественника.

И все это при размере <0.01% от типичной LLM.

И это полноценный опенсорс-проект на PyTorch. Авторы просто взял предыдущую сложную модель, выкинул из нее всю "биологически-инспирированную" шелуху, оставил рабочую суть — и внезапно все заработало в разы лучше.

Оказывается, изящная архитектура может быть эффективнее принципа "scale is all you need" для специализированных задач.

👉 Ссылка на статью
👉 Ссылка на репозиторий с кодом

#годный_опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥124👍422🙏1
Что-то пора воскрешать идею закрытого ТГ-канала с полезными онлайн-встречами, которая была несправедливо мной похоронена в том году 🤔

Надеюсь, там кто-то для себя найдет пользу ☕️

А пока помогите мне определиться с названием.

До конца года постараюсь стартовать 🔜
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍322🤔1🆒11
Какое название закрытого ТГ-канала для IT-специалистов вам кажется лучше?

Везде игра слов разного уровня
Anonymous Poll
18%
Ядро
12%
+Vibe Tribe
32%
Точка Сборки
21%
Flow State
12%
Контекст
5%
Предложу свой гениальный вариант!
👌322🔥1👀1🆒11
Может быть, finally, все ответят правильно? 😏

#квиз
42🔥2👍1
Что получим при запуске кода?
Anonymous Quiz
1%
1 3
36%
5 5
20%
ValueError
8%
1 1
2%
4 4
12%
4 2
22%
1 2
42👍1🔥1
🔬 Когда-нибудь пробовали воспроизводить код из научных статей или использовать его в своих проектах?

Теперь можно натравить на него рой AI-агентов, которые сами разберутся в зависимостях, отрефакторят код, покроют его тестами и завернут в удобный API.🔥

Именно это и делает Paper2Agent — система, которая берет ссылку на GitHub и превращает научную статью из статичного PDF в интерактивного AI-помощника.

На выходе вы можете просто сказать ассистенту:
Проанализируй мои данные экспрессии генов методом из статьи Х, рассчитай 95% доверительный интервал для гена Y.


И он это сделает.

Под капотом — целый конвейер из специализированных агентов. Разобрал всю архитектуру этой системы:
➡️ Paper2Agent: превращаем репозиторий научной работы в AI-агента

#годный_опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥321
Конец эпохи 📉

Согласно свежему исследованию hh, айтишники больше не самая престижная каста в стране.

В 2024 году 51% россиян мечтали «войти в айти».
В 2025-м — 32%.

Кто же занял трон? Внезапно, квалифицированные рабочие. Престиж заводских спецов взлетел с 12% до 45% всего за год. На втором месте инженеры. Программисты скатились на третье.

И вот самое интересное — почему.
Причины просты:
1. Реальная незаменимость. Айтишник не выточит деталь, а сварщик — сварит.
2. Дикий спрос на рынке труда.
3. Зарплаты, которые внезапно стали конкурентными, а то и выше айтишных.

Пока вчерашние курсанты сражались в битвах за оффер на 50к, проходя 26 этапов собеседований, зарплаты условного оператора станка с ЧПУ или электромеханика тихо и уверенно росли.

Перегретый рынок, орды джунов привели к девальвацию профессии в глазах общества.

Также в исследовании говорится, что люди не верят в замену рабочих нейросетями. Зато прямо упоминается, что ИИ уже лишает работы ИТ-специалистов, особенно программистов.

Дождёмся на нашем веку ещё одного золотого века профессии? 😏

#денюжки
Please open Telegram to view this post
VIEW IN TELEGRAM
11😱4🗿3😢2🎉2💩1🙏1🙈1🙉1🙊1
Футболка для Python-пикап-мастера 😏

Кто не понял шутку — отмечайтесь в комментах 🌝

#хих
😁10👍3🤡2🤣2👀2🙏1
Операторы присваивания в Python

😴 Присваивание? Да это и так все проходят в первый час освоения Python!

🤭 А что, еще можно сокращенно записывать арифметические операции с присваиванием?

🤔 Битовые операции, что это?

🙉 Про моржей слышал, у них бивни такие.

🍆 А множественные присваивания – это же вообще миф!

#анатомия_питона
🔥12👍41🙏1💯1
Бесплатный курс по ИИ-агентам от Microsoft

У Microsoft на GitHub лежит бесплатный курс — AI Agents for Beginners. Лекции, код, всё в наличии.

Есть небольшой подвох — курс плотно завязан на экосистему Microsoft (Azure, Semantic Kernel, AutoGen). Но если отбросить этот маркетинговый нюанс, внутри есть реально полезные вещи.

🎯 Какие темы в фокусе?

▫️Agentic Design Patterns: Материал по паттернам проектирования.
▫️Tool Use: Отдельный урок по использованию инструментов. Это одна из ключевых фич современных агентов.
▫️Agentic RAG: Тоже вынесен в отдельный блок. Показывают, как совмещать агентов с поиском по базам знаний.
▫️Multi-Agent Design Pattern: Разбор того, как заставить нескольких агентов работать вместе.

Cами концепции и паттерны универсальны, так что знакомьтесь с ними и помните про альтернативы.

Есть и на русском, хоть и в виде автоматического перевода через GitHub Actions. Качество, конечно, не идеальное, но для понимания сути его вполне хватит.

🔗 Ссылка: https://github.com/microsoft/ai-agents-for-beginners
🔥42👍22
💣 Ваш requirements.txt — мусор?

И почти всегда корень зла один — команда pip freeze > requirements.txt.

Этот дедовский способ создаёт не файл зависимостей, а настоящую свалку из того, что вы ставили осознанно, и всех зависимостей этих зависимостей 😏.

В итоге всё это непонятно, как обновлять и страшно трогать, если нужно, что-то удалить.

Но есть инструменты, которые всё это исправят.

Вот вам статейка, где рассмотрены три способа — от базового pip freeze (чтобы вы поняли, почему он плох) до pip-tools и джедайского уровня с Poetry и PDM:
👉 requirements.txt: полное руководство по управлению зависимостями в Python

Признавайтесь в комментах, кто до сих пор генерит зависимости через pip freeze? ✍️

#это_база
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥152👍21🙏1
🤯 Легенда AI Андрей Карпаты снова в деле. Он выложил nanochat — проект, который позволяет собрать клон ChatGPT с нуля.

Бюджет? $100.
Время? ~4 часа на облачном сервере с 8xH100.

Это полный конвейер: 8000 строк чистого, минималистичного кода, который демистифицирует весь процесс — от обучения токенизатора и предобучения модели до файнтюнинга и RL.

Адаптировал и перевёл руководство по этой крутоте.
Внутри разбираем всё по шагам:
- ⚙️ Подготовка окружения: зачем тут uv и Rust.
- 📚 Обучение токенизатора: создаем собственный словарь для LLM.
- 🧠 Pretraining: рождение интеллекта и самый дорогой этап.
- 🎓 Midtraining & SFT: учим модель диалогу и полируем до блеска.
- 🎯 RL: опциональный этап для «натаскивания» на конкретные задачи.
- 💰 Итог: что мы реально получаем за $100?

Читаем здесь:
🧠 Собираем свой ChatGPT за $100: Полное руководство по nanochat Андрея Карпаты ◀️

#годный_опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍32👀22🎉1🆒1