Пока все меряются миллиардами параметров, появилась моделька TRM (Tiny Recursive Model) размером всего в 7Мб, которая решает сложные логические головоломки лучше, чем гиганты вроде Gemini.
Идея проста: вместо того чтобы строить монструозную сеть, которая "думает" один раз, TRM использует крошечную двухслойную сетку, которая итеративно и рекурсивно улучшает свой собственный ответ. Она буквально "перепроверяет" и "додумывает" решение шаг за шагом.
Что по цифрам?
- На жестких головоломках ARC-AGI-2 (где Gemini 2.5 Pro набирает жалкие 4.9%) эта малышка показывает 7.8%.
- На экстремальных Судоку — 87% точности против 55% у своего более сложного предшественника.
И все это при размере <0.01% от типичной LLM.
И это полноценный опенсорс-проект на PyTorch. Авторы просто взял предыдущую сложную модель, выкинул из нее всю "биологически-инспирированную" шелуху, оставил рабочую суть — и внезапно все заработало в разы лучше.
Оказывается, изящная архитектура может быть эффективнее принципа "scale is all you need" для специализированных задач.
👉 Ссылка на статью
👉 Ссылка на репозиторий с кодом
#годный_опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤4👍4⚡2 2🙏1
Что-то пора воскрешать идею закрытого ТГ-канала с полезными онлайн-встречами, которая была несправедливо мной похоронена в том году 🤔
Надеюсь, там кто-то для себя найдет пользу☕️
А пока помогите мне определиться с названием.
До конца года постараюсь стартовать🔜
Надеюсь, там кто-то для себя найдет пользу
А пока помогите мне определиться с названием.
До конца года постараюсь стартовать
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3 2 2🤔1🆒1 1
Какое название закрытого ТГ-канала для IT-специалистов вам кажется лучше?
Везде игра слов разного уровня
Везде игра слов разного уровня
Anonymous Poll
18%
Ядро
12%
+Vibe Tribe
32%
Точка Сборки
21%
Flow State
12%
Контекст
5%
Предложу свой гениальный вариант!
👌3 2 2🔥1👀1🆒1 1
Что получим при запуске кода?
Anonymous Quiz
1%
1 3
36%
5 5
20%
ValueError
8%
1 1
2%
4 4
12%
4 2
22%
1 2
🔬 Когда-нибудь пробовали воспроизводить код из научных статей или использовать его в своих проектах?
Теперь можно натравить на него рой AI-агентов, которые сами разберутся в зависимостях, отрефакторят код, покроют его тестами и завернут в удобный API.🔥
Именно это и делает Paper2Agent — система, которая берет ссылку на GitHub и превращает научную статью из статичного PDF в интерактивного AI-помощника.
На выходе вы можете просто сказать ассистенту:
И он это сделает.
Под капотом — целый конвейер из специализированных агентов. Разобрал всю архитектуру этой системы:
➡️ Paper2Agent: превращаем репозиторий научной работы в AI-агента
#годный_опенсорс
Теперь можно натравить на него рой AI-агентов, которые сами разберутся в зависимостях, отрефакторят код, покроют его тестами и завернут в удобный API.
Именно это и делает Paper2Agent — система, которая берет ссылку на GitHub и превращает научную статью из статичного PDF в интерактивного AI-помощника.
На выходе вы можете просто сказать ассистенту:
Проанализируй мои данные экспрессии генов методом из статьи Х, рассчитай 95% доверительный интервал для гена Y.
И он это сделает.
Под капотом — целый конвейер из специализированных агентов. Разобрал всю архитектуру этой системы:
#годный_опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥3 2⚡1
Конец эпохи 📉
Согласно свежему исследованию hh, айтишники больше не самая престижная каста в стране.
В 2024 году 51% россиян мечтали «войти в айти».
В 2025-м — 32%.
Кто же занял трон? Внезапно, квалифицированные рабочие. Престиж заводских спецов взлетел с 12% до 45% всего за год. На втором месте инженеры. Программисты скатились на третье.
И вот самое интересное — почему.
Причины просты:
1. Реальная незаменимость. Айтишник не выточит деталь, а сварщик — сварит.
2. Дикий спрос на рынке труда.
3. Зарплаты, которые внезапно стали конкурентными, а то и выше айтишных.
Пока вчерашние курсанты сражались в битвах за оффер на 50к, проходя 26 этапов собеседований, зарплаты условного оператора станка с ЧПУ или электромеханика тихо и уверенно росли.
Перегретый рынок, орды джунов привели к девальвацию профессии в глазах общества.
Также в исследовании говорится, что люди не верят в замену рабочих нейросетями. Зато прямо упоминается, что ИИ уже лишает работы ИТ-специалистов, особенно программистов.
Дождёмся на нашем веку ещё одного золотого века профессии?😏
#денюжки
Согласно свежему исследованию hh, айтишники больше не самая престижная каста в стране.
В 2024 году 51% россиян мечтали «войти в айти».
В 2025-м — 32%.
Кто же занял трон? Внезапно, квалифицированные рабочие. Престиж заводских спецов взлетел с 12% до 45% всего за год. На втором месте инженеры. Программисты скатились на третье.
И вот самое интересное — почему.
Причины просты:
1. Реальная незаменимость. Айтишник не выточит деталь, а сварщик — сварит.
2. Дикий спрос на рынке труда.
3. Зарплаты, которые внезапно стали конкурентными, а то и выше айтишных.
Пока вчерашние курсанты сражались в битвах за оффер на 50к, проходя 26 этапов собеседований, зарплаты условного оператора станка с ЧПУ или электромеханика тихо и уверенно росли.
Перегретый рынок, орды джунов привели к девальвацию профессии в глазах общества.
Также в исследовании говорится, что люди не верят в замену рабочих нейросетями. Зато прямо упоминается, что ИИ уже лишает работы ИТ-специалистов, особенно программистов.
Дождёмся на нашем веку ещё одного золотого века профессии?
#денюжки
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11😱4🗿3😢2🎉2💩1🙏1🙈1🙉1🙊1
Воскресная исповедь ⛪️
У каждого из нас в загашнике есть не очень хорошие привычки. Время для покаяния. Какие ваши guilty pleasure в написании кода?
У каждого из нас в загашнике есть не очень хорошие привычки. Время для покаяния. Какие ваши guilty pleasure в написании кода?
Anonymous Poll
48%
print() для дебаггинга. Всегда. И в проде тоже.
30%
Копипастить код нейросеток, вообще его не читая.
10%
git commit -m "fix" всегда и для любых изменениях.
21%
Писать // TODO: переделать и искренне верить, что этот день настанет.
20%
Импортировать тяжёлую либу ради одной простейшей операции.
7%
except Exception: pass — лучшее решение всех проблем.
44%
Забить на тесты, потому что "и так работает".
4%
Напишу что-то своё 👇🏻
😁12🔥3 3👨💻1
Операторы присваивания в Python
😴 Присваивание? Да это и так все проходят в первый час освоения Python!
🤭 А что, еще можно сокращенно записывать арифметические операции с присваиванием?
🤔 Битовые операции, что это?
🙉 Про моржей слышал, у них бивни такие.
🍆 А множественные присваивания – это же вообще миф!
#анатомия_питона
😴 Присваивание? Да это и так все проходят в первый час освоения Python!
🤭 А что, еще можно сокращенно записывать арифметические операции с присваиванием?
🤔 Битовые операции, что это?
🙉 Про моржей слышал, у них бивни такие.
🍆 А множественные присваивания – это же вообще миф!
#анатомия_питона
🔥12👍4⚡1🙏1💯1
Бесплатный курс по ИИ-агентам от Microsoft
У Microsoft на GitHub лежит бесплатный курс — AI Agents for Beginners. Лекции, код, всё в наличии.
Есть небольшой подвох — курс плотно завязан на экосистему Microsoft (Azure, Semantic Kernel, AutoGen). Но если отбросить этот маркетинговый нюанс, внутри есть реально полезные вещи.
🎯 Какие темы в фокусе?
▫️Agentic Design Patterns: Материал по паттернам проектирования.
▫️Tool Use: Отдельный урок по использованию инструментов. Это одна из ключевых фич современных агентов.
▫️Agentic RAG: Тоже вынесен в отдельный блок. Показывают, как совмещать агентов с поиском по базам знаний.
▫️Multi-Agent Design Pattern: Разбор того, как заставить нескольких агентов работать вместе.
Cами концепции и паттерны универсальны, так что знакомьтесь с ними и помните про альтернативы.
Есть и на русском, хоть и в виде автоматического перевода через GitHub Actions. Качество, конечно, не идеальное, но для понимания сути его вполне хватит.
🔗 Ссылка: https://github.com/microsoft/ai-agents-for-beginners
У Microsoft на GitHub лежит бесплатный курс — AI Agents for Beginners. Лекции, код, всё в наличии.
Есть небольшой подвох — курс плотно завязан на экосистему Microsoft (Azure, Semantic Kernel, AutoGen). Но если отбросить этот маркетинговый нюанс, внутри есть реально полезные вещи.
🎯 Какие темы в фокусе?
▫️Agentic Design Patterns: Материал по паттернам проектирования.
▫️Tool Use: Отдельный урок по использованию инструментов. Это одна из ключевых фич современных агентов.
▫️Agentic RAG: Тоже вынесен в отдельный блок. Показывают, как совмещать агентов с поиском по базам знаний.
▫️Multi-Agent Design Pattern: Разбор того, как заставить нескольких агентов работать вместе.
Cами концепции и паттерны универсальны, так что знакомьтесь с ними и помните про альтернативы.
Есть и на русском, хоть и в виде автоматического перевода через GitHub Actions. Качество, конечно, не идеальное, но для понимания сути его вполне хватит.
🔗 Ссылка: https://github.com/microsoft/ai-agents-for-beginners
🔥4⚡2👍2 2
💣 Ваш requirements.txt — мусор?
И почти всегда корень зла один — команда
Этот дедовский способ создаёт не файл зависимостей, а настоящую свалку из того, что вы ставили осознанно, и всех зависимостей этих зависимостей😏 .
В итоге всё это непонятно, как обновлять и страшно трогать, если нужно, что-то удалить.
Но есть инструменты, которые всё это исправят.
Вот вам статейка, где рассмотрены три способа — от базового pip freeze (чтобы вы поняли, почему он плох) до pip-tools и джедайского уровня с Poetry и PDM:
👉 requirements.txt: полное руководство по управлению зависимостями в Python
Признавайтесь в комментах, кто до сих пор генерит зависимости через pip freeze? ✍️
#это_база
И почти всегда корень зла один — команда
pip freeze > requirements.txt.Этот дедовский способ создаёт не файл зависимостей, а настоящую свалку из того, что вы ставили осознанно, и всех зависимостей этих зависимостей
В итоге всё это непонятно, как обновлять и страшно трогать, если нужно, что-то удалить.
Но есть инструменты, которые всё это исправят.
Вот вам статейка, где рассмотрены три способа — от базового pip freeze (чтобы вы поняли, почему он плох) до pip-tools и джедайского уровня с Poetry и PDM:
👉 requirements.txt: полное руководство по управлению зависимостями в Python
Признавайтесь в комментах, кто до сих пор генерит зависимости через pip freeze? ✍️
#это_база
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤2👍2⚡1🙏1
🤯 Легенда AI Андрей Карпаты снова в деле. Он выложил nanochat — проект, который позволяет собрать клон ChatGPT с нуля.
Бюджет? $100.
Время? ~4 часа на облачном сервере с 8xH100.
Это полный конвейер: 8000 строк чистого, минималистичного кода, который демистифицирует весь процесс — от обучения токенизатора и предобучения модели до файнтюнинга и RL.
Адаптировал и перевёл руководство по этой крутоте.
Внутри разбираем всё по шагам:
- ⚙️ Подготовка окружения: зачем тут uv и Rust.
- 📚 Обучение токенизатора: создаем собственный словарь для LLM.
- 🧠 Pretraining: рождение интеллекта и самый дорогой этап.
- 🎓 Midtraining & SFT: учим модель диалогу и полируем до блеска.
- 🎯 RL: опциональный этап для «натаскивания» на конкретные задачи.
- 💰 Итог: что мы реально получаем за $100?
Читаем здесь:
🧠 Собираем свой ChatGPT за $100: Полное руководство по nanochat Андрея Карпаты◀️
#годный_опенсорс
Бюджет? $100.
Время? ~4 часа на облачном сервере с 8xH100.
Это полный конвейер: 8000 строк чистого, минималистичного кода, который демистифицирует весь процесс — от обучения токенизатора и предобучения модели до файнтюнинга и RL.
Адаптировал и перевёл руководство по этой крутоте.
Внутри разбираем всё по шагам:
- ⚙️ Подготовка окружения: зачем тут uv и Rust.
- 📚 Обучение токенизатора: создаем собственный словарь для LLM.
- 🧠 Pretraining: рождение интеллекта и самый дорогой этап.
- 🎓 Midtraining & SFT: учим модель диалогу и полируем до блеска.
- 🎯 RL: опциональный этап для «натаскивания» на конкретные задачи.
- 💰 Итог: что мы реально получаем за $100?
Читаем здесь:
🧠 Собираем свой ChatGPT за $100: Полное руководство по nanochat Андрея Карпаты
#годный_опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍3⚡2👀2 2🎉1🆒1