🗓Итоги месяца (июль 2025)
🏆Топовые посты
🥇Бесплатный учебник по Deep Learning
🥈Роадмап навыков по data science
👀 Топ по просмотрам 👨🏻💻
1️⃣ История вайб-кодера, который лутал хакатоны
2️⃣ Как сейчас делают ревью вашего кода на курсах
📨 Топ по репостам 📥
1️⃣ Карта инструментов машинного обучения
2️⃣ Открытая альтернатива NotebookLM — NotebookLlama
3️⃣ Бесплатная книга по ML от Себастьяна Рашки
👍🏻 Топ по реакциям 😍
1️⃣ Как обычно, мемчик
2️⃣ О том, как сдают домашки на курсах по программированию
3️⃣ О большой пользе code-ассистентов
🏆Топовые посты
🥇Бесплатный учебник по Deep Learning
🥈Роадмап навыков по data science
👀 Топ по просмотрам 👨🏻💻
1️⃣ История вайб-кодера, который лутал хакатоны
2️⃣ Как сейчас делают ревью вашего кода на курсах
📨 Топ по репостам 📥
1️⃣ Карта инструментов машинного обучения
2️⃣ Открытая альтернатива NotebookLM — NotebookLlama
3️⃣ Бесплатная книга по ML от Себастьяна Рашки
👍🏻 Топ по реакциям 😍
1️⃣ Как обычно, мемчик
2️⃣ О том, как сдают домашки на курсах по программированию
3️⃣ О большой пользе code-ассистентов
👍7🎉2🙏2⚡1🔥1
olegtalks.ru
Полный разбор стека Codestral
Mistral выкатил полный стек для AI-разработки, который можно развернуть на своем железе. Разбираемся, что внутри Codestral, Devstral и Embed, и сможет ли этот "убийца" Copilot изменить правила игры для enterprise и всех, кто ценит приватность.
👨💻 Mistral представили полный self-hosted стек для разработки
Mistral AI выкатили интегрированную платформу: обновленный Codestral 25.08, семантический поиск Codestral Embed и агентные воркфлоу Devstral.
Ключевые моменты:
👉 Агентные воркфлоу. Это шаг от простого автодополнения к делегированию задач. Агент Devstral может проводить кросс-файловый рефакторинг, генерировать тесты и готовить PR, работая на базе фреймворка OpenHands.
👉 On-premise и кастомизация. Весь стек можно развернуть на своем железе (открытая модель Devstral Small требует одной RTX 4090). Это означает полный контроль над данными и возможность дообучить модель на своей кодовой базе.
👉 Семантический поиск по коду. Модель эмбеддингов, заточенная под код, позволяет искать решения и паттерны внутри проекта на естественном языке. Решает проблему «контекстной слепоты» многих AI-ассистентов.
По сути, это смещение фокуса с универсальных SaaS-инструментов на гибкие платформы, которые можно контролировать и адаптировать. Интересный вектор развития, особенно для тех, кто работает со сложными или проприетарными системами.
P.S. Для тех, кто хочет вникнуть глубже, подготовил более детальный разбор◀️
Полезные ссылки:
▪️ Официальный анонс от Mistral
▪️ Плагин для VS Code
▪️ Плагин для JetBrains
Mistral AI выкатили интегрированную платформу: обновленный Codestral 25.08, семантический поиск Codestral Embed и агентные воркфлоу Devstral.
Ключевые моменты:
👉 Агентные воркфлоу. Это шаг от простого автодополнения к делегированию задач. Агент Devstral может проводить кросс-файловый рефакторинг, генерировать тесты и готовить PR, работая на базе фреймворка OpenHands.
👉 On-premise и кастомизация. Весь стек можно развернуть на своем железе (открытая модель Devstral Small требует одной RTX 4090). Это означает полный контроль над данными и возможность дообучить модель на своей кодовой базе.
👉 Семантический поиск по коду. Модель эмбеддингов, заточенная под код, позволяет искать решения и паттерны внутри проекта на естественном языке. Решает проблему «контекстной слепоты» многих AI-ассистентов.
По сути, это смещение фокуса с универсальных SaaS-инструментов на гибкие платформы, которые можно контролировать и адаптировать. Интересный вектор развития, особенно для тех, кто работает со сложными или проприетарными системами.
P.S. Для тех, кто хочет вникнуть глубже, подготовил более детальный разбор
Полезные ссылки:
▪️ Официальный анонс от Mistral
▪️ Плагин для VS Code
▪️ Плагин для JetBrains
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4⚡2 2🎉1
YouTube
Code w/ Claude Developer Conference
Code with Claude—our first developer conference—took place on May 22, 2025 in San Francisco. Code with Claude was a hands-on, one-day event to announce Claud...
⚡️ Anthropic выложили записи со своей первой конференции для разработчиков «Code with Claude».
Это 17 полноценных технических докладов напрямую от инженеров, создающих Claude.
Есть разные темы, например:
▫️ Построение AI-агентов и продвинутый Tool Use (их аналог OpenAI Functions).
▫️ Погружение в MCP (Model Context Protocol).
▫️ Лучшие практики промпт-инжиниринга от самих создателей Claude.
▫️ Реальные кейсы использования от компаний вроде Canva и Sourcegraph.
👉 Смотреть весь плейлист: Code with Claude
Прокачиваем вайб-кодинг 🌝
Это 17 полноценных технических докладов напрямую от инженеров, создающих Claude.
Есть разные темы, например:
▫️ Построение AI-агентов и продвинутый Tool Use (их аналог OpenAI Functions).
▫️ Погружение в MCP (Model Context Protocol).
▫️ Лучшие практики промпт-инжиниринга от самих создателей Claude.
▫️ Реальные кейсы использования от компаний вроде Canva и Sourcegraph.
👉 Смотреть весь плейлист: Code with Claude
Прокачиваем вайб-кодинг 🌝
👍4❤2🔥2 2🙏1
Работа ML-инженера на 80% — это не создание моделей, а перемалывание сырых данных, бесконечные эксперименты и деплой с молитвой.
И вот тут анонсировали NEO — полностью автономный ML-агент, который, как заявляют, проходит весь цикл от грязного датасета до готовой модели в проде.
Агента выставили на 75 реальных соревнований на Kaggle.
Это, если что, уровень очень крепкого спеца, который годами набивал руку.
В анонсе есть ещё видяшки с примерами работы.
MLщикам радоваться или плакать?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🤯4 2⚡1🔥1😭1
ChatGPT дали $100 на торговлю акциями. Что он с ними сделал?🤑
Один энтузиаст с GitHub запустил живой эксперимент: дал GPT-4o сотку баксов и полгода, чтобы тот торговал рисковыми акциями мелких компаний.
Никакой помощи, только еженедельный анализ рынка от самого ИИ и простые скрипты на Python для исполнения сделок.
И вот результат за первый месяц (конец июня - конец июля 2025):
📈 Портфель ChatGPT: +25.3%
😒 Рынок (S&P 500): +2.1%
Получается, нейросеть обогнала рынок в 12 раз.
Конечно, это только начало, и всё может поменяться. Но следить интересно🍿
Разобрал начинку на Python, промпты и то, как моделька работала в первые недели, читайте здесь🔙
Ну-ка, трейдеры, разнесите идею и подход👇
Один энтузиаст с GitHub запустил живой эксперимент: дал GPT-4o сотку баксов и полгода, чтобы тот торговал рисковыми акциями мелких компаний.
Никакой помощи, только еженедельный анализ рынка от самого ИИ и простые скрипты на Python для исполнения сделок.
И вот результат за первый месяц (конец июня - конец июля 2025):
Получается, нейросеть обогнала рынок в 12 раз.
Конечно, это только начало, и всё может поменяться. Но следить интересно
Разобрал начинку на Python, промпты и то, как моделька работала в первые недели, читайте здесь
Ну-ка, трейдеры, разнесите идею и подход
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍6🔥2 2⚡1🤔1🤯1🙏1🆒1
Алгоритмическая задачка 🐍
Представь себя профессиональным грабителем 🥷. В каждом доме спрятано определенное количество денег, но есть одно условие: соседние дома оборудованы системой безопасности, которая автоматически вызовет полицию 🚔, если в одну ночь будут ограблены два соседних дома.
Ваша нужно спланировать идеальное ограбление, чтобы унести максимальную сумму денег, не подняв тревоги.
🎯 Задача:
Дан список целых чисел
Пример 1:
* План: Грабим дом 0 (сумма 1) и дом 2 (сумма 3).
* Итог:
* Результат:
Пример 2:
* План А: Грабим дома 0, 2 и 4 ->
* План Б: Грабим дома 1 и 3 ->
* Выбираем лучший план!
* Результат:
Жду ваши эффективные решение 🌝
Представь себя профессиональным грабителем 🥷. В каждом доме спрятано определенное количество денег, но есть одно условие: соседние дома оборудованы системой безопасности, которая автоматически вызовет полицию 🚔, если в одну ночь будут ограблены два соседних дома.
Ваша нужно спланировать идеальное ограбление, чтобы унести максимальную сумму денег, не подняв тревоги.
🎯 Задача:
Дан список целых чисел
nums
, где nums[i]
— это количество денег в i
-м доме. Напишите функцию rob(nums: list[int]) -> int
, которая вернет максимальную сумму денег, которую можно украсть за ночь, не грабя соседние дома.Пример 1:
nums = [1, 2, 3, 1]
* План: Грабим дом 0 (сумма 1) и дом 2 (сумма 3).
* Итог:
1 + 3 = 4
. Это максимум.* Результат:
4
✅Пример 2:
nums = [2, 7, 9, 3, 1]
* План А: Грабим дома 0, 2 и 4 ->
2 + 9 + 1 = 12
.* План Б: Грабим дома 1 и 3 ->
7 + 3 = 10
.* Выбираем лучший план!
* Результат:
12
✅Жду ваши эффективные решение 🌝
👍3🌚2🔥1😁1🤔1👌1
Teletype
PCA на Python: как извлечь максимум информации из данных, сократив их размерность
В Data Science мы часто сталкиваемся с ситуацией, когда данных вроде бы много, даже слишком много, а вот извлечь из них реальный...
PCA: Магия или просто математика, спасающая от "проклятия размерности"? 🧙♂️📊
Слыхали про "проклятие размерности"? Это когда фичей у вас больше, чем здравого смысла, а модели захлёбываются в данных и выдают какую-то дичь... 🤯
Старый добрый PCA тут как тут, чтобы навести порядок. Но всё ли так просто, как
Залетайте почитать, если хотите не просто использовать, а понимать PCA 👈🏻
Слыхали про "проклятие размерности"? Это когда фичей у вас больше, чем здравого смысла, а модели захлёбываются в данных и выдают какую-то дичь... 🤯
Старый добрый PCA тут как тут, чтобы навести порядок. Но всё ли так просто, как
sklearn.decomposition.PCA().fit_transform()
? В новой статье разбираемся детально: не только как тыкать кнопки в scikit-learn, но и что там под капотом, какие есть важные НО (привет, стандартизация и линейность!), и когда PCA – не панацея, а стоит глянуть на t-SNE/UMAP. Теория без зубодробительной математики и, конечно, практика! 🤓Залетайте почитать, если хотите не просто использовать, а понимать PCA 👈🏻
👍5 2⚡1🔥1🙏1🏆1
Суть задачи, напомню, была в том, чтобы максимизировать "добычу" из списка домов, не трогая соседние. Это классическая задача на динамическое программирование.
🏆 Эталонное решение: динамика в уме (O(1) по памяти)
Был представлен практически идеальный вариант, который решает задачу быстро и экономно по памяти:
from typing import List
def rob(nums) -> int:
prev, curr = 0, 0
for x in nums:
new_curr = max(curr, prev + x)
prev, curr = curr, new_curr
return curr
Как это работает? 🧠
Вся суть в двух переменных:
curr
и prev
. На каждом шаге мы решаем дилемму для текущего дома с деньгами x
:-
curr
: хранит максимальную сумму, которую можно было украсть до предыдущего дома.-
prev
: хранит максимальную сумму, которую можно было украсть до позапрошлого дома.Для каждого дома
x
мы выбираем лучший из двух вариантов:1. Не грабим текущий дом: Тогда наша максимальная добыча на данный момент равна
curr
.2. Грабим текущий дом: Тогда мы не можем грабить предыдущий, а значит, к добыче
x
мы можем прибавить только максимум, накопленный до позапрошлого дома — prev
.Выбирая максимум из этих двух сценариев
max(curr, prev + x)
, мы получаем оптимальное решение для текущего шага. А конструкция prev, curr = curr, new_curr
просто сдвигает наши "окна" на один дом вперед для следующей итерации.- ⏳ Временная сложность: O(N), где N — количество домов. Мы проходим по списку всего один раз.
- 💾 Пространственная сложность: O(1). Мы используем всего пару переменных, независимо от размера списка.
💡 Другой популярный подход: классическое DP (O(N) по памяти)
Есть более "классическое" решение с помощью дополнительного массива:
def perfect_thief(nums) -> int:
if not nums:
return 0
if len(nums) <= 2:
return max(nums)
dp = [0] * len(nums)
dp[0] = nums[0]
dp[1] = max(nums[0], nums[1])
for i in range(2, len(nums)):
dp[i] = max(dp[i - 1], dp[i - 2] + nums[i])
return dp[-1]
Этот способ работает по тому же принципу, но хранит все промежуточные результаты в массиве
dp
. Он может быть чуть понятнее для новичков, но требует O(N)
дополнительной памяти.Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
PythonTalk
Алгоритмическая задачка 🐍
Представь себя профессиональным грабителем 🥷. В каждом доме спрятано определенное количество денег, но есть одно условие: соседние дома оборудованы системой безопасности, которая автоматически вызовет полицию 🚔, если в одну ночь…
Представь себя профессиональным грабителем 🥷. В каждом доме спрятано определенное количество денег, но есть одно условие: соседние дома оборудованы системой безопасности, которая автоматически вызовет полицию 🚔, если в одну ночь…
👍5 2⚡1🔥1🙏1🏆1
Вышла нейросеть, которая НАКОНЕЦ-ТО умеет в текст.
Alibaba не останавливает поток крутых релизов и выкатили Qwen-Image — 20B модель, которая не просто пытается, а умеет рендерить текст.
Модель доступна через diffusers! Просто pip install, импортируешь пайплайн и генеришь картинки с текстом прямо в своем скрипте.
Автоматизация OG-картинок для блога, превью для видео, боты для мемов — всё это стало в разы проще.
Как и другие модельки Qwen, она открыта, есть на GitHub.
Я выложил небольшой технический гайд по запуску — читайте в блоге◀️
Alibaba не останавливает поток крутых релизов и выкатили Qwen-Image — 20B модель, которая не просто пытается, а умеет рендерить текст.
Модель доступна через diffusers! Просто pip install, импортируешь пайплайн и генеришь картинки с текстом прямо в своем скрипте.
Автоматизация OG-картинок для блога, превью для видео, боты для мемов — всё это стало в разы проще.
Как и другие модельки Qwen, она открыта, есть на GitHub.
Я выложил небольшой технический гайд по запуску — читайте в блоге
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9⚡3👍2 2
Если кто-то не следит за IT-срачами в отечественном пространстве, просто знайте – в RuTube и другие проекты ГМ работать – ни ногой.
1👍11👀7👌4👏2
Google выкатил в open-source ИИ-агента, который сам берет медали на Kaggle🤖
Не успел я написать про анонс агента, который берёт медальки на Kaggle, тут уже Google AI выложили MLE-STAR — свою систему ИИ-агентов, которая автоматизирует работу ML-инженера. От анализа задачи до построения SOTA-моделей.
На бенчмарке из реальных соревнований Kaggle (MLE-Bench-Lite) эта штука:
🏆 Взяла медали в 63.6% случаев.
🥇 Из них 36.4% — золотые.
Я правильно понимаю, что теперь можно будет просто скормить агенту описание задачи, пойти пить смузи, а он тебе через пару часов выкатит решение уровня грандмастера?
Как он работает?
▫️ Веб-поиск: Вместо того чтобы полагаться на устаревшие знания LLM, агент сначала гуглит свежие модели и подходы.
▫️ Абляция: Проводит "профилирование" ML-пайплайна, чтобы понять, какой блок кода (фича-инжиниринг, модель, ансамбль) больше всего влияет на результат, и целенаправленно его улучшает.
▫️ Умный ансамблинг: Сам предлагает и итеративно улучшает стратегии смешивания нескольких решений.
▫️ Обвес: В комплекте идут агенты для дебага, проверки утечек данных и контроля использования всех файлов датасета.
Короче, это не просто модель, а целый фреймворк, который имитирует работу опытного и очень методичного ML-спеца.
Самое главное — код открыт и лежит на GitHub. Построен на базе нового Agent Development Kit (ADK).
Не успел я написать про анонс агента, который берёт медальки на Kaggle, тут уже Google AI выложили MLE-STAR — свою систему ИИ-агентов, которая автоматизирует работу ML-инженера. От анализа задачи до построения SOTA-моделей.
На бенчмарке из реальных соревнований Kaggle (MLE-Bench-Lite) эта штука:
🏆 Взяла медали в 63.6% случаев.
🥇 Из них 36.4% — золотые.
Как он работает?
▫️ Веб-поиск: Вместо того чтобы полагаться на устаревшие знания LLM, агент сначала гуглит свежие модели и подходы.
▫️ Абляция: Проводит "профилирование" ML-пайплайна, чтобы понять, какой блок кода (фича-инжиниринг, модель, ансамбль) больше всего влияет на результат, и целенаправленно его улучшает.
▫️ Умный ансамблинг: Сам предлагает и итеративно улучшает стратегии смешивания нескольких решений.
▫️ Обвес: В комплекте идут агенты для дебага, проверки утечек данных и контроля использования всех файлов датасета.
Короче, это не просто модель, а целый фреймворк, который имитирует работу опытного и очень методичного ML-спеца.
Самое главное — код открыт и лежит на GitHub. Построен на базе нового Agent Development Kit (ADK).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😱5❤2⚡2👍1🔥1🙏1
Два релиза за один день 😮
1️⃣ OpenAI выкатила в опенсорс
Да, все уже оттрубили, и вы уже точно знаете. Мы получили две мощные open-weight модели под свободной лицензией Apache 2.0. Заточены под сложные агентные задачи, умеют в tool use и выдают полную цепочку рассуждений (CoT) для отладки.
Важный нюанс для тех, кто будет запускать: модели ожидают на вход специальный формат промптов Harmony.
Попробовать можно и на сайте.
2️⃣ Anthropic выпустила Claude Opus 4.1
Параллельно вышел апгрейд Opus 4. Без громких анонсов, просто сделали модель еще лучше в программировании (особенно в рефакторинге), анализе данных и агентном поиске. Цена та же, уже доступен в API.
1️⃣ OpenAI выкатила в опенсорс
gpt-oss-120b
и gpt-oss-20b
Да, все уже оттрубили, и вы уже точно знаете. Мы получили две мощные open-weight модели под свободной лицензией Apache 2.0. Заточены под сложные агентные задачи, умеют в tool use и выдают полную цепочку рассуждений (CoT) для отладки.
Важный нюанс для тех, кто будет запускать: модели ожидают на вход специальный формат промптов Harmony.
Если кто-то хочет попробовать, а не просто читать анонсы, то читайте гайд◀️ ◀️
Попробовать можно и на сайте.
2️⃣ Anthropic выпустила Claude Opus 4.1
Параллельно вышел апгрейд Opus 4. Без громких анонсов, просто сделали модель еще лучше в программировании (особенно в рефакторинге), анализе данных и агентном поиске. Цена та же, уже доступен в API.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2⚡2👍1🔥1🙏1
Читая почти каждый день какую-то дичь, которая происходит в IT-найме, у меня есть вопрос:
Кто из вас недавно видел адекватных hr и нормальный процесс отбора?
Под нормальным я в текущих реалиях понимаю хотя бы "не совсем в край уху евшие 26 этапов собеседований с какими-то вахтёрами, которые сами понимают меньше кандидатов, но очень хотят, чтобы очередной джун их удивил новым цирковым представлением".
В том, что так сложилось, ясное дело, не виноваты конкретные люди (да и кандидаты хороши, часть ответственности на них так же есть), но мне крайне интересно, может ли это зайти ещё дальше.
Жду реалити-шоу на федеральных каналах "Битвы айтишников", где единственный выживший в адаптации "Игры в кальмара" будет торжественно устроен младшим помощником стажёра эникейщика в очередной nft-блокчейн-ИИ-стартап (или, не дай бог, в RuTube) с испытательным сроком в пол года, в течение которых ему нужно платить компании за обучение.
А потом выяснят, что он накрутил опыт в резюме, завысив свой стаж техлида в FAANG, и его вышвырнут на помойку, предварительно вырезав почку.
Делитесь своими кул-стори трудоустройства💬
Кто из вас недавно видел адекватных hr и нормальный процесс отбора?
Под нормальным я в текущих реалиях понимаю хотя бы "не совсем в край уху евшие 26 этапов собеседований с какими-то вахтёрами, которые сами понимают меньше кандидатов, но очень хотят, чтобы очередной джун их удивил новым цирковым представлением".
В том, что так сложилось, ясное дело, не виноваты конкретные люди (да и кандидаты хороши, часть ответственности на них так же есть), но мне крайне интересно, может ли это зайти ещё дальше.
Жду реалити-шоу на федеральных каналах "Битвы айтишников", где единственный выживший в адаптации "Игры в кальмара" будет торжественно устроен младшим помощником стажёра эникейщика в очередной nft-блокчейн-ИИ-стартап (или, не дай бог, в RuTube) с испытательным сроком в пол года, в течение которых ему нужно платить компании за обучение.
Делитесь своими кул-стори трудоустройства
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍10🔥9😁8👀4😱3❤1⚡1👏1😢1💔1👨💻1
CEO GitHub о будущем разработчиков: кем мы станем через 2-5 лет? 🤖
Вышла статья от Томаса Домке, главы GitHub. Это его анализ, основанный на интервью с разрабами, которые уже по уши в ИИ. Если коротко: наша работа меняется необратимо.
Выделил для вас самое главное.
Четыре стадии принятия ИИ (узнай себя):
1️⃣ ИИ-Скептик. Пробует AI для мелочей, бесится от ошибок, ждёт идеального результата с первого раза. Многие тут и бросают.
2️⃣ ИИ-Исследователь. Начинает юзать AI для отладки и бойлерплейта. Понимает ограничения, привыкает к итерациям.
3️⃣ ИИ-Коллаборатор. Активно работает с AI в IDE. Сначала просит у нейросети план, потом код. Начинает шарить удачные промпты с коллегами.
4️⃣ ИИ-Стратег. Воспринимает AI как партнёра для целых фич и рефакторинга. Выстраивает сложные воркфлоу, делегирует и распараллеливает задачи.
Новая роль разработчика: Архитектор + Ревизор
На 4-й стадии разрабы говорят, что их работа — это уже не писать код. Это:
▫️ Делегирование: Грамотно поставить задачу ИИ-агенту, дать весь контекст, отточить промпт, проверить план.
▫️ Верификация: Досконально проверить результат. Не просто «работает», а «решает бизнес-задачу, безопасно и оптимально».
Какие скиллы качать ПРЯМО СЕЙЧАС?
▫️ ИИ-грамотность: Понимать, какой инструмент под какую задачу, и не ждать от них магии.
▫️ Оркестрация ИИ: Уметь декомпозировать задачу и четко объяснять машине, чего ты хочешь.
▫️ Фундаменталка: ВНЕЗАПНО, алгоритмы, структуры данных и архитектура становятся ЕЩЁ ВАЖНЕЕ. Иначе как вы проверите, что вам нагенерила нейросеть?
▫️ Контроль качества: Навыки ревью и тестирования становятся ключевыми.
▫️ Продуктовое мышление: Думать не о коде, а о продукте в целом.
Прогноз от опрошенных разрабов: 90% кода будет писать ИИ в течение 2-5 лет. И для них это не трагедия, а возможность делать более крутые вещи.
Оригинал статьи на английском лежит тут.
Чё думаете? На какой стадии сейчас вы?
👇🏻
Вышла статья от Томаса Домке, главы GitHub. Это его анализ, основанный на интервью с разрабами, которые уже по уши в ИИ. Если коротко: наша работа меняется необратимо.
Выделил для вас самое главное.
Четыре стадии принятия ИИ (узнай себя):
Новая роль разработчика: Архитектор + Ревизор
На 4-й стадии разрабы говорят, что их работа — это уже не писать код. Это:
▫️ Делегирование: Грамотно поставить задачу ИИ-агенту, дать весь контекст, отточить промпт, проверить план.
▫️ Верификация: Досконально проверить результат. Не просто «работает», а «решает бизнес-задачу, безопасно и оптимально».
Как сказал один из участников исследования: «Моя следующая должность может называться "Креативный Директор Кода"».
Какие скиллы качать ПРЯМО СЕЙЧАС?
▫️ ИИ-грамотность: Понимать, какой инструмент под какую задачу, и не ждать от них магии.
▫️ Оркестрация ИИ: Уметь декомпозировать задачу и четко объяснять машине, чего ты хочешь.
▫️ Фундаменталка: ВНЕЗАПНО, алгоритмы, структуры данных и архитектура становятся ЕЩЁ ВАЖНЕЕ. Иначе как вы проверите, что вам нагенерила нейросеть?
▫️ Контроль качества: Навыки ревью и тестирования становятся ключевыми.
▫️ Продуктовое мышление: Думать не о коде, а о продукте в целом.
Прогноз от опрошенных разрабов: 90% кода будет писать ИИ в течение 2-5 лет. И для них это не трагедия, а возможность делать более крутые вещи.
Оригинал статьи на английском лежит тут.
Чё думаете? На какой стадии сейчас вы?
👇🏻
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥3❤2😱2👌1🫡1
В «Дзене Питона» есть прекрасная строка: «Явное лучше, чем неявное».
И тут дело явно не в борьбе VSC и PyCharm. А в чём же?😏
И тут дело явно не в борьбе VSC и PyCharm. А в чём же?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5 3🔥2
Что получим при запуске кода?
Anonymous Quiz
31%
{True: 'VSC', 1: 'PyCharm'} {1: 'PyCharm', True: 'VSC'}
25%
{1: 'PyCharm'} {True: 'VSC'}
10%
TypeError
12%
{1: 'PyCharm'} {1: 'PyCharm'}
13%
{True: 'PyCharm'} {1: 'VSC'}
9%
{True: 'VSC'} {True: 'VSC'}
Please open Telegram to view this post
VIEW IN TELEGRAM
😁14⚡2😱2🤣1
У Hugging Face есть руководство по обучению LLM-монстров на триллионы (!!!) параметров.
Там в деталях, с примерами и схемами, разбирается весь стек технологий, который нужен для такой задачи:
- Как правильно "нарезать" саму модель на кусочки (
- Как выстроить конвейер из видеокарт, чтобы каждая считала свою часть (
- Как эффективно подавать на всё это данные (
Советы по оптимизации памяти вроде ZeRO и практические советы по выбору железа и сетевой архитектуры.
👉 Посмотреть и ужаснуться можно здесь: https://huggingface.co/spaces/nanotron/ultrascale-playbook
99.9% из нас никогда в жизни не будут обучать модель такого масштаба. Но заглянуть за кулисы и понять, какие задачи на самом деле решают инженеры в SOTA ML — это как сходить на экскурсию в ЦЕРН. Просто чтобы откалибровать собственную картину мира.
Там в деталях, с примерами и схемами, разбирается весь стек технологий, который нужен для такой задачи:
- Как правильно "нарезать" саму модель на кусочки (
Tensor Parallelism
).- Как выстроить конвейер из видеокарт, чтобы каждая считала свою часть (
Pipeline Parallelism
).- Как эффективно подавать на всё это данные (
Data Parallelism
).Советы по оптимизации памяти вроде ZeRO и практические советы по выбору железа и сетевой архитектуры.
👉 Посмотреть и ужаснуться можно здесь: https://huggingface.co/spaces/nanotron/ultrascale-playbook
99.9% из нас никогда в жизни не будут обучать модель такого масштаба. Но заглянуть за кулисы и понять, какие задачи на самом деле решают инженеры в SOTA ML — это как сходить на экскурсию в ЦЕРН. Просто чтобы откалибровать собственную картину мира.
👍7😱4🔥2🙏2⚡1✍1