DeepSeek V3.2 в Yandex AI Studio: теперь агенты реально умеют рассуждать
В Yandex AI Studio появилась модель, которая предназначена для решения сложных пошаговых задач. Агенты на базе этой модели могут сравнивать тендеры, разбирать инциденты, гонять автотесты, поднимать репозиторий и деплоить приложения.
Технически — это полноценный chain-of-thought + tool use, где сессия хранит длинный контекст и повторные обращения. Платформа оптимизирует кеширование и вызов инструментов, так что стоимость сессий падает почти в 4 раза.
Платформа SourceCraft уже интегрировала модель в своего кодового ассистента. ИИ теперь не просто completion — он orchestration.
В Yandex AI Studio появилась модель, которая предназначена для решения сложных пошаговых задач. Агенты на базе этой модели могут сравнивать тендеры, разбирать инциденты, гонять автотесты, поднимать репозиторий и деплоить приложения.
Технически — это полноценный chain-of-thought + tool use, где сессия хранит длинный контекст и повторные обращения. Платформа оптимизирует кеширование и вызов инструментов, так что стоимость сессий падает почти в 4 раза.
Платформа SourceCraft уже интегрировала модель в своего кодового ассистента. ИИ теперь не просто completion — он orchestration.
👎6👍5❤2🔥1
MBZUAI и G42 представили K2 Think — революционную модель рассуждения с открытым исходным кодом
Введение
Мохаммед бин Заидский университет искусственного интеллекта (MBZUAI) совместно с технологической компанией G42 объявили о выпуске K2 Think — передовой модели рассуждения с открытым исходным кодом, предназначенной для решения сложных задач в области искусственного интеллекта. Узнайте больше в официальном анонсе MBZUAI.
Технические характеристики и производительность
K2 Think содержит 32 миллиарда параметров, что значительно меньше по сравнению с другими флагманскими моделями, такими как GPT-4 и DeepSeek-V3.1, которые имеют более 200 миллиардов параметров. Несмотря на меньший размер, K2 Think демонстрирует сопоставимую производительность в задачах математического и научного рассуждения. Подробнее читайте в новости The National.
Инновационные подходы
Модель основана на шести ключевых инновациях, включая обучение с подкреплением с проверяемыми наградами и агентное планирование, позволяющее разбивать сложные задачи на более простые этапы. Подробности доступны в официальном анонсе G42.
Производительность и доступность
K2 Think будет доступна на платформе Cerebras, оптимизированной для высокоскоростного вывода, достигая скорости обработки до 2000 токенов в секунду. Узнайте больше о производительности в пресс-релизе от Cerebras.
Открытость и прозрачность
В отличие от большинства моделей, K2 Think полностью открыта: доступны данные обучения, веса параметров и программный код для развертывания и оптимизации. Это обеспечивает прозрачность и воспроизводимость для исследовательского сообщества. Детали можно найти в официальном анонсе G42.
Значение для ОАЭ
Выпуск K2 Think подчеркивает стремление ОАЭ к лидерству в области искусственного интеллекта, демонстрируя способность страны разрабатывать передовые технологии и делиться ими с мировым сообществом. Подробнее в официальном анонсе G42.
Факты
👉 K2 Think содержит 32 миллиарда параметров и сопоставима по производительности с моделями, имеющими более 200 миллиардов параметров. Источник: новость The National.
👉 Модель достигает скорости обработки до 2000 токенов в секунду на платформе Cerebras. Подробности в пресс-релизе от Cerebras.
❗️K2 Think представляет собой значительный шаг вперед в области моделей рассуждения, сочетая эффективность, производительность и открытость, что способствует развитию глобального сообщества искусственного интеллекта.
Источники
MBZUAI и G42 представили K2 Think. Новости о запуске K2 Think от MBZUAI. Cerebras о производительности K2 Think.
Введение
Мохаммед бин Заидский университет искусственного интеллекта (MBZUAI) совместно с технологической компанией G42 объявили о выпуске K2 Think — передовой модели рассуждения с открытым исходным кодом, предназначенной для решения сложных задач в области искусственного интеллекта. Узнайте больше в официальном анонсе MBZUAI.
Технические характеристики и производительность
K2 Think содержит 32 миллиарда параметров, что значительно меньше по сравнению с другими флагманскими моделями, такими как GPT-4 и DeepSeek-V3.1, которые имеют более 200 миллиардов параметров. Несмотря на меньший размер, K2 Think демонстрирует сопоставимую производительность в задачах математического и научного рассуждения. Подробнее читайте в новости The National.
Инновационные подходы
Модель основана на шести ключевых инновациях, включая обучение с подкреплением с проверяемыми наградами и агентное планирование, позволяющее разбивать сложные задачи на более простые этапы. Подробности доступны в официальном анонсе G42.
Производительность и доступность
K2 Think будет доступна на платформе Cerebras, оптимизированной для высокоскоростного вывода, достигая скорости обработки до 2000 токенов в секунду. Узнайте больше о производительности в пресс-релизе от Cerebras.
Открытость и прозрачность
В отличие от большинства моделей, K2 Think полностью открыта: доступны данные обучения, веса параметров и программный код для развертывания и оптимизации. Это обеспечивает прозрачность и воспроизводимость для исследовательского сообщества. Детали можно найти в официальном анонсе G42.
Значение для ОАЭ
Выпуск K2 Think подчеркивает стремление ОАЭ к лидерству в области искусственного интеллекта, демонстрируя способность страны разрабатывать передовые технологии и делиться ими с мировым сообществом. Подробнее в официальном анонсе G42.
Факты
👉 K2 Think содержит 32 миллиарда параметров и сопоставима по производительности с моделями, имеющими более 200 миллиардов параметров. Источник: новость The National.
👉 Модель достигает скорости обработки до 2000 токенов в секунду на платформе Cerebras. Подробности в пресс-релизе от Cerebras.
❗️K2 Think представляет собой значительный шаг вперед в области моделей рассуждения, сочетая эффективность, производительность и открытость, что способствует развитию глобального сообщества искусственного интеллекта.
Источники
MBZUAI и G42 представили K2 Think. Новости о запуске K2 Think от MBZUAI. Cerebras о производительности K2 Think.
Invent a Better Everyday | Abu Dhabi, UAE | G42
Invent a Better Everyday | Abu Dhabi, UAE | G42 | MBZUAI and G42 Launch K2 Think: A Leading Open-Source System for Advanced AI…
❤8
Индия принимает AI Impact Summit 2026: ключевые темы и обсуждения
Введение
С 16 по 21 февраля 2026 года в Нью-Дели прошёл AI Impact Summit 2026, ставший первой глобальной встречей по искусственному интеллекту, организованной в стране Глобального Юга. Саммит собрал лидеров государств, руководителей технологических компаний и экспертов для обсуждения роли ИИ в инклюзивном росте и устойчивом развитии.
Основные темы саммита
На саммите были рассмотрены следующие ключевые темы:
👉 развитие человеческого капитала;
👉 инклюзия для социального расширения возможностей;
👉 безопасный и надёжный ИИ;
👉 устойчивость, инновации и эффективность;
👉 наука, демократизация ресурсов ИИ;
👉 использование ИИ для экономического роста и общественного блага. Эти темы отражают стремление Индии к ответственному и инклюзивному развитию ИИ.
Обсуждения по ключевым направлениям
В рамках саммита были проведены дискуссии по следующим направлениям:
👉 Доверие и управление: создание структур, позволяющих инновациям развиваться без потери общественного доверия, включая оценочные протоколы и механизмы управления рисками.
👉 Суверенитет: развитие национальных возможностей в области ИИ, включая вычислительные мощности и архитектуру данных.
👉 Человеческий капитал: трансформация рабочей силы, реформа высшего образования и повышение уровня грамотности в области ИИ.
Объявления и инициативы
В ходе саммита были сделаны значимые объявления:
👉 Компания Sarvam AI представила новые модели ИИ, включая языковые модели с 30 и 105 миллиардами параметров, а также устройства, такие как умные очки Kaze.
👉 Государственная инициатива BharatGen Param2 представила модель с 17 миллиардов параметров, поддерживающую 22 индийских языка.
👉 Министр Ашвини Вайшнав объявил о планах увеличить количество GPU в Индии более чем на 20 000 единиц в рамках портала IndiaAI Compute.
Международное сотрудничество
Саммит подчеркнул важность международного сотрудничества в области ИИ. Французский президент Эммануэль Макрон и генеральный секретарь ООН Антониу Гутерриш приняли участие в мероприятии, обсуждая глобальные инициативы и необходимость совместных усилий для обеспечения ответственного развития ИИ.
❗️AI Impact Summit 2026 в Нью-Дели стал важной вехой в глобальном диалоге об искусственном интеллекте, подчеркнув стремление Индии к ответственному и инклюзивному развитию ИИ и укреплению международного сотрудничества в этой области.
Источники:
Основные события AI Impact Summit 2026.
Обсуждения, формирующие будущее ИИ в Индии.
AI Impact Summit 2026 на Wikipedia.
Международное сотрудничество в области ИИ.
Введение
С 16 по 21 февраля 2026 года в Нью-Дели прошёл AI Impact Summit 2026, ставший первой глобальной встречей по искусственному интеллекту, организованной в стране Глобального Юга. Саммит собрал лидеров государств, руководителей технологических компаний и экспертов для обсуждения роли ИИ в инклюзивном росте и устойчивом развитии.
Основные темы саммита
На саммите были рассмотрены следующие ключевые темы:
👉 развитие человеческого капитала;
👉 инклюзия для социального расширения возможностей;
👉 безопасный и надёжный ИИ;
👉 устойчивость, инновации и эффективность;
👉 наука, демократизация ресурсов ИИ;
👉 использование ИИ для экономического роста и общественного блага. Эти темы отражают стремление Индии к ответственному и инклюзивному развитию ИИ.
Обсуждения по ключевым направлениям
В рамках саммита были проведены дискуссии по следующим направлениям:
👉 Доверие и управление: создание структур, позволяющих инновациям развиваться без потери общественного доверия, включая оценочные протоколы и механизмы управления рисками.
👉 Суверенитет: развитие национальных возможностей в области ИИ, включая вычислительные мощности и архитектуру данных.
👉 Человеческий капитал: трансформация рабочей силы, реформа высшего образования и повышение уровня грамотности в области ИИ.
Объявления и инициативы
В ходе саммита были сделаны значимые объявления:
👉 Компания Sarvam AI представила новые модели ИИ, включая языковые модели с 30 и 105 миллиардами параметров, а также устройства, такие как умные очки Kaze.
👉 Государственная инициатива BharatGen Param2 представила модель с 17 миллиардов параметров, поддерживающую 22 индийских языка.
👉 Министр Ашвини Вайшнав объявил о планах увеличить количество GPU в Индии более чем на 20 000 единиц в рамках портала IndiaAI Compute.
Международное сотрудничество
Саммит подчеркнул важность международного сотрудничества в области ИИ. Французский президент Эммануэль Макрон и генеральный секретарь ООН Антониу Гутерриш приняли участие в мероприятии, обсуждая глобальные инициативы и необходимость совместных усилий для обеспечения ответственного развития ИИ.
❗️AI Impact Summit 2026 в Нью-Дели стал важной вехой в глобальном диалоге об искусственном интеллекте, подчеркнув стремление Индии к ответственному и инклюзивному развитию ИИ и укреплению международного сотрудничества в этой области.
Источники:
Основные события AI Impact Summit 2026.
Обсуждения, формирующие будущее ИИ в Индии.
AI Impact Summit 2026 на Wikipedia.
Международное сотрудничество в области ИИ.
India AI Impact Summit 2026
The India AI Impact Summit 2026 is a flagship global gathering hosted by the Government of India under the IndiaAI Mission, in collaboration with the Ministry of Electronics & Information TechnologyMeitY). Scheduled for 19–20 February 2026 in New Delhi, the…
🐳3❤1
arXiv.org
WebDS: An End-to-End Benchmark for Web-based Data Science
Many real-world data science tasks involve complex web-based interactions: finding appropriate data available on the internet, synthesizing multimodal data from different locations, and producing...
WebDS: новый бенчмарк для веб-ориентированных задач Data Science
Введение в WebDS
В августе 2025 года была представлена новая система оценки для веб-ориентированных задач Data Science под названием WebDS. Этот бенчмарк включает 870 задач, охватывающих 29 различных веб-сайтов, от структурированных государственных порталов до неструктурированных новостных ресурсов. Задачи требуют выполнения сложных, многошаговых операций с использованием различных инструментов и данных в разнородных форматах, что отражает реалии современной аналитики данных.
Проблемы существующих бенчмарков
Ранее существующие бенчмарки для веб-ориентированных задач часто фокусировались на простых взаимодействиях, таких как заполнение форм или транзакции в электронной коммерции, и не требовали разнообразных инструментальных возможностей, необходимых для веб-ориентированной аналитики данных. Традиционные бенчмарки Data Science, в свою очередь, обычно концентрировались на статических, часто текстовых наборах данных и не оценивали полные рабочие процессы, включающие сбор, очистку, анализ данных и генерацию инсайтов.
Оценка современных моделей
Оценка современных моделей на WebDS показала значительные пробелы в их производительности. Например, агент Browser Use, успешно выполняющий 80% задач на Web Voyager, справился только с 15% задач на WebDS. Анализ выявил новые причины неудач, такие как слабая привязка к информации, повторяющееся поведение и стремление к упрощению задач, что подчеркивает необходимость дальнейших исследований и улучшений в области веб-ориентированной аналитики данных.
Факты
👉 В августе 2025 года представлен бенчмарк WebDS, включающий 870 задач на 29 различных веб-сайтах.
👉 Агент Browser Use успешно выполняет 80% задач на Web Voyager, но только 15% на WebDS.
Итог
❗️ WebDS предоставляет более реалистичную и сложную среду для тестирования, стимулируя развитие практических и эффективных моделей для веб-ориентированных задач Data Science.
Источники
WebDS: An End-to-End Benchmark for Web-based Data Science раскрывает подробности о новом бенчмарке.
Введение в WebDS
В августе 2025 года была представлена новая система оценки для веб-ориентированных задач Data Science под названием WebDS. Этот бенчмарк включает 870 задач, охватывающих 29 различных веб-сайтов, от структурированных государственных порталов до неструктурированных новостных ресурсов. Задачи требуют выполнения сложных, многошаговых операций с использованием различных инструментов и данных в разнородных форматах, что отражает реалии современной аналитики данных.
Проблемы существующих бенчмарков
Ранее существующие бенчмарки для веб-ориентированных задач часто фокусировались на простых взаимодействиях, таких как заполнение форм или транзакции в электронной коммерции, и не требовали разнообразных инструментальных возможностей, необходимых для веб-ориентированной аналитики данных. Традиционные бенчмарки Data Science, в свою очередь, обычно концентрировались на статических, часто текстовых наборах данных и не оценивали полные рабочие процессы, включающие сбор, очистку, анализ данных и генерацию инсайтов.
Оценка современных моделей
Оценка современных моделей на WebDS показала значительные пробелы в их производительности. Например, агент Browser Use, успешно выполняющий 80% задач на Web Voyager, справился только с 15% задач на WebDS. Анализ выявил новые причины неудач, такие как слабая привязка к информации, повторяющееся поведение и стремление к упрощению задач, что подчеркивает необходимость дальнейших исследований и улучшений в области веб-ориентированной аналитики данных.
Факты
👉 В августе 2025 года представлен бенчмарк WebDS, включающий 870 задач на 29 различных веб-сайтах.
👉 Агент Browser Use успешно выполняет 80% задач на Web Voyager, но только 15% на WebDS.
Итог
❗️ WebDS предоставляет более реалистичную и сложную среду для тестирования, стимулируя развитие практических и эффективных моделей для веб-ориентированных задач Data Science.
Источники
WebDS: An End-to-End Benchmark for Web-based Data Science раскрывает подробности о новом бенчмарке.
❤1
Ошибки, которые делают почти все при обработке категориальных признаков
Введение
Обработка категориальных признаков — одна из ключевых задач в подготовке данных для моделей машинного обучения. Несмотря на кажущуюся простоту, данный этап часто становится источником ошибок, которые могут значительно влиять на качество моделей. Давайте рассмотрим некоторые из распространённых ошибок и способы их избежать.
Ошибка 1: Ошибка в выборе метода кодирования
Одна из частых ошибок при работе с категориальными признаками — неверный выбор метода кодирования. Многие начинающие инженеры используют
Сравнение One-Hot Encoding и Target Encoding
Ошибка 2: Отсутствие учёта порядка категорий
Игнорирование порядка категориальных признаков может стать причиной для искажения результатов. Например, при кодировании рейтинга (низкий, средний, высокий) важно сохранить порядок. Без учета порядка некоторые методы, такие как
Использование Label Encoding на упорядоченных данных
Ошибка 3: Игнорирование новых категорий в данных
При изменении структуры данных, например, при поступлении новых данных, легко упустить появление новых категорий, отсутствующих в обучающей выборке. Это может привести к ошибкам в прогнозировании и даже к падению сервиса в
Пример использования категориальных маппингов с обработкой новых категорий
TG: Data Science | Machinelearning [ru]
Введение
Обработка категориальных признаков — одна из ключевых задач в подготовке данных для моделей машинного обучения. Несмотря на кажущуюся простоту, данный этап часто становится источником ошибок, которые могут значительно влиять на качество моделей. Давайте рассмотрим некоторые из распространённых ошибок и способы их избежать.
Ошибка 1: Ошибка в выборе метода кодирования
Одна из частых ошибок при работе с категориальными признаками — неверный выбор метода кодирования. Многие начинающие инженеры используют
One-Hot Encoding для всех категориальных признаков, что не всегда оправдано. Например, если мы имеем дело с признаками с высокой кардинальностью, One-Hot Encoding может значительно увеличить количество признаков, что плохо сказывается на скорости обучения и памяти.Сравнение One-Hot Encoding и Target Encoding
import pandas as pd
from sklearn.preprocessing import OneHotEncoder
# Пример данных
data = pd.DataFrame({'city': ['Moscow', 'Berlin', 'Berlin', 'New York', 'Moscow']})
# One-Hot Encoding
encoder = OneHotEncoder(sparse=False)
ohe_df = pd.DataFrame(encoder.fit_transform(data[['city']]), columns=encoder.get_feature_names_out(['city']))
print(ohe_df)
# Target Encoding (простое среднее значение по городу)
mean_target_encoding = data.groupby('city').size() / len(data)
data['city_encoded'] = data['city'].map(mean_target_encoding)
print(data)
Ошибка 2: Отсутствие учёта порядка категорий
Игнорирование порядка категориальных признаков может стать причиной для искажения результатов. Например, при кодировании рейтинга (низкий, средний, высокий) важно сохранить порядок. Без учета порядка некоторые методы, такие как
Label Encoding, могут привести к неправильной интерпретации модели.Использование Label Encoding на упорядоченных данных
from sklearn.preprocessing import OrdinalEncoder
# Пример данных
ratings = pd.DataFrame({'rating': ['low', 'medium', 'high']})
# Ordinal Encoding
ordinal_encoder = OrdinalEncoder(categories=[['low', 'medium', 'high']])
ratings_encoded = ordinal_encoder.fit_transform(ratings)
print(ratings_encoded)
Ошибка 3: Игнорирование новых категорий в данных
При изменении структуры данных, например, при поступлении новых данных, легко упустить появление новых категорий, отсутствующих в обучающей выборке. Это может привести к ошибкам в прогнозировании и даже к падению сервиса в
production. Использование специальных объектов (например, категориальных маппингов) или добавление логики обработки новых значений помогает избежать этой проблемы.Пример использования категориальных маппингов с обработкой новых категорий
# Пример данных
train_data = pd.DataFrame({'city': ['Moscow', 'Berlin', 'New York']})
test_data = pd.DataFrame({'city': ['London', 'Berlin', 'Moscow']})
# Создание маппинга
city_mapping = {'Moscow': 0, 'Berlin': 1, 'New York': 2}
# Применение маппинга с обработкой новых категорий
train_data['city_encoded'] = train_data['city'].map(city_mapping)
test_data['city_encoded'] = test_data['city'].map(lambda x: city_mapping.get(x, -1))
print(test_data)
TG: Data Science | Machinelearning [ru]
❤5👀2
Forwarded from xCode Journal
Исследование Selecty и hh․ru показало: >200 тыс. рублей в месяц получают 51,5% мужчин и только 34,8% женщин. В тестировании этот порог пробивают 60% парней и 45% девушек, а в бэкенде высокие доходы лишь у 26,5% разработчиц.
Почему так? Мужчины чаще забирают руководящие посты и сеньорские грейды.
Please open Telegram to view this post
VIEW IN TELEGRAM
Неочевидные подводные камни при использовании ансамблей моделей
Введение в ансамбли моделей
Ансамбли моделей — это мощный инструмент в арсенале дата-сайентиста. Их использование может значительно улучшить качество моделей за счет объединения нескольких слабых обучателей. Однако, не все так просто, как может показаться на первый взгляд.
Проблема переобучения
Один из ключевых вопросов, с которыми можно столкнуться при работе с ансамблями, — это переобучение. Когда ансамбль состоит из чрезмерно сложных моделей, он может адаптироваться к шуму в данных, что негативно скажется на его генерализации.
👉 Базовый пример использования ансамблей:
👉 Проблема переобучения на ансамблях:
Влияние несбалансированных данных
Другой подводный камень заключается в том, что ансамбли могут быть чувствительны к несбалансированным данным, что может привести к тому, что ансамбль будет склоняться в пользу большинства.
👉 Влияние несбалансированных классов на ансамбли:
Сложность интерпретации ансамблей
Еще одной сложностью является интерпретация результатов ансамблей. Они часто считаются черными ящиками, что осложняет объяснение их работы.
👉 Типичный анти-паттерн: попытка интерпретации без визуализации:
Заключение
Работа с ансамблями требует не только знаний о базовых принципах их работы, но и понимания возможных подводных камней. Следует всегда помнить о переобучении, учитывать баланс классов и применять соответствующие инструменты для интерпретации моделей. Только так можно максимально эффективно использовать ансамбли в реальных проектах.
TG: Data Science | Machinelearning [ru]
Введение в ансамбли моделей
Ансамбли моделей — это мощный инструмент в арсенале дата-сайентиста. Их использование может значительно улучшить качество моделей за счет объединения нескольких слабых обучателей. Однако, не все так просто, как может показаться на первый взгляд.
Проблема переобучения
Один из ключевых вопросов, с которыми можно столкнуться при работе с ансамблями, — это переобучение. Когда ансамбль состоит из чрезмерно сложных моделей, он может адаптироваться к шуму в данных, что негативно скажется на его генерализации.
👉 Базовый пример использования ансамблей:
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
# Загрузка данных
X, y = load_iris(return_X_y=True)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
# Обучение модели
model = RandomForestClassifier(n_estimators=10)
model.fit(X_train, y_train)
# Оценка качества
accuracy = model.score(X_test, y_test)
print(f'Accuracy: {accuracy:.2f}')
👉 Проблема переобучения на ансамблях:
# Усложнение модели
model = RandomForestClassifier(n_estimators=100, max_depth=None)
model.fit(X_train, y_train)
# Проверка на тестовых данных
accuracy = model.score(X_test, y_test)
print(f'Overfitted Accuracy: {accuracy:.2f}')
# Проверка на обучающих данных
train_accuracy = model.score(X_train, y_train)
print(f'Train Accuracy: {train_accuracy:.2f}')
Влияние несбалансированных данных
Другой подводный камень заключается в том, что ансамбли могут быть чувствительны к несбалансированным данным, что может привести к тому, что ансамбль будет склоняться в пользу большинства.
👉 Влияние несбалансированных классов на ансамбли:
from imblearn.ensemble import BalancedRandomForestClassifier
# Балансировка данных напрямую в ансамбле
balanced_model = BalancedRandomForestClassifier(n_estimators=10)
balanced_model.fit(X_train, y_train)
balanced_accuracy = balanced_model.score(X_test, y_test)
print(f'Balanced Accuracy: {balanced_accuracy:.2f}')
Сложность интерпретации ансамблей
Еще одной сложностью является интерпретация результатов ансамблей. Они часто считаются черными ящиками, что осложняет объяснение их работы.
👉 Типичный анти-паттерн: попытка интерпретации без визуализации:
# Без применения инструментов интерпретации
# Попытка вручную разбираться в деревьях может быть неэффективной
# Альтернативы: SHAP, LIME
import shap
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(X_test)
shap.summary_plot(shap_values, X_test)
Заключение
Работа с ансамблями требует не только знаний о базовых принципах их работы, но и понимания возможных подводных камней. Следует всегда помнить о переобучении, учитывать баланс классов и применять соответствующие инструменты для интерпретации моделей. Только так можно максимально эффективно использовать ансамбли в реальных проектах.
TG: Data Science | Machinelearning [ru]
Telegram
Data Science | Machinelearning [ru]
Все о Data Science, машинном обучении и искусственном интеллекте: от базовой теории до cutting-edge исследований и LLM.
Личный блог автора - @just_genych
По вопросам рекламы или разработки - @g_abashkin
РКН: https://vk.cc/cJPGXD
Личный блог автора - @just_genych
По вопросам рекламы или разработки - @g_abashkin
РКН: https://vk.cc/cJPGXD
❤4👀1
Data Science | Machinelearning [ru] pinned «📍 Авторский канал про вайбкодинг и разработку ИИ-агентов ➡️ Геныч.»
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
Систему, которую в компании запускают почти на каждом PR. За последний год объём кода на инженера в Anthropic вырос примерно на 200%. При такой скорости неудивительно, что ревью стало узким местом.
Теперь Code Review автоматически проверяет PR: несколько ИИ-агентов параллельно ищут баги, перепроверяют результаты и ранжируют проблемы по серьёзности. Причем чем более объемным и сложным будет PR — тем больше агентов туда пойдет работать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥1
Переоценка и ошибки в навыках Data Science инженеров в
Изменения в подходах к оценке специалистов
В
Ключевые навыки, которые недооценивали
В прошлом многие специалисты фокусировались исключительно на технической стороне: разработке моделей, работе с
👉 В
👉 Компании начали более интенсивно инвестировать в развитие навыков их сотрудников в области интерпретации и бизнес-аналитики.
❗️Адаптация к изменяющимся требованиям и расширение набора навыков имеют критическое значение для построения успешной карьеры в Data Science в
TG: Data Science | Machinelearning [ru]
2025 годуИзменения в подходах к оценке специалистов
В
2025 году индустрия Data Science столкнулась с важным вызовом: переоценка навыков инженеров. Область стремительно меняется, и требования к специалистам также эволюционируют. Компании всё чаще осознают необходимость уделять внимание не только техническим, но и более широким навыкам, таким как бизнес-ориентированное мышление и понимание этических аспектов использования данных.Ключевые навыки, которые недооценивали
В прошлом многие специалисты фокусировались исключительно на технической стороне: разработке моделей, работе с
big data и глубоком знании Python и R. Сегодня важнейшими становятся навыки интерпретации результатов, умение объяснять модели для менеджеров, а также интеграция моделей в бизнес-процессы компании. Неспособность понять и ощутить этот сдвиг может серьёзно ограничить карьерные возможности.👉 В
2025 году увеличилось внимание к непрерывному обучению и адаптации специалистов в Data Science. 👉 Компании начали более интенсивно инвестировать в развитие навыков их сотрудников в области интерпретации и бизнес-аналитики.
❗️Адаптация к изменяющимся требованиям и расширение набора навыков имеют критическое значение для построения успешной карьеры в Data Science в
2025 году. Специалистам рекомендуется фокусироваться не только на развитии технической экспертизы, но и на понимании бизнес-ценности своих моделей и решений.TG: Data Science | Machinelearning [ru]
❤3🔥3
Кто сказал «мяу»?
ИТ-компания «Криптонит» приглашает на дататон «Криптонит.Тембр», где нужно распознать, кто говорит!
Тебе предстоит обучить Speaker Recognition модель, устойчивую к искажениям аудио, возникающим в реальных сценариях эксплуатации речевых интерфейсов и систем обработки звука:
🔹 искажения, вносимые акустической средой;
🔹 посторонние шумы;
🔹 реверберация;
🔹 большое расстояние до микрофона;
🔹 искажения каналов связи.
Участвуй, и ты сможешь:
🟦 получить шанс разделить призовой фонд в 600 000 рублей;
🟦 разработать решения в области Audio/Speech ML;
🟦 прокачать скиллы в Speaker Recognition и Deep Learning.
👆 Регистрируйтесь до 10 апреля включительно!
Подписывайтесь на телеграм-канал «Криптонит. Разработка, наука, шифрование» — там много всего интересного.
ИТ-компания «Криптонит» приглашает на дататон «Криптонит.Тембр», где нужно распознать, кто говорит!
Тебе предстоит обучить Speaker Recognition модель, устойчивую к искажениям аудио, возникающим в реальных сценариях эксплуатации речевых интерфейсов и систем обработки звука:
Участвуй, и ты сможешь:
Подписывайтесь на телеграм-канал «Криптонит. Разработка, наука, шифрование» — там много всего интересного.
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤5👀3🔥2
Forwarded from Геныч.
Недавно решил разобраться с фичей skills в Claude Code. Если коротко, это инструмент, который пришел на смену кастомным slash-командам и значительно расширяет их возможности.
В процессе изучения нашел несколько интересных моментов:
- Генерация маркетингового контента:
Анализирует приложение и помогает писать посты для продвижения, например для Хабра.
- Подбор свободных доменов:
Проверяет доступность доменов по теме проекта и предлагает варианты.
- Поиск потенциальных клиентов:
Помогает находить аудиторию, которой может быть интересен ваш продукт. Эту штуку я еще не тестил но звучит как магия.
- Улучшение фронтенда:
Помогает привести сгенерированный нейросетью фронтенд в более аккуратный и продакшен-подобный вид. Так как фронт это мое основное направление то эта штука это то что я протестил чуть больше. Разница в качестве генерируемого кода мне показалась довольно заметной.
Вообще про skills я слышал уже несколько раз, но игнорировал. Для работы мне обычно хватало базовых команд вроде проверки кода. На данный момент я еще продолжаю изучать этот инструмент но уже выглядит как что то довольно интересное.
👉 Геныч.
В процессе изучения нашел несколько интересных моментов:
- Генерация маркетингового контента:
Анализирует приложение и помогает писать посты для продвижения, например для Хабра.
- Подбор свободных доменов:
Проверяет доступность доменов по теме проекта и предлагает варианты.
- Поиск потенциальных клиентов:
Помогает находить аудиторию, которой может быть интересен ваш продукт. Эту штуку я еще не тестил но звучит как магия.
- Улучшение фронтенда:
Помогает привести сгенерированный нейросетью фронтенд в более аккуратный и продакшен-подобный вид. Так как фронт это мое основное направление то эта штука это то что я протестил чуть больше. Разница в качестве генерируемого кода мне показалась довольно заметной.
Вообще про skills я слышал уже несколько раз, но игнорировал. Для работы мне обычно хватало базовых команд вроде проверки кода. На данный момент я еще продолжаю изучать этот инструмент но уже выглядит как что то довольно интересное.
👉 Геныч.
❤5
Станьте Deep Learning Engineer с дипломом 👍
Голосовые помощники, распознавание лиц, рекомендации в приложениях, медицинская диагностика — нейросети используются уже во всех сферах бизнеса. Компании ищут DL-специалистов, чтобы точнее обучать и настраивать нейросети под свои запросы.
Освоить Deep Learning самостоятельно сложно, но ребята из Simulative нашли решение, где учёба становится понятной и структурированной, а все темы разбираются на практике 🔥
Simulative запускает программу профессиональной переподготовки «Инженер глубокого обучения нейросетей».
По итогам обучения вы получите:
Официальный диплом о профессиональной переподготовке с квалификацией «Специалист по большим данным».
Более 40 практических работ в формате симуляции реальной работы DL-инженера — всё пойдёт в портфолио.
Учитесь из любой точки мира, совмещая с работой, а доступ к материалам останется навсегда.
Курс подходит для специалистов любого уровня: новичок, аналитик, ML-инженер или выпускник — на программе опытные менторы помогут выстроить вашу персональную траекторию роста в Deep Learning.
Что вы освоите:
🟠 Создание и обучение нейросетей с нуля
🟠 Компьютерное зрение (Computer Vision)
🟠 NLP (обработка текста)
🟠 Генеративные модели
🟠 MLOps и продакшн-подход
🕖 Скорее записывайтесь, количество мест на поток ограничено!
Бронируйте место на курсе прямо сейчас и получите скидку 30%
😶 ПОЛУЧИТЬ СКИДКУ НА КУРС
Голосовые помощники, распознавание лиц, рекомендации в приложениях, медицинская диагностика — нейросети используются уже во всех сферах бизнеса. Компании ищут DL-специалистов, чтобы точнее обучать и настраивать нейросети под свои запросы.
Освоить Deep Learning самостоятельно сложно, но ребята из Simulative нашли решение, где учёба становится понятной и структурированной, а все темы разбираются на практике 🔥
Simulative запускает программу профессиональной переподготовки «Инженер глубокого обучения нейросетей».
По итогам обучения вы получите:
🎓 Диплом гособразца
Официальный диплом о профессиональной переподготовке с квалификацией «Специалист по большим данным».
💯 Практика
Более 40 практических работ в формате симуляции реальной работы DL-инженера — всё пойдёт в портфолио.
🙌🏽 Онлайн обучение
Учитесь из любой точки мира, совмещая с работой, а доступ к материалам останется навсегда.
Курс подходит для специалистов любого уровня: новичок, аналитик, ML-инженер или выпускник — на программе опытные менторы помогут выстроить вашу персональную траекторию роста в Deep Learning.
Что вы освоите:
🕖 Скорее записывайтесь, количество мест на поток ограничено!
Бронируйте место на курсе прямо сейчас и получите скидку 30%
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
ИТ-специалисты Москвы, хотите поделиться опытом?
Есть возможность рассказать студентам о том, что вы не услышали в свое время. Центральный университет как раз проводит интенсив для будущих преподавателей ИТ-специальностей — это возможность попробовать себя в роли наставника и понять, подходит вам эта деятельность или нет.
Там вы сможете:
— Связать преподавание с личными и карьерными целями.
— Отработать техники презентаций и вовлечения аудитории.
— Спроектировать и провести пару на площадке Центрального университета.
— Заручиться поддержкой экспертов с опытом в крупных ИТ-компаниях.
— Получить шанс попасть в команду преподавателей Центрального университета.
Интенсив пройдет с 22 марта по 5 апреля. Будут онлайн-встречи и очные занятия. Еще успеваете зарегистрироваться.
Есть возможность рассказать студентам о том, что вы не услышали в свое время. Центральный университет как раз проводит интенсив для будущих преподавателей ИТ-специальностей — это возможность попробовать себя в роли наставника и понять, подходит вам эта деятельность или нет.
Там вы сможете:
— Связать преподавание с личными и карьерными целями.
— Отработать техники презентаций и вовлечения аудитории.
— Спроектировать и провести пару на площадке Центрального университета.
— Заручиться поддержкой экспертов с опытом в крупных ИТ-компаниях.
— Получить шанс попасть в команду преподавателей Центрального университета.
Интенсив пройдет с 22 марта по 5 апреля. Будут онлайн-встречи и очные занятия. Еще успеваете зарегистрироваться.
This media is not supported in your browser
VIEW IN TELEGRAM
OpenClaw + RL
Агенты OpenClaw адаптируются с помощью файлов памяти и навыков (skills), но веса базовой модели на самом деле не меняются.
Как OpenClaw-RL решает эту проблему?
Когда стоит использовать OpenClaw-RL?
Агенты OpenClaw адаптируются с помощью файлов памяти и навыков (skills), но веса базовой модели на самом деле не меняются.
Как OpenClaw-RL решает эту проблему?
Он оборачивает самостоятельно размещённую модель в API, совместимый с OpenAI, перехватывает живые диалоги из OpenClaw и обучает политику в фоновом режиме с помощью RL (обучения с подкреплением).
Архитектура полностью асинхронная. Это означает, что:
обработка запросов,
оценка награды (reward scoring),
и обучение
выполняются параллельно.
После завершения обучения веса модели "hot" подменяются (hot-swap) после каждого батча, при этом агент продолжает отвечать без остановки.
В настоящее время поддерживаются два режима обучения:
Binary RL (GRPO): модель награды оценивает каждый ход диалога как хороший, плохой или нейтральный. Эта скалярная награда используется для обновления политики через PPO-подобную функцию цели с клиппингом.
On-Policy Distillation: когда появляются конкретные исправления, например
"тебе нужно было сначала проверить тот файл",
эта обратная связь используется как более богатый направленный сигнал обучения на уровне токенов.
Когда стоит использовать OpenClaw-RL?
Честно говоря, большую часть поведения агента уже можно улучшить через более грамотный дизайн памяти и навыков.
Существующая экосистема навыков OpenClaw и созданные сообществом навыки самоулучшения покрывают широкий спектр задач без изменения весов модели.
Если агент постоянно забывает предпочтения пользователя - это проблема памяти.
Если он не знает, как обработать конкретный рабочий процесс - это проблема навыков.
Обе задачи решаются на уровне промптов и контекста.
RL становится действительно интересным, когда источник ошибки лежит глубже - в самом механизме рассуждения модели.
Например:
систематически плохой порядок выбора инструментов,
слабое многошаговое планирование,
неспособность правильно интерпретировать неоднозначные инструкции так, как ожидает конкретный пользователь.
Исследования в области agentic RL (например, ARTIST и Agent-R1) показывают, что такие поведенческие паттерны достигают потолка, если использовать только промпт-подходы. Особенно это заметно в сложных многошаговых задачах, где модели нужно:
восстанавливаться после ошибок инструментов,
или менять стратегию прямо во время выполнения.
Именно этот уровень и является целью OpenClaw-RL - и это ключевое отличие от того, что предлагает обычный OpenClaw.
❤3
Как бороться с переобучением в нейросетях
Переобучение — это момент, когда модель:
👉 отлично знает train
👉 и вообще не понимает реальный мир
Она запоминает, а не обобщает.
Разберём, как с этим бороться 👇
1. Больше данных (самый честный способ)
Чем больше данных — тем сложнее модели заучить шум.
Что можно сделать:
👉 собрать новые данные
👉 использовать data augmentation
👉 синтетически расширить выборку
В CV и NLP это часто даёт лучший эффект, чем любые трюки с архитектурой.
2. Regularization (штраф за “слишком умную” модель)
👉 L1 / L2 регуляризация
→ штрафуют большие веса
Интуитивно:
модель становится проще и меньше переобучается
3. Dropout — случайное “забывание” нейронов
Во время обучения случайные нейроны отключаются.
Что это даёт:
👉 модель не может опираться на конкретные нейроны
👉 учится быть более устойчивой
Обычно:
👉 0.2 – 0.5 dropout rate
4. Early Stopping — остановись вовремя
Следим за валидацией:
👉 train loss ↓
👉 val loss сначала ↓, потом ↑
Как только val начинает расти — останавливаем обучение
Это один из самых эффективных и недооценённых методов.
5. Упростить модель
Иногда решение самое простое:
👉 меньше слоёв
👉 меньше параметров
👉 проще архитектура
Большая модель = больше шанс переобучения.
6. Batch Normalization
Помогает:
👉 стабилизировать обучение
👉 немного снижает переобучение
Но это не silver bullet — скорее бонус.
7. Data Augmentation
Особенно важно для:
👉 CV (повороты, шум, кропы)
👉 NLP (перефразирование, замены)
Модель видит больше вариантов одного и того же объекта.
8. Правильная валидация
Если у тебя плохой split —
ты даже не поймёшь, что модель переобучилась.
Используй:
👉 train / val / test
👉 k-fold (если мало данных)
Главный инсайт
Переобучение — это не ошибка модели.
Это сигнал, что:
👉 либо мало данных
👉 либо модель слишком сложная
👉 либо процесс обучения настроен плохо
В одном предложении
Чтобы победить переобучение —
либо добавь информации (данные), либо убери сложность (модель).
Переобучение — это момент, когда модель:
👉 отлично знает train
👉 и вообще не понимает реальный мир
Она запоминает, а не обобщает.
Разберём, как с этим бороться 👇
1. Больше данных (самый честный способ)
Чем больше данных — тем сложнее модели заучить шум.
Что можно сделать:
👉 собрать новые данные
👉 использовать data augmentation
👉 синтетически расширить выборку
В CV и NLP это часто даёт лучший эффект, чем любые трюки с архитектурой.
2. Regularization (штраф за “слишком умную” модель)
👉 L1 / L2 регуляризация
→ штрафуют большие веса
Интуитивно:
модель становится проще и меньше переобучается
3. Dropout — случайное “забывание” нейронов
Во время обучения случайные нейроны отключаются.
Что это даёт:
👉 модель не может опираться на конкретные нейроны
👉 учится быть более устойчивой
Обычно:
👉 0.2 – 0.5 dropout rate
4. Early Stopping — остановись вовремя
Следим за валидацией:
👉 train loss ↓
👉 val loss сначала ↓, потом ↑
Как только val начинает расти — останавливаем обучение
Это один из самых эффективных и недооценённых методов.
5. Упростить модель
Иногда решение самое простое:
👉 меньше слоёв
👉 меньше параметров
👉 проще архитектура
Большая модель = больше шанс переобучения.
6. Batch Normalization
Помогает:
👉 стабилизировать обучение
👉 немного снижает переобучение
Но это не silver bullet — скорее бонус.
7. Data Augmentation
Особенно важно для:
👉 CV (повороты, шум, кропы)
👉 NLP (перефразирование, замены)
Модель видит больше вариантов одного и того же объекта.
8. Правильная валидация
Если у тебя плохой split —
ты даже не поймёшь, что модель переобучилась.
Используй:
👉 train / val / test
👉 k-fold (если мало данных)
Главный инсайт
Переобучение — это не ошибка модели.
Это сигнал, что:
👉 либо мало данных
👉 либо модель слишком сложная
👉 либо процесс обучения настроен плохо
В одном предложении
Чтобы победить переобучение —
либо добавь информации (данные), либо убери сложность (модель).
🔥8👀1
Уверенное владение математическим аппаратом — ключевой фактор для решения сложных задач в Data Science, ML и других it-специальностях.
Преподаватели МФТИ и создатели проекта Popmath приглашают вас на бесплатный вебинар "Как выучить математику во взрослом возрасте?"
На вебинаре вы получите ответы на ключевые вопросы:
🔴 Прикладная математика: Какие разделы наиболее критичны для современных IT-специальностей
🔵 Эффективность обучения: Почему академический подход часто не работает и как выстроить процесс с максимальным КПД
🟠 Актуальные методики: Какие образовательные технологии позволяют в сжатые сроки восстановить и систематизировать знания
Дата: 23 марта
Время: 20:00 по МСК
Длительность: 1 час + ответы на вопросы
➡️ Для регистрации пишите нам!
или ознакомьтесь со страницей вебинара и оставьте заявку там
🔻 Всем участникам вебинара скидка 10% на 4-х месячный онлайн-курс "Математика с нуля для взрослых", который начнётся уже 26 марта🔺
Преподаватели МФТИ и создатели проекта Popmath приглашают вас на бесплатный вебинар "Как выучить математику во взрослом возрасте?"
На вебинаре вы получите ответы на ключевые вопросы:
🔴 Прикладная математика: Какие разделы наиболее критичны для современных IT-специальностей
🔵 Эффективность обучения: Почему академический подход часто не работает и как выстроить процесс с максимальным КПД
🟠 Актуальные методики: Какие образовательные технологии позволяют в сжатые сроки восстановить и систематизировать знания
Дата: 23 марта
Время: 20:00 по МСК
Длительность: 1 час + ответы на вопросы
➡️ Для регистрации пишите нам!
или ознакомьтесь со страницей вебинара и оставьте заявку там
🔻 Всем участникам вебинара скидка 10% на 4-х месячный онлайн-курс "Математика с нуля для взрослых", который начнётся уже 26 марта🔺
🐳1