Forwarded from Machinelearning
Google Research придумали новый способ сделать большие языковые модели быстрее и дешевле.
Что это такое:
Сначала отвечает маленькая модель. Если задача слишком сложная - подключается большая. Так экономятся ресурсы, но качество может прыгать.
Маленькая модель угадывает сразу несколько слов вперёд. Большая быстро проверяет данные и подтверждает. Скорость выше, но большая модель всё равно тратит много ресурсов.
Это комбинация: маленькая модель иногда отвечает полностью сама, а иногда используется как ускоритель для большой. В итоге получаем меньше затрат, больше скорости и то же качество.
- быстрее, чем обычная спекулятивная декодировка
- дешевле и качественнее, чем каскады
- удобнее настраивать баланс «скорость ↔ качество»
При том же уровне качества, что и у спекулятивной декодировки, новый метод работает быстрее (генерирует больше токенов за один вызов большой модели).
А в задачах математических рассуждений получен явный апгрейд по скорости при сохранении или даже улучшении качества.
LLM всё чаще используются в поиске, чатах, ассистентах. Чтобы они реально были полезными, их нужно ускорять и удешевлять. *Speculative cascades* помогают это сделать без потери качества.
🔗 Подробнее: https://research.google/blog/speculative-cascades-a-hybrid-approach-for-smarter-faster-llm-inference/
@ai_machinelearning_big_data
#AI #LLM #Inference #SpeculativeDecoding #Cascades #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍1
Forwarded from Machinelearning
Anthropic описывает, как правильно создавать инструменты (tools) для AI-агентов: так, чтобы они были максимально полезными, эффективными и надёжными. Особый акцент сделан на том, как использовать самих агентов для прототипирования, тестирования и оптимизации инструментов.
Как писать эффективные инструменты для агентов
- Делай быстрые прототипы и сразу проверяй, как агент с ними работает.
- Тестируй на реальных сценариях, а не на абстрактных примерах.
- Анализируй логи и поведение агента, чтобы находить ошибки и непонятные места.
- Избегай дублирования: один инструмент должен выполнять одну чёткую задачу.
- Используй понятные имена и структуры (`machinelearning_create_task`, `mla_list_users`).
- Возвращай только нужные данные, не перегружай ответ лишним. Добавляй фильтрацию и пагинацию.
- Пиши описания так, чтобы их понял даже человек, который не в теме: чётко, без двусмысленностей, с примерами входа и выхода.
Что это дает:
- Улучшает способность AI-агентов решать реальные задачи.
- Минимизирует ошибки: неверное использование инструментов, лишние токены, избыточные вызовы.
- Повышает надёжность и предсказуемость поведения агентов.
- Упрощает масштабирование — добавление новых инструментов и задач.
@ai_machinelearning_big_data
#Anthropic #claude #aiagents #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2
Собеседования на позицию разработчика больших языковых моделей (LLM) в топовых AI-компаниях предъявляют высокие требования к знаниям.
Кандидату необходимо понимать устройство архитектуры трансформеров, владеть методами эффективного обучения и инференса, разбираться в оптимизациях памяти и скорости (таких как LoRA, FlashAttention, vLLM, ZeRO), знать тонкости распределённого тренинга, принципов LLMOps (MLOps для больших моделей) и нюансов продакшн-развертывания LLM.
Также часто проверяют умение решать реальные задачи: от проектирования пайплайна для Sparse MoE до анализа проблем с памятью на GPU, понимания различий между методами обучения с подкреплением (RLHF vs DPO) и способов масштабирования моделей.
Этот гайд структурирован по ключевым темам, соответствующим областям знаний, которые обычно проверяются на собеседованиях. Для каждой темы мы рассмотрим, что пытаются проверить интервьюеры, приведём пример формулировки вопроса и дадим подробный разбор ответа с обсуждением трэйд-оффов, примеров кода или схем, где это уместно. Вы можете изучать материал по разделам, чтобы сфокусироваться на интересующей области.
👉 Гайд
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍1🔥1
Интегрируй ML-модель в продакшн без боли и ошибок!
Практикум для разработчиков и ML-инженеров, которые устали от «экспериментов в Jupyter» и хотят переходить к реальным решениям! 16 сентября в 19:00 приглашаем на встречу по интеграции моделей с внешним миром и написанию API вместе с экспертом Игорем Стурейко — разработчиком модели прогнозирования технического состояния газотранспортной системы ПАО Газпром.
На практикуме вы:
👨💻перенесёте модель из Jupyter notebook в полноценный Python-класс
👨💻создадите API и подготовите эндпоинты
👨💻напишете валидатор для входящих параметров
👨💻протестируете работу модели как отдельного сервиса.
Все участники получают 7% скидку на любой курс OTUS + бонус: карьерные треки для ML-специалистов
Записывайся на практикум: https://tglink.io/24afcf22dd36
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963. erid: 2W5zFJPzD7E
Практикум для разработчиков и ML-инженеров, которые устали от «экспериментов в Jupyter» и хотят переходить к реальным решениям! 16 сентября в 19:00 приглашаем на встречу по интеграции моделей с внешним миром и написанию API вместе с экспертом Игорем Стурейко — разработчиком модели прогнозирования технического состояния газотранспортной системы ПАО Газпром.
На практикуме вы:
👨💻перенесёте модель из Jupyter notebook в полноценный Python-класс
👨💻создадите API и подготовите эндпоинты
👨💻напишете валидатор для входящих параметров
👨💻протестируете работу модели как отдельного сервиса.
Все участники получают 7% скидку на любой курс OTUS + бонус: карьерные треки для ML-специалистов
Записывайся на практикум: https://tglink.io/24afcf22dd36
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963. erid: 2W5zFJPzD7E
❤2🤮2
Введение. Собеседования на позиции, связанные с данными (аналитики, инженеры, ученые данных), всё чаще включают нестандартные и продвинутые вопросы по SQL.
Большие технологические компании (Google, Amazon и др.) предъявляют высокие требования: важна не только правильность запроса, но и умение оптимизировать его и разбираться в реальных бизнес-данных.
В этом гайде мы разберем категории наиболее распространенных сложных SQL-задач с реальных собеседований – от платформ вроде DataLemur, LeetCode, StrataScratch – и подробно поясним решения.
Каждая задача сопровождена анализом: условие, оптимальный подход, используемые SQL-конструкции, возможные ошибки и финальное решение (для PostgreSQL и MySQL, с указанием различий где необходимо).
В конце добавлен отдельный раздел о современных базах данных, включая векторные БД (Pinecone, Weaviate, Milvus и др.), с примерами того, что могут спросить про них на собеседовании и как выглядят SQL-подобные запросы для работы с векторами.
📌 Читать гайд
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Твоя карьера после One Day Offer для Senior ML-разработчиков — 10/10 без всяких но! 🚀
Стань частью команды GigaCode, займись развитием AI-ассистента и работай с большими языковыми моделями — а плюсом получи крутую команду, выгодные бонусы и стабильную работу.
Встречаемся сначала на онлайн-секцию с кодом с 10 по 19 сентября, а затем на RND день 24 сентября — от тебя нужна только регистрация по ссылке и желание изменить свою карьеру!
Стань частью команды GigaCode, займись развитием AI-ассистента и работай с большими языковыми моделями — а плюсом получи крутую команду, выгодные бонусы и стабильную работу.
Встречаемся сначала на онлайн-секцию с кодом с 10 по 19 сентября, а затем на RND день 24 сентября — от тебя нужна только регистрация по ссылке и желание изменить свою карьеру!
❤4
Раньше методы улучшали либо построение графа, либо поиск по нему — но не оба сразу. Здесь же оба этапа связаны: они корректируют друг друга и устраняют лишние затраты.
Как это работает:
- Всё начинается со схемы — набора правил с допустимыми типами сущностей, связей и атрибутов. Благодаря этому извлекается только релевантная информация без шума.
- Факты сохраняются в виде триплетов (сущность → связь → сущность). Если новые паттерны повторяются часто, схема расширяется.
- Чтобы граф не разрастался в хаотичную сеть, система группирует связанные узлы в сообщества, формируя 4-уровневое дерево знаний: от атрибутов внизу до сообществ наверху.
- Для запросов агент разбивает вопрос на подзапросы в рамках схемы, применяет разные методы поиска параллельно и корректирует ошибки до получения согласованного ответа.
Главное преимущество: одна и та же схема используется и для извлечения знаний, и для разбора вопросов. Это делает рассуждения чище, снижает расход токенов и повышает точность.
Результаты: на бенчмарках — до 90,7% меньше токенов и +16,6% к точности по сравнению с сильными базовыми методами.
Статья: https://arxiv.org/abs/2508.19855
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥1🥰1
“Does Language Model Understand Language?” (*«А понимает ли языковая модель язык?»*) поднимает важный вопрос: действительно ли LLM понимают язык.
Авторы показывают, что даже самые большие модели остаются уязвимыми к тонким особенностям речи:
- некорректно обрабатывают отрицания
- путаются при смене времён
- испытывают трудности с низкоресурсными языками, например бенгали
Авторы предлагают метрикауHCE accuracy, которая показывает, насколько часто предсказание модели укладывается в рамки вариации человеческой оценки (т.е. не требует абсолютной точности, но близкости человеческому восприятию).
Некоторые системы работают надёжнее, но в целом разрыв остаётся значительным. Вывод ясен: масштабирование моделей не решает фундаментальных проблем понимания языка.
arxiv.org/abs/2509.12459
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥3
⁉️ Как работает алгоритм KNN?
Только начинаете изучать машинное обучение и хотите разобраться в одном из самых простых и эффективных алгоритмов? Присоединяйтесь к открытому вебинару 23 сентября в 20:00 и узнайте, как работает алгоритм K-ближайших соседей (KNN)!
На уроке мы:
- Объясним, как сравниваются объекты и почему важно учитывать «соседей».
- Применим KNN на реальных данных с помощью Python и библиотеки scikit-learn.
- Расскажем, когда KNN работает эффективно, а когда стоит выбрать другой алгоритм.
➡️ Присоединяйтесь к бесплатному вебинару курса «Machine Learning. Basic»: https://tglink.io/5d16a7eff205?erid=2W5zFFwbNRn
#реклама
О рекламодателе
Только начинаете изучать машинное обучение и хотите разобраться в одном из самых простых и эффективных алгоритмов? Присоединяйтесь к открытому вебинару 23 сентября в 20:00 и узнайте, как работает алгоритм K-ближайших соседей (KNN)!
На уроке мы:
- Объясним, как сравниваются объекты и почему важно учитывать «соседей».
- Применим KNN на реальных данных с помощью Python и библиотеки scikit-learn.
- Расскажем, когда KNN работает эффективно, а когда стоит выбрать другой алгоритм.
➡️ Присоединяйтесь к бесплатному вебинару курса «Machine Learning. Basic»: https://tglink.io/5d16a7eff205?erid=2W5zFFwbNRn
#реклама
О рекламодателе
👍1😁1
🤖 Исследование показывает: влияние генеративного ИИ на рынок труда нельзя свести к «увольняет или создает рабочие места». Реакция проходит в три стадии:
1️⃣ Вытеснение — сразу после внедрения ИИ растут увольнения в сферах, где автоматизация заменяет людей.
2️⃣ Пауза и неопределённость — меньше вакансий и меньше увольнений по собственному. Работодатели не знают, какие навыки нужны, а сотрудники боятся менять работу без ясных перспектив.
3️⃣ Медленное восстановление — только через 12–18 месяцев найм начинает расти, но гораздо скромнее, чем были потери. Это связано с тем, что компаниям нужно время перестроить процессы и встроить ИИ в работу.
📊 Такой трёхшаговый паттерн — вытеснение, сбой координации и задержка восстановления — и есть главный вывод работы.
🔗 Подробнее: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5367192
1️⃣ Вытеснение — сразу после внедрения ИИ растут увольнения в сферах, где автоматизация заменяет людей.
2️⃣ Пауза и неопределённость — меньше вакансий и меньше увольнений по собственному. Работодатели не знают, какие навыки нужны, а сотрудники боятся менять работу без ясных перспектив.
3️⃣ Медленное восстановление — только через 12–18 месяцев найм начинает расти, но гораздо скромнее, чем были потери. Это связано с тем, что компаниям нужно время перестроить процессы и встроить ИИ в работу.
📊 Такой трёхшаговый паттерн — вытеснение, сбой координации и задержка восстановления — и есть главный вывод работы.
🔗 Подробнее: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5367192
❤2