Forwarded from LLM is all you need
Написал на Хабре небольшой туториал, как запилить простой пример MCP-сервера.
Разработка MCP-сервера на примере CRUD операций
Model Context Protocol (MCP) это такой единый протокол, который описывает как создавать API сервисов, с которыми могут взаимодействовать LLM.
Разработка MCP-сервера на примере CRUD операций
Model Context Protocol (MCP) это такой единый протокол, который описывает как создавать API сервисов, с которыми могут взаимодействовать LLM.
Forwarded from LLM is all you need
#RAG #retriever
Самая простая реализация RAG включает в себя отдельный независимый вопрос и отдельный независимый ответ на него. Но RAG можно настроить так, чтобы он учитывал и всю предыдущую цепочку сообщений (техника называется Contextual retrieval).
Сами по себе LLM уже умеют обрабатывать цепочку сообщений (ее также называют диалог или беседа) - для этого надо использовать Chat Templates (https://t.iss.one/llm_is_all_you_need/62). Но ее нельзя просто так подать в RAG.
Рассмотри такой пример беседы с LLM:
Когда у нас один единственный вопрос в цепочке:
Чтобы это исправить нам нужно предварительно трансформировать последний вопрос примерно в такой вид:
В этом нам поможет LLM:
1. Получаем цепочку сообщений.
2. Просим LLM переформулировать последний вопрос.
3. Этот единственный переформулированный вопрос (и только его) подаем в ретривер, где он превращается в вектор и по нему ищутся чанки.
4. Дальше работаем как обычно.
Самая простая реализация RAG включает в себя отдельный независимый вопрос и отдельный независимый ответ на него. Но RAG можно настроить так, чтобы он учитывал и всю предыдущую цепочку сообщений (техника называется Contextual retrieval).
Сами по себе LLM уже умеют обрабатывать цепочку сообщений (ее также называют диалог или беседа) - для этого надо использовать Chat Templates (https://t.iss.one/llm_is_all_you_need/62). Но ее нельзя просто так подать в RAG.
Рассмотри такой пример беседы с LLM:
- Вопрос: Как звали жену Цезаря?
- Ответ: Корнелия Цинилла.
- Вопрос: А его детей?
Когда у нас один единственный вопрос в цепочке:
Как звали жену Цезаря?, нам с ним ничего дополнительно делать не нужно - подаем в ретривер как есть. Но если мы подадим в ретривер А его детей?, то ничего хорошего он не вернет. Максимум что он найдет так это каких-то (любых) детей, но скорее какую-то общую информацию о детях. Чтобы это исправить нам нужно предварительно трансформировать последний вопрос примерно в такой вид:
Как звали детей Цезаря?.В этом нам поможет LLM:
1. Получаем цепочку сообщений.
2. Просим LLM переформулировать последний вопрос.
messages = [
{"role": "user", "content": 'Как звали жену Цезаря?'},
{"role": "assistant", "content": 'Корнелия Цинилла.'},
{"role": "user", "content": 'А его детей?'},
{"role": "user", "content": 'Выше история переписки в чате и последний вопрос пользователя, который может касаться контекста в этой истории. Переформулируй последний вопрос так, чтобы его можно было понять без истории чата. Постараяся максимально сохранить слова из исходного вопроса. Если вопрос понятен без контекста - напиши его без изменений.'}
]
3. Этот единственный переформулированный вопрос (и только его) подаем в ретривер, где он превращается в вектор и по нему ищутся чанки.
4. Дальше работаем как обычно.
Forwarded from Agentic World
Агенты - это все замечательно, но их невозможно сделать без LLM, а значит хорошее понимание всей ллмной внутрянки дает огромное преимущество в построении классных продуктов.
В блоге vLLM вышла хардкорная статья об их внутренним устройстве. А так как vLLM я горячо люблю, а статья действительно крутая, то сделал ее перевод. Упахался с англицизмами, нюансами и деталями, но оно того стоило🤙
https://habr.com/ru/articles/957748/
В блоге vLLM вышла хардкорная статья об их внутренним устройстве. А так как vLLM я горячо люблю, а статья действительно крутая, то сделал ее перевод. Упахался с англицизмами, нюансами и деталями, но оно того стоило
https://habr.com/ru/articles/957748/
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Внутри vLLM: Анатомия системы инференса LLM с высокой пропускной способностью
Привет! Этот пост — перевод очень хардовой статьи про внутренности vLLM и того, как устроен инференс LLM. Переводить было сложно из-за англицизмов и отсутствия устоявшегося перевода многих терминов,...
Forwarded from DevBrain
Паттерны и анти-паттерны использования паттерн-матчинга в Питоне
Наткнулся на доклад про паттерны паттерн-матчинга 😁 и мне он понравился: Patterns and Anti-Patterns in Python's Structural Pattern Matching
Доклад очень понравился, несмотря на то, что паттерн-матчингом я пользуюсь с самого его появления (кажется в 3.10), я подчерпнул полезное для себя. Что понравилось? Последний пример, где Brett показывает обработку semi-structured JSON. Я вспомнил, что часто внешние API могут возвращать разный формат JSON в зависимости от состояния, но мне в голову никогда не приходила идея обернуть обработку этого в match/case.
Элегантно! 💡
Наткнулся на доклад про паттерны паттерн-матчинга 😁 и мне он понравился: Patterns and Anti-Patterns in Python's Structural Pattern Matching
Доклад очень понравился, несмотря на то, что паттерн-матчингом я пользуюсь с самого его появления (кажется в 3.10), я подчерпнул полезное для себя. Что понравилось? Последний пример, где Brett показывает обработку semi-structured JSON. Я вспомнил, что часто внешние API могут возвращать разный формат JSON в зависимости от состояния, но мне в голову никогда не приходила идея обернуть обработку этого в match/case.
Элегантно! 💡
YouTube
PyBeach 2025 - Brett Slatkin - Patterns and Anti-Patterns in Python's Structural Pattern Matching
Have you used Python's match statement? How do you decide when to use match instead of a typical if/elif/else statement? Although structural pattern matching functionality has been available in Python for years, many Python developers still aren't sure about…
Forwarded from e/acc
Вся лента забита цитатами из интервью Андрея Карпаты, я послушал на одном дыхании и рекомендую вам тоже. Это самая взвешенная, но при этом исходящая из глубокого понимания позиция относительно AGI, ASI и влиянии ИИ на мир.
Не буду пересказывать все интервью, но первый час примерно это прям-то таки детальный роадмап по тому что необходимо решить, построить и сделать чтобы получить действительно полезный ИИ, который может выполнять любую работу, которую умеет делать человек:
- уход от запоминания (и моделей в триллионы параметров) к генерализации концептов и принципов, с возможность "посмотреть в базе" какой-то факт когда это будет нужно
- реальная долговременная память, умение интернализировать, рефлексировать знания в долгосрочную базу, лора-адаптер или напрямую в веса модели
- он называет короткую память у людей фичей а не багом, ибо она помогает обобщать, фокусируясь на общих паттернах, а не на деталях; в отличие от LLM, которые отвлекаются идеальной памятью на огромные данные, что мешает глубокому абстрактному пониманию
- развитие агентов, так же как и интернета, займет еще 10 лет, каждый год постепенно автоматизируя и упрощая разные задачи и профессии, но интеграция этого в глобальный ВВП займет время, а не будет спонтанным взрывом
жутко рекомендую!
P.S. а параллельно с этим Илон Маск сегодня утром в очередной раз объявил о неизбежности AGI в ближайшие годы, мол, Grok будет ИИ-рисечером не хуже Андрея :)
Не буду пересказывать все интервью, но первый час примерно это прям-то таки детальный роадмап по тому что необходимо решить, построить и сделать чтобы получить действительно полезный ИИ, который может выполнять любую работу, которую умеет делать человек:
- уход от запоминания (и моделей в триллионы параметров) к генерализации концептов и принципов, с возможность "посмотреть в базе" какой-то факт когда это будет нужно
- реальная долговременная память, умение интернализировать, рефлексировать знания в долгосрочную базу, лора-адаптер или напрямую в веса модели
- он называет короткую память у людей фичей а не багом, ибо она помогает обобщать, фокусируясь на общих паттернах, а не на деталях; в отличие от LLM, которые отвлекаются идеальной памятью на огромные данные, что мешает глубокому абстрактному пониманию
- развитие агентов, так же как и интернета, займет еще 10 лет, каждый год постепенно автоматизируя и упрощая разные задачи и профессии, но интеграция этого в глобальный ВВП займет время, а не будет спонтанным взрывом
жутко рекомендую!
P.S. а параллельно с этим Илон Маск сегодня утром в очередной раз объявил о неизбежности AGI в ближайшие годы, мол, Grok будет ИИ-рисечером не хуже Андрея :)
Forwarded from КОД ИБ: информационная безопасность
С ИИ всё стало умным, в том числе и… малварь — история появления GenAI-полиморфных вирусов #опытэкспертов
За два года вокруг "расцензуренных" LLM вырос целый подпласт киберугроз. Но если WormGPT/FraudGPT это уже банальные подсказки для фишинга и помощник для скрипт-кидди, то куда интереснее случаи, где модель встраивается в сам цикл атаки и генерирует действия/код "на лету".
Борис Захир, независимый эксперт и автор блога "Борис_ь с ml", выделил в статье четыре интересных кейса, от PoC до боевого инцидента, и сделал вывод — GenAI уже не просто декорация, а значимый элемент киллчейна.
➡️ Читать статью на Хабре
В материале упоминаются и довольно известные инциденты — EchoLeak и Lethal Trifecta, приведены их схемы реализации. И на их фоне становится понятно, чем кардинально отличаются другие, уже менее популярные атаки — BlackMamba, PromptLock, s1ngularity. И рассмотрен также пример раздутой хайпом ситуации, на самом деле не имеющей пока серьезной значимости — это SkyNet.
Главное отличие EchoLeak от BlackMamba и прочих из этой тройки, которые эксперт предлагает называть GenAI-полиморфными вирусами — это не прямая реализация вредоносного действия с помощью тула агента, а использование GenAI для создания конкретных кусочков малвари: кода дискаверинга секретов, шифрования файлов, написание рансом-сообщения жертве.
В самой же статье вы найдете подробную схему реализации (с тактиками/техниками) каждого инцидента, ответы на вопросы об эффективности таких методов атаки и о том, почему же все-таки это работает и обходит защиту, а также взгляд эксперта на перспективы развития таких вирусов.
✏️ Статью написал Борис Захир, независимый эксперт и автор блога "Борис_ь с ml"
GenAI сегодня становится не просто ассистентом для скрипткидди, но и элементом киллчейна, выполняя задачи по генерации вредоносного кода "на лету", уже внутри контролируемого контура — это полноценный новый вектор атаки.
За два года вокруг "расцензуренных" LLM вырос целый подпласт киберугроз. Но если WormGPT/FraudGPT это уже банальные подсказки для фишинга и помощник для скрипт-кидди, то куда интереснее случаи, где модель встраивается в сам цикл атаки и генерирует действия/код "на лету".
Борис Захир, независимый эксперт и автор блога "Борис_ь с ml", выделил в статье четыре интересных кейса, от PoC до боевого инцидента, и сделал вывод — GenAI уже не просто декорация, а значимый элемент киллчейна.
В материале упоминаются и довольно известные инциденты — EchoLeak и Lethal Trifecta, приведены их схемы реализации. И на их фоне становится понятно, чем кардинально отличаются другие, уже менее популярные атаки — BlackMamba, PromptLock, s1ngularity. И рассмотрен также пример раздутой хайпом ситуации, на самом деле не имеющей пока серьезной значимости — это SkyNet.
Главное отличие EchoLeak от BlackMamba и прочих из этой тройки, которые эксперт предлагает называть GenAI-полиморфными вирусами — это не прямая реализация вредоносного действия с помощью тула агента, а использование GenAI для создания конкретных кусочков малвари: кода дискаверинга секретов, шифрования файлов, написание рансом-сообщения жертве.
В самой же статье вы найдете подробную схему реализации (с тактиками/техниками) каждого инцидента, ответы на вопросы об эффективности таких методов атаки и о том, почему же все-таки это работает и обходит защиту, а также взгляд эксперта на перспективы развития таких вирусов.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from что-то на DL-ском
На этих выходных буду выступать онлайн на Practical ML Conf 2025 с докладом о том, как мы год шли от статьи с красивой идеей до высоконагруженного прода. И это была не самая приятная прогулка))
Хочется показать реальный путь с факапами, переделками и неожиданными инсайтами. Потому что между – работает в jupyter notebook и выдерживает 2,5 миллиарда событий в день – огромная разница, you know😬
О чем расскажу
💛 Как мы решали проблему холодного старта для новых товаров в WB
💛 Почему MoE архитектура с экспертами оказалась важна для e-commerce
💛 Как влияла мультимодальность
💛 Самый волнующий вопрос – что выбирать? Сложную архитектуру или стабилизацию в обучении?
Что унесете с собой с конфы
Подарки не вышлю, кхм, сами прилетайте на сходку в Сербию, но ментально унесете эту инфу:
💛 Готовые решения для прода
💛 Никаких игрушечных экспов. Мы за хардкор и то, что работает на миллионах пользователей. Сами уже знаем, плавали😪
Немного похвалю PML
Контекст конференции выглядит супер: 167 заявок на 21 место (конкурс 8:1), фокус именно на практическом применении ML в продуктах. Программа отражает главные тренды 2025: ИИ в e-commerce, оптимизация инференса, мультимодальные системы. Будет все, что можно представить, говоря про мл конфу: cv/nlp/speech/recsys/mlops/ds . А что вам еще надо?🧐
27 сентября в Москве и онлайн. Регистрируйтесь
🩰 🩰 Обещаю рассказать и про те эксперименты, которые провалились. Потому что именно на них учишься больше всего
– Почему решила стать спикером?
– Устала от докладов в стиле «посмотрите, какие у нас красивые метрики на тестовой выборке».
Хочется показать реальный путь с факапами, переделками и неожиданными инсайтами. Потому что между – работает в jupyter notebook и выдерживает 2,5 миллиарда событий в день – огромная разница, you know
О чем расскажу
Что унесете с собой с конфы
Немного похвалю PML
Контекст конференции выглядит супер: 167 заявок на 21 место (конкурс 8:1), фокус именно на практическом применении ML в продуктах. Программа отражает главные тренды 2025: ИИ в e-commerce, оптимизация инференса, мультимодальные системы. Будет все, что можно представить, говоря про мл конфу: cv/nlp/speech/recsys/mlops/ds . А что вам еще надо?
27 сентября в Москве и онлайн. Регистрируйтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from • Dmitry Legchikov
technical_guide_ai_agents.pdf
25.4 MB
Google выпустила туториал по разработке ИИ агентов для стартапов
Очевидно, что это маркетинговый материал для привлечения стартапов в свое облако.
Но даже в нем можно найти пользу
Я увидел, по крайней мере, две:
1 — Для многих нетехнических людей порог входа в разработку ИИ нелегкий.
Материалы написаны понятно, с хорошими иллюстрациями и дают хорошее общее понимание о том, как устроены ИИ Агенты.
Все примеры приводятся для Google Cloud - это конечно может создать трудности в будущем.
2 — У Google хорошая инфраструктура для Gen AI стартапов.
При этом они дают щедрые гранты на использование (до 350k$).
Знаю ребят, которые получали такие гранты и были довольны.
Есть риск, что ваш проект взлетит и при масштабировании Google отыграется на вас сполна (vendor lock). А цены при масштабировании реально космические, и часто стоимость использования определяется количеством запросов, а не временем использования.
Если разобраться в инструментах, то получится быстро итерироваться и тестировать гипотезы.
Очевидно, что это маркетинговый материал для привлечения стартапов в свое облако.
Но даже в нем можно найти пользу
Я увидел, по крайней мере, две:
1 — Для многих нетехнических людей порог входа в разработку ИИ нелегкий.
Материалы написаны понятно, с хорошими иллюстрациями и дают хорошее общее понимание о том, как устроены ИИ Агенты.
Все примеры приводятся для Google Cloud - это конечно может создать трудности в будущем.
2 — У Google хорошая инфраструктура для Gen AI стартапов.
При этом они дают щедрые гранты на использование (до 350k$).
Знаю ребят, которые получали такие гранты и были довольны.
Есть риск, что ваш проект взлетит и при масштабировании Google отыграется на вас сполна (vendor lock). А цены при масштабировании реально космические, и часто стоимость использования определяется количеством запросов, а не временем использования.
Если разобраться в инструментах, то получится быстро итерироваться и тестировать гипотезы.
Forwarded from Продакт аналитикс
Приветствую, дорогие друзья!
На просторах интернета нашла очередную приколюху, которую сегодня также планирую досконально изучить.
В LinkedIn это назвали весьма высокопарно - MBA для продактов(окак!) . По структуре - это набор разного рода подкастов .
По приложенным ссылкам можно увидеть небольшое саммэри выпуска, ключевые идеи и даже упоминаемые в подкасте материалы.
Ну, поглядим. Сохраняйте себе, вдруг пригодится 😎
#позапросамстраждущих #какворватьсяваналитику #продуктовыеистории
На просторах интернета нашла очередную приколюху, которую сегодня также планирую досконально изучить.
В LinkedIn это назвали весьма высокопарно - MBA для продактов
По приложенным ссылкам можно увидеть небольшое саммэри выпуска, ключевые идеи и даже упоминаемые в подкасте материалы.
Ну, поглядим. Сохраняйте себе, вдруг пригодится 😎
#позапросамстраждущих #какворватьсяваналитику #продуктовыеистории
Forwarded from Dataism
Список вопросов к команде и HR.pdf
64.5 KB
Представь, что ты получаешь заветное сообщение от hr с оффером. Забыв обо всем на свете, радостно соглашаешься, выходишь на работу, а там ….. сюрпраааааайз: и переработки постоянные, и процессы рабочие фиговые, и премию перестали платить в компании, потому что кризис (а у тебя внезапно зп в оффере состоит из 40% премии). В общем, фулл фарш.
Неприятно? Естественно.
Поэтому очень важно включить внутреннего душнилу (а кому-то даже и включать ничего не надо, по жизни такой) и все-все узнать на этапе собеседований.
Я решила систематизировать и оформить в приличный pdf важные вопросы, которые просто необходимо обсудить до того, как примете оффер от компании.
Только так вы сможете уменьшить риск того, что уже через пару недель работы, вы ее возненавидите.
Понятное дело, что работодатель может где-то приврать, но тут уж у вас есть опция просто уйти с испыталки. Помним, что испытательный срок не только для работника, но и для работодателя.
#поискработы
Please open Telegram to view this post
VIEW IN TELEGRAM