Forwarded from Джимми Нейрон 🚀
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Мемы с разных ракурсов от Seedance 1.0
Модель Seedance 1.0 позволяет генерировать видео на основе одного статичного фото с разными углами обзора камеры. Юзер Framer прогнал несколько мемов в качестве демонстрации технологии.
Пример промпта, который он использовал кину в комменты. Длительность видео составляет 5 секунд, стоимость генерации 0,15$. Автор пишет, что достаточно 1-3 попытки для такого результата.
Тред от того же чувака про персонажей знаменитых картины с разных ракурсов.
Модель Seedance 1.0 позволяет генерировать видео на основе одного статичного фото с разными углами обзора камеры. Юзер Framer прогнал несколько мемов в качестве демонстрации технологии.
Пример промпта, который он использовал кину в комменты. Длительность видео составляет 5 секунд, стоимость генерации 0,15$. Автор пишет, что достаточно 1-3 попытки для такого результата.
Тред от того же чувака про персонажей знаменитых картины с разных ракурсов.
Forwarded from Всеволод Викулин | AI разбор
Почти невозможно найти рабочие примеры архитектур мультиагентных систем. Обычно, пишут что-то вроде: "ну сделайте ИИ-бухгалтера, ИИ-программиста и объедините их в ИИ-семью". Брр.
Случайно нашел публикацию Anthropic, как они сделали мультиагентую систему, которая делает подробные исследования сложных тем. Устраивайтесь поудобнее, сейчас будет мясо.
Зачем тут мультиагенты?
Например, задача: "найти 100 конкурентов, выписать их выручку и позиционирование" (McKinsey на этом моменте напряглись, их хлеб). Человек пойдет задавать 200 тысяч запросов, переваривать тонну информацию, а потом долго писать отчет. Очень дорогая задача.
Важный аспект этой задачи: она может решаться параллельно. Мы можем разбить сложную тему на подтемы, а дальше агенты исследуют все независимо. Тогда мы не потратим кучу сил на кординацию агентов друг с другом, как я писал в посте.
Дизайн архитектуры
Мы делаем систему с супер простой координацией агентов:
1) Есть агент-лидер, который бьет задачу на части и раздает подзадачи субагентам.
2) Каждый субагент решает свою задачу. Итеративно ходит поиск, анализирует выдачу, делает новый запрос, пока не докопается до истины.
3) После завершения своих задач, субагенты отправляют результаты лиду. Лид всех ждет. Потом, если он считает, что тема разобрана, готовит финальный отчет. Иначе делает новые подзадачи и по новой.
4) Когда отчет готов, отдельный агент расставляет, из какого источника, что было взято.
Оценка качества
Ровно так, как рассказывал старина Сева.
1) LLM-as-a-judge на различные свойства: достоверность ответа, точность цитат полнота, качество источников.
2) LLM-ки ловили не все кейсы, так что частично оценивали людьми.
Коллеги выложили промпты всех 3-х агентов лид, субагент, цитирование.
Очень наглядная статья, просто бери и делай по аналогии.
Изучайте только лучшие практики, делитесь ими в комментариях.
#ai_cases
Случайно нашел публикацию Anthropic, как они сделали мультиагентую систему, которая делает подробные исследования сложных тем. Устраивайтесь поудобнее, сейчас будет мясо.
Зачем тут мультиагенты?
Например, задача: "найти 100 конкурентов, выписать их выручку и позиционирование" (McKinsey на этом моменте напряглись, их хлеб). Человек пойдет задавать 200 тысяч запросов, переваривать тонну информацию, а потом долго писать отчет. Очень дорогая задача.
Важный аспект этой задачи: она может решаться параллельно. Мы можем разбить сложную тему на подтемы, а дальше агенты исследуют все независимо. Тогда мы не потратим кучу сил на кординацию агентов друг с другом, как я писал в посте.
Дизайн архитектуры
Мы делаем систему с супер простой координацией агентов:
1) Есть агент-лидер, который бьет задачу на части и раздает подзадачи субагентам.
2) Каждый субагент решает свою задачу. Итеративно ходит поиск, анализирует выдачу, делает новый запрос, пока не докопается до истины.
3) После завершения своих задач, субагенты отправляют результаты лиду. Лид всех ждет. Потом, если он считает, что тема разобрана, готовит финальный отчет. Иначе делает новые подзадачи и по новой.
4) Когда отчет готов, отдельный агент расставляет, из какого источника, что было взято.
Оценка качества
Ровно так, как рассказывал старина Сева.
1) LLM-as-a-judge на различные свойства: достоверность ответа, точность цитат полнота, качество источников.
2) LLM-ки ловили не все кейсы, так что частично оценивали людьми.
Коллеги выложили промпты всех 3-х агентов лид, субагент, цитирование.
Очень наглядная статья, просто бери и делай по аналогии.
Изучайте только лучшие практики, делитесь ими в комментариях.
#ai_cases
Forwarded from Тимлид Очевидность | Евгений Антонов
Так-то я руководителем работаю, а сообщества – это для души
В этот раз мы собрались поговорить про то, как делать сообщества внутри компании и за её пределами.
Саша Пряхин рассказал, как он тимлидское комьюнити ведет у себя в Авито, а мне было очень интересно на себя прикинуть, ведь сейчас я тоже небольшой тимлидский клубик внутри компании веду.
Мы постарались раскрыть эту тему со всех сторон: зачем заводить, зачем участвовать, как вовлекать людей, как тянуть эту лямку и не приуныть, какие профиты можно получить, как всё это обосновать руководству и как считать эффективность.
А потом еще рассмотрели тему про внешнее комьюнити, где отдельной большой сложностью становится модерация всего творящегося действа.
В посте-анонсе приложили полезные гайды про построение комьюнити и модерацию.
Я очень доволен этим выпуском. Люблю такие общественно-полезные дела, но при этом прекрасно знаю, как это сложно дается. Надеюсь, кому-то нашим сегодняшним контентом мы сможем сэкономить время, силы и нервы 🙂
Приятного прослушивания!
Пост в канале подкаста со ссылками на выпуск и описанием затронутых тезисов здесь.
В этот раз мы собрались поговорить про то, как делать сообщества внутри компании и за её пределами.
Саша Пряхин рассказал, как он тимлидское комьюнити ведет у себя в Авито, а мне было очень интересно на себя прикинуть, ведь сейчас я тоже небольшой тимлидский клубик внутри компании веду.
Мы постарались раскрыть эту тему со всех сторон: зачем заводить, зачем участвовать, как вовлекать людей, как тянуть эту лямку и не приуныть, какие профиты можно получить, как всё это обосновать руководству и как считать эффективность.
А потом еще рассмотрели тему про внешнее комьюнити, где отдельной большой сложностью становится модерация всего творящегося действа.
В посте-анонсе приложили полезные гайды про построение комьюнити и модерацию.
Я очень доволен этим выпуском. Люблю такие общественно-полезные дела, но при этом прекрасно знаю, как это сложно дается. Надеюсь, кому-то нашим сегодняшним контентом мы сможем сэкономить время, силы и нервы 🙂
Приятного прослушивания!
Пост в канале подкаста со ссылками на выпуск и описанием затронутых тезисов здесь.
Forwarded from AbstractDL
SONAR-LLM: языковая модель, которая думает предложениями, а не токенами
Опубликовали препринт новой работы! Помните Large Concept Model (LCM) от Meta, которая генерирует текст через предсказание sentence-level эмбеддингов? Крутая идея, но диффузионное обучение там было весьма геморройным, а MSE лосс работал так себе.
Мы решили оставить "мышление" в пространстве SONAR эмбеддингов (это такой мощный автоэнкодер от Meta, который сжимает целое предложение в один вектор d=1024 и умеет почти без потерь восстанавливать его обратно), но вернуть привычный token-level cross-entropy через замороженный декодер. По сути, модель предсказывает эмбеддинг следующего предложения, прогоняет его через замороженный SONAR декодер, и получает градиенты от обычной кроссэнтропии по токенам.
Такой гибридный подход избавляет от диффузионного семплера LCM, но сохраняет семантическую абстракцию. На практике SONAR-LLM показал лучшие scaling laws, чем оригинальные LCM, и заметно обогнал их в качестве генерации по базовым метрикам — от оценки через оракулов, до NLG бенчмарков и суммаризации.
Про инференс: выигрыш приходит на длинных контекстах. До ~4k токенов обычные архитектуры выигрывают, а дальше SONAR-LLM устойчиво впереди, потому что моделирует цепочку предложений, а не токенов. Сложность по FLOPs близка к линейной вплоть до ~1M.
Все веса, код и скрипты для воспроизведения выложили в открытый доступ, так что сможете сами поэкспериментировать 🤷♂️
Статья, GitHub
Опубликовали препринт новой работы! Помните Large Concept Model (LCM) от Meta, которая генерирует текст через предсказание sentence-level эмбеддингов? Крутая идея, но диффузионное обучение там было весьма геморройным, а MSE лосс работал так себе.
Мы решили оставить "мышление" в пространстве SONAR эмбеддингов (это такой мощный автоэнкодер от Meta, который сжимает целое предложение в один вектор d=1024 и умеет почти без потерь восстанавливать его обратно), но вернуть привычный token-level cross-entropy через замороженный декодер. По сути, модель предсказывает эмбеддинг следующего предложения, прогоняет его через замороженный SONAR декодер, и получает градиенты от обычной кроссэнтропии по токенам.
Такой гибридный подход избавляет от диффузионного семплера LCM, но сохраняет семантическую абстракцию. На практике SONAR-LLM показал лучшие scaling laws, чем оригинальные LCM, и заметно обогнал их в качестве генерации по базовым метрикам — от оценки через оракулов, до NLG бенчмарков и суммаризации.
Про инференс: выигрыш приходит на длинных контекстах. До ~4k токенов обычные архитектуры выигрывают, а дальше SONAR-LLM устойчиво впереди, потому что моделирует цепочку предложений, а не токенов. Сложность по FLOPs близка к линейной вплоть до ~1M.
Все веса, код и скрипты для воспроизведения выложили в открытый доступ, так что сможете сами поэкспериментировать 🤷♂️
Статья, GitHub
Forwarded from Refat Talks: Tech & AI
This media is not supported in your browser
VIEW IN TELEGRAM
Вы наверное замечали что почти все AI-generated фронтенды выглядят как близнецы.
И тут дело не только в том, что нейросети любят дефолтный Tailwind и ShadCN. Сами промпты редко учитывают дизайн.
Понятно, что ничто не заменит насмотренность и работу профессионального дизайнера. Но есть куча низко-висящих фруктов, которые AI-driven разработчик может сорвать относительно малой кровью и сильно улучшить результат. Давайте посмотрим что можно сделать.
1. Собери референсы и используй reverse-дизайн - я писал об этом подробно, по сути: скриншоты → AI agent → дизайн токены
2. Создай свою цветовую схему через CSS-переменные:
- UI Colors - генерация полных палитр 50-950 из одного цвета
- TweakCN - визуальный редактор ShadCN тем, экспорт CSS-переменных
- Tailwind Color Generator - HSL-совместимые палитры
3. Типографика:
- Fontjoy - автоматический подбор шрифтовой пары
- Font Combinations - проверенные комбинации шрифтов
4. Промптить для лучших результатов надо иначе
"Сделай красиво" заменяется структурированными техническими требованиями с указанием конкретики, референсов и дизайн-компонентов. Несколько простых примеров:
А вот пример того, что можно добавить в проектные правила (cursor rules, claude md)
5. Еще несколько полезных ресурсов на тему Tw / ShadCN
- Magic UI - премиум компоненты с анимациями
- Aceternity UI - сложные интерактивные элементы
- Awesome ShadCN - кастомные компоненты, ресурсы, хелперы -🔥
Подход может быть разный в зависимости от навыков, тут получается интересный парадокс: чем меньше у вас насмотренности в дизайне, тем больше стоит полагаться на качественные готовые блоки и даже шаблоны, которые часто будут круче AI-дефолта, потому что их делали профессиональные дизайнеры с пониманием композиции и визуальной иерархии. Если есть хорошая насмотренность - кастомизируйте глубже через дизайн-токены, экспериментируйте с типографикой, композицией и т.д.
🔥 ➕ 🔁
И тут дело не только в том, что нейросети любят дефолтный Tailwind и ShadCN. Сами промпты редко учитывают дизайн.
Понятно, что ничто не заменит насмотренность и работу профессионального дизайнера. Но есть куча низко-висящих фруктов, которые AI-driven разработчик может сорвать относительно малой кровью и сильно улучшить результат. Давайте посмотрим что можно сделать.
1. Собери референсы и используй reverse-дизайн - я писал об этом подробно, по сути: скриншоты → AI agent → дизайн токены
2. Создай свою цветовую схему через CSS-переменные:
- UI Colors - генерация полных палитр 50-950 из одного цвета
- TweakCN - визуальный редактор ShadCN тем, экспорт CSS-переменных
- Tailwind Color Generator - HSL-совместимые палитры
3. Типографика:
- Fontjoy - автоматический подбор шрифтовой пары
- Font Combinations - проверенные комбинации шрифтов
4. Промптить для лучших результатов надо иначе
"Сделай красиво" заменяется структурированными техническими требованиями с указанием конкретики, референсов и дизайн-компонентов. Несколько простых примеров:
// типографика
Design clear typography hierarchy using modern sans-serif font.
Large heading, medium subheading, readable body text.
Ensure good line spacing and visual rhythm throughout the page.
// UI-компоненты
Create card components with contemporary styling - subtle shadows,
rounded corners, clean white background. Add hover effects
and make them feel interactive and polished.
// цвета
Use professional color palette - primary brand color, neutral grays,
success/error states. Ensure good contrast for accessibility
and maintain consistent color usage across all components.
А вот пример того, что можно добавить в проектные правила (cursor rules, claude md)
## Design Principles
- Generous spacing: Use plenty of whitespace, avoid cramped layouts
- Cards: Subtle elevation, consistent padding, avoid heavy borders
- Modern aesthetics: Subtle shadows, rounded corners, clean typography
- Interactive states: Smooth hover effects, button feedback, loading states
- Visual hierarchy: Clear information structure with proper heading levels
- Accessibility: Good color contrast, readable fonts, proper focus states
- Consistent system: Reusable components, unified spacing scale
- Use consistent spacing units(8px, 16px, 24px, 32px) throughout your design system
- Test colors in both light and dark modes
- Implement consistent iconography from a single icon family
5. Еще несколько полезных ресурсов на тему Tw / ShadCN
- Magic UI - премиум компоненты с анимациями
- Aceternity UI - сложные интерактивные элементы
- Awesome ShadCN - кастомные компоненты, ресурсы, хелперы -
Подход может быть разный в зависимости от навыков, тут получается интересный парадокс: чем меньше у вас насмотренности в дизайне, тем больше стоит полагаться на качественные готовые блоки и даже шаблоны, которые часто будут круче AI-дефолта, потому что их делали профессиональные дизайнеры с пониманием композиции и визуальной иерархии. Если есть хорошая насмотренность - кастомизируйте глубже через дизайн-токены, экспериментируйте с типографикой, композицией и т.д.
🔥 ➕ 🔁
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Korenev AI - GPT в тапочках🩴
Команда Anthropic выпустила видео с разбором промпта для конкретной бизнес-задачи - анализа протокола ДТП и определения виновника.
Рекомендую посмотреть тем, кто только начинает внедрять ИИ в бизнес. Показывают, как обогащать контекст и бороться с галлюцинациями.
Anthropic активно продвигает идею использования XML-тегов в промптах. В примере они разбивают задачу на подзадачи через теги, которые ссылаются друг на друга (смотрите на 18-й минуте). Получается сложная вложенная структура:
<task id=3>...
<summary>создай саммари</summary>
<form_details>...</form_details>
</task id=3>
<task id=4>
используй саммари <summary>
</task id=4>
Для повышения качества советуют задавать предварительный ответ, т.е. ты сам начинаешь ответ за ИИ, задавая нужное направление.
В рекомендациях от Антропика есть интересный нюанс - исходные данные у них в начале промпта идут (перед задачей), хотя в основном я встречал рекомендации размещать данные практически в самом конце промпта. Запутали меня этим. Есть кому распутать?
Ссылка на переведенную версию видео (ютуб). 30 минут просмотра и вы - всамделишный промпт-инженер!
Оригинал - для тех, кто хочет стать всамделишным промпт-инженером, но со знанием английского
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Korenev AI - GPT в тапочках🩴
Я немного отвлекся и зазевался, а тут MCP развивается семимильными шагами. Теперь LLM все больше и больше могут взаимодействовать со сторонними сервисами!
Зацените подборку существующих решений https://mcpmarket.com/server и обратите внимание на количество звезд! Звезды - это оценки пользователей на Гитхабе. Чем больше звезд, тем популярнее и круче решение.
Пока копался в этой подборке, в голове вспыхнула куча идей, что с чем можно поженить.
Вообще, я углубился в тему MCP, т.к. возникла очередная острая потребность в фиксации задач. Ну реально надоело, что часть их них пропадает и заветривается.
Сейчас я настроил связку Клод-Asana (трекер задач и сервис для совместной работы). Все заводится без шаманств, т.к. у Клода уже преднастроена интеграция. Теперь Клод за меня управляет задачами: ставит их, дополняет, перемещает по доске. Посмотрим, насколько по факту это окажется рабочей связкой. Может быть придется вытащить Асану в телеграм, чтобы голосовыми кидать задачи без всяких впн.
В ходе ресёча встретил следующие популярные решения, которые попроще Асаны: todoist.com , ticktick.com , weeek.net (РФ) - но интеграция напрямую с Клодом у них отсутствует, надо или свое поднимать, либо на Асане останавливаться.
Делитесь, кто как РЕАЛЬНО облегчает жизнь с MCP!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Архитектура Стартапа - Anton Skogorev Engineering & AI (Anton Skogorev)
Давно хотел поделиться тем, что происходит под капотом LLM Platform, которую мы строим внутри ТБанка.
Пост на грани NDA.
В какой-то момент мы осознали, что без цельного платформенного слоя любые инициативы с GenAI будут буксовать. На схеме — как раз тот каркас, который у нас сложился и который мы продолжаем развивать.
И если ещё год назад мы спорили об отдельных «кубиках», то сегодня то, что мы строим, — де-факто канонический GenAI-стек. (вот тут ещё интересная статья)
Из чего он состоит на высоком уровне:
— LLM API Gateway — единая точка доступа до внутренних (qwen?) и внешних (deepseek?) моделей,
— RAG Platform — конвейер для превращения любых данных в пайплайн Retrieval-Augmented Generation,
— Observability Platform — прозрачность всех LLM-процессов в реальном времени,
— Orchestration & automation — набор инструментов построения произвольных GenAI-пайплайнов с минимум кода,
— LLM Sec — модули безопасности, политик и аудирования,
— Assistant Runtime Platform — среда выполнения произвольных AI-ассистентов.
И если LLM Gateway — это нифига себе высоконагруженный модуль, на базе которого построены как внутренние, так и внешние продукты, то вот как конкретно построить единый Tools Registry, мы всё ещё размышляем и экспериментируем.
Пост на грани NDA.
В какой-то момент мы осознали, что без цельного платформенного слоя любые инициативы с GenAI будут буксовать. На схеме — как раз тот каркас, который у нас сложился и который мы продолжаем развивать.
И если ещё год назад мы спорили об отдельных «кубиках», то сегодня то, что мы строим, — де-факто канонический GenAI-стек. (вот тут ещё интересная статья)
Из чего он состоит на высоком уровне:
— LLM API Gateway — единая точка доступа до внутренних (qwen?) и внешних (deepseek?) моделей,
— RAG Platform — конвейер для превращения любых данных в пайплайн Retrieval-Augmented Generation,
— Observability Platform — прозрачность всех LLM-процессов в реальном времени,
— Orchestration & automation — набор инструментов построения произвольных GenAI-пайплайнов с минимум кода,
— LLM Sec — модули безопасности, политик и аудирования,
— Assistant Runtime Platform — среда выполнения произвольных AI-ассистентов.
И если LLM Gateway — это нифига себе высоконагруженный модуль, на базе которого построены как внутренние, так и внешние продукты, то вот как конкретно построить единый Tools Registry, мы всё ещё размышляем и экспериментируем.
Forwarded from Nikita
Привет! Я накидал библиотеку архитектурных компонентов для Excalidraw, которых мне всегда не хватало. Делюсь, и буду рад обратной связи
https://github.com/DeKinci/sysdeslib
https://github.com/DeKinci/sysdeslib
Forwarded from Rafa (:
Я бы провёл Алекса Ху, что-нибудь из кабанчика, и обязательно https://sre.google/classroom/
sre.google
Google SRE - Sre wokshop | Learn about NALSD and sre
SRE Classroom offers workshops by Google SRE, covering NALSD and sre. Learn non-abstract large systems design and gain hands-on experience in system evaluation.