Forwarded from saved messages
6. Что помогает (по данным исследований)
- Омега-3 жирные кислоты (EPA) - дозировка ~1000 мг EPA/день (не путать с DHA). снижает воспаление и поддерживает синтез серотонина
- Физическая нагрузка - основной механизм: при депрессии триптофан (аминокислота, из которой синтезируется серотонин) уходит в токсичный путь - превращается в нейротоксин (например, хинуренин), усиливающий симптомы депрессии. Что делает спорт: аэробная нагрузка и, в меньшей степени, силовые тренировки перехватывают хинуренин и направляют его в мышцы, где он нейтрализуется. Это снижает воспаление и восстанавливает выработку серотонина. Рекомендации: 150–180 минут в неделю Zone 2 cardio (умеренная нагрузка, можно говорить, но слегка задыхаясь). Комбинация с приёмом EPA (см. выше) даёт синергетический эффект.
- Креатин моногидрат - улучшает функцию префронтальной коры и NMDA-рецепторов. Дозировка: ~5 г/день. Проверен на спортсменах и при депрессии.
- Псилоцибин (в рамках клинических испытаний) - перспективное направление, может помочь людям с тяжёлой, резистентной депрессией
- Кетогенная диета - снижает тревожность, модулируя ГАМК (гамма-аминомасляная кислота, играет важную роль в регуляции активности нейронов, снижая их возбудимость и способствуя расслаблению); подходит не всем, требует контроля со стороны специалистов
- Омега-3 жирные кислоты (EPA) - дозировка ~1000 мг EPA/день (не путать с DHA). снижает воспаление и поддерживает синтез серотонина
- Физическая нагрузка - основной механизм: при депрессии триптофан (аминокислота, из которой синтезируется серотонин) уходит в токсичный путь - превращается в нейротоксин (например, хинуренин), усиливающий симптомы депрессии. Что делает спорт: аэробная нагрузка и, в меньшей степени, силовые тренировки перехватывают хинуренин и направляют его в мышцы, где он нейтрализуется. Это снижает воспаление и восстанавливает выработку серотонина. Рекомендации: 150–180 минут в неделю Zone 2 cardio (умеренная нагрузка, можно говорить, но слегка задыхаясь). Комбинация с приёмом EPA (см. выше) даёт синергетический эффект.
- Креатин моногидрат - улучшает функцию префронтальной коры и NMDA-рецепторов. Дозировка: ~5 г/день. Проверен на спортсменах и при депрессии.
- Псилоцибин (в рамках клинических испытаний) - перспективное направление, может помочь людям с тяжёлой, резистентной депрессией
- Кетогенная диета - снижает тревожность, модулируя ГАМК (гамма-аминомасляная кислота, играет важную роль в регуляции активности нейронов, снижая их возбудимость и способствуя расслаблению); подходит не всем, требует контроля со стороны специалистов
Hubermanlab
Podcast
Listen to the world's #1 health podcast. Dr. Huberman shares science-based tools for better sleep, focus and performance. New episodes Mondays.
Forwarded from Refat Talks: Tech & AI
500+ кейсов внедрения GenAI от топовых компаний
На днях копался в GitHub и наткнулся на интресный репозиторий: коллекцию из 500+ реальных кейсов использования GenAI и LLM от 130+ компаний. От стартапов до гигантов.
Это детальные (и не очень) разборы архитектуры, решений и подводных камней. Как GitHub строил Copilot, как Slack делал AI безопасным для enterprise, как Ramp внедрял RAG для классификации индустрий.
Посмотрите например кейс Zillow про использование AI для понимания сложностей данных недвижимости. Там показывают, как сложно работать с неструктурированными данными в реальном мире, где каждое описание объекта написано по-своему, а стандартов нет.
Репозиторий структурирован удобно:
- По отраслям: tech, e-commerce, fintech, media
- По use case'ам: RAG системы, fine-tuning, multi-modal, поиск
- По компаниям: от OpenAI до Discord
Есть даже паттерны архитектур с диаграммами - от простой интеграции LLM до сложных multi-agent систем с human-in-the-loop.
Единственная проблема - листать эти маркдауны в GitHub неудобно. Поэтому попросил Manus упаковать все это в нормальный читаемый сайт. Получилось отлично, теперь можно спокойно изучать кейсы без боли.
Ссылка на сайт: https://uxyogdzp.manus.space/
Если вы продакт-менеджер или техлид, который пытается понять, как внедрить AI в продукт - здесь куча готовых решений. Видите, как Netflix персонализирует контент через LLM, как LinkedIn улучшает поиск, как Discord ускоряет разработку.
Если вы инженер, который строит AI-систему - тут архитектурные решения от тех, кто уже наступил на грабли. Как масштабировать, как оптимизировать latency, как бороться с галлюцинациями.
Если вы стартапер, который ищет идеи - листайте по отраслям и смотрите, что еще никто не делает в вашей нише.
В общем, вы знаете что делать(добавляйте в закладки)
На днях копался в GitHub и наткнулся на интресный репозиторий: коллекцию из 500+ реальных кейсов использования GenAI и LLM от 130+ компаний. От стартапов до гигантов.
Это детальные (и не очень) разборы архитектуры, решений и подводных камней. Как GitHub строил Copilot, как Slack делал AI безопасным для enterprise, как Ramp внедрял RAG для классификации индустрий.
Посмотрите например кейс Zillow про использование AI для понимания сложностей данных недвижимости. Там показывают, как сложно работать с неструктурированными данными в реальном мире, где каждое описание объекта написано по-своему, а стандартов нет.
Репозиторий структурирован удобно:
- По отраслям: tech, e-commerce, fintech, media
- По use case'ам: RAG системы, fine-tuning, multi-modal, поиск
- По компаниям: от OpenAI до Discord
Есть даже паттерны архитектур с диаграммами - от простой интеграции LLM до сложных multi-agent систем с human-in-the-loop.
Единственная проблема - листать эти маркдауны в GitHub неудобно. Поэтому попросил Manus упаковать все это в нормальный читаемый сайт. Получилось отлично, теперь можно спокойно изучать кейсы без боли.
Ссылка на сайт: https://uxyogdzp.manus.space/
Если вы продакт-менеджер или техлид, который пытается понять, как внедрить AI в продукт - здесь куча готовых решений. Видите, как Netflix персонализирует контент через LLM, как LinkedIn улучшает поиск, как Discord ускоряет разработку.
Если вы инженер, который строит AI-систему - тут архитектурные решения от тех, кто уже наступил на грабли. Как масштабировать, как оптимизировать latency, как бороться с галлюцинациями.
Если вы стартапер, который ищет идеи - листайте по отраслям и смотрите, что еще никто не делает в вашей нише.
В общем, вы знаете что делать
Forwarded from Всеволод Викулин | AI разбор
Продолжаем изучать архитектуру LLM-систем. Сегодня говорим про работу с внешней информацией.
Паттерн 4. Зашивайте все ваши знания в промпт
Базовой LLM нужно много чего знать о вашей задаче, чтобы ее решить. Факты о вашем продукте, какие есть тулы, как зовут пользователя, с которым LLM говорит и тд и тп. Все это надо отправить в промпт. Часто его называют контекстное окно.
Это контекстное окно можно представлять как оперативную память компьютера. В нем могут содержаться не только статичная информация, но и результаты вызовов tool-ов, прошлые действия системы, критика сторонних моделей и тд.
Несмотря на то, что модели умеют все лучше и лучше работать с длинными последовательностями, вам нужно думать о размере контекстного окна. Чем длиннее окно, тем сложнее модели понять, что происходит, поэтому важно контекст эффективно записывать. Даже Google с своим Gemini вынужден делать хаки с контекстом, чтобы их агент смог играть в Покемон-Го. Подробнее про эти хаки читайте тут и берите на вооружение.
Часто мы даже точно не знаем, какую именно информацию нужно засунуть в окно, чтобы задача решилась. Тогда возникает архитектура RAG.
RAG
Название пришло из статьи 2020 года, в которой авторы присоединили retrieval систему к seq2seq-генератору. Дада, я использую слова из 2020 года, без всяких LLM. Фишка статьи, что они обучали обе эти модели вместе. Сейчас под RAG-ом подразумевают все, когда к LLM присобачивают какой-то поиск.
А присобачивать поиск оказалось довольно удобно. Человечество до эры LLM много лет занималось поиском. Вдруг оказалось, что поверх всех этих знаний можно вставить LLM, и оно просто заработает.
Fine-tuning
Одна из частых ошибок — файнтюнить LLM, чтобы научить ее какой-то новой информации. Это очень плохая идея.
1) Вы скорее всего сломаете базовый алайнмент модели. Это как вскрыть айфон — гарантия производителя перестает действовать. Веса модели меняются, уже никто не гарантирует, что модель не сломается на каком-то out of domain запросе. Такое же мнение написано тут.
2) Вы нарветесь на галлюцинации. Пытаясь вшить знания, которых модель не видела в претрейне, вы научите ее придумывать ответы на вопросы. Подробно проблема изложена в статье.
3) Не факт, что побьете RAG по качеству на вашем тесте. Почитайте просто форум. Посмотрите статью, где бенчили RAG против дообучения. Хорошо дообучать это сложно.
Файнтюнить точно можно и нужно, но для других задач. Тогда, когда модель перестает вас слушаться в промпте, вам нужна сильно более тонкая настройка. Более подробно про кейсы дообучения читайте в этом посте.
Я вам строго рекомендую RAG, чтобы дать LLM внешнюю инфу, а файнтюнинг оставить для другого. Об этом, кстати, говорят и OpenAI в своем курсе (ссылка ниже).
Литература для обязательного изучения
- Статья, как важно контролировать контекстное окно
- Доходчиво, почему fine-tuning для внедрения информации, это трата времени
- Видос про это же
- Часовой урок по fine-tuning от OpenAI (очень наглядно, когда надо дообучать)
- Объяснение, почему все состояние надо записывать в контекст
Как всегда, все вопросы пишите в комментарии или в личные сообщения.
#llm_system_design
Паттерн 4. Зашивайте все ваши знания в промпт
Базовой LLM нужно много чего знать о вашей задаче, чтобы ее решить. Факты о вашем продукте, какие есть тулы, как зовут пользователя, с которым LLM говорит и тд и тп. Все это надо отправить в промпт. Часто его называют контекстное окно.
Это контекстное окно можно представлять как оперативную память компьютера. В нем могут содержаться не только статичная информация, но и результаты вызовов tool-ов, прошлые действия системы, критика сторонних моделей и тд.
Несмотря на то, что модели умеют все лучше и лучше работать с длинными последовательностями, вам нужно думать о размере контекстного окна. Чем длиннее окно, тем сложнее модели понять, что происходит, поэтому важно контекст эффективно записывать. Даже Google с своим Gemini вынужден делать хаки с контекстом, чтобы их агент смог играть в Покемон-Го. Подробнее про эти хаки читайте тут и берите на вооружение.
Часто мы даже точно не знаем, какую именно информацию нужно засунуть в окно, чтобы задача решилась. Тогда возникает архитектура RAG.
RAG
Название пришло из статьи 2020 года, в которой авторы присоединили retrieval систему к seq2seq-генератору. Дада, я использую слова из 2020 года, без всяких LLM. Фишка статьи, что они обучали обе эти модели вместе. Сейчас под RAG-ом подразумевают все, когда к LLM присобачивают какой-то поиск.
А присобачивать поиск оказалось довольно удобно. Человечество до эры LLM много лет занималось поиском. Вдруг оказалось, что поверх всех этих знаний можно вставить LLM, и оно просто заработает.
Fine-tuning
Одна из частых ошибок — файнтюнить LLM, чтобы научить ее какой-то новой информации. Это очень плохая идея.
1) Вы скорее всего сломаете базовый алайнмент модели. Это как вскрыть айфон — гарантия производителя перестает действовать. Веса модели меняются, уже никто не гарантирует, что модель не сломается на каком-то out of domain запросе. Такое же мнение написано тут.
2) Вы нарветесь на галлюцинации. Пытаясь вшить знания, которых модель не видела в претрейне, вы научите ее придумывать ответы на вопросы. Подробно проблема изложена в статье.
3) Не факт, что побьете RAG по качеству на вашем тесте. Почитайте просто форум. Посмотрите статью, где бенчили RAG против дообучения. Хорошо дообучать это сложно.
Файнтюнить точно можно и нужно, но для других задач. Тогда, когда модель перестает вас слушаться в промпте, вам нужна сильно более тонкая настройка. Более подробно про кейсы дообучения читайте в этом посте.
Я вам строго рекомендую RAG, чтобы дать LLM внешнюю инфу, а файнтюнинг оставить для другого. Об этом, кстати, говорят и OpenAI в своем курсе (ссылка ниже).
Литература для обязательного изучения
- Статья, как важно контролировать контекстное окно
- Доходчиво, почему fine-tuning для внедрения информации, это трата времени
- Видос про это же
- Часовой урок по fine-tuning от OpenAI (очень наглядно, когда надо дообучать)
- Объяснение, почему все состояние надо записывать в контекст
Как всегда, все вопросы пишите в комментарии или в личные сообщения.
#llm_system_design
Forwarded from 🇻 🇱 🇦 🇩
YouTube
Stanford CS224W: Machine Learning w/ Graphs I 2023 I Geometric Graph Learning, Minkai Xu
To follow along with the course, visit the course website:
https://snap.stanford.edu/class/cs224w-2023/
Jure Leskovec
Professor of Computer Science at Stanford University
https://profiles.stanford.edu/jure-leskovec
Guest Speaker: Minkai Xu
https://minkaixu.com/…
https://snap.stanford.edu/class/cs224w-2023/
Jure Leskovec
Professor of Computer Science at Stanford University
https://profiles.stanford.edu/jure-leskovec
Guest Speaker: Minkai Xu
https://minkaixu.com/…
Forwarded from 🇻 🇱 🇦 🇩
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
(Сделайте потише динамики)
Google выкатил MagentaRT модельку для генерации музыки в реальном времени – я поигрался и прям залип; запускается она сейчас не очень удобно, но будет очень классно когда кто-то обернет это в простой интерфейс
Как в видео, модель может играть бесконечно, сама меняя рисунок композиции – ждем новый уровень музыки для лифтов / магазинов / кафе
Модель | Google Colab для запуска | Анонс
Google выкатил MagentaRT модельку для генерации музыки в реальном времени – я поигрался и прям залип; запускается она сейчас не очень удобно, но будет очень классно когда кто-то обернет это в простой интерфейс
Как в видео, модель может играть бесконечно, сама меняя рисунок композиции – ждем новый уровень музыки для лифтов / магазинов / кафе
Модель | Google Colab для запуска | Анонс
Forwarded from Daniilak — Канал
6 инструментов для преобразования кода в диаграммы
• Diagrams — универсальный инструмент для создания различных диаграмм с использованием текстового кода, поддерживающий Python и JavaScript
• Mermaid — использует синтаксис, похожий на Markdown, для генерации блок-схем, последовательностных диаграмм и диаграмм Ганта
• Markmap — использует Markdown-синтаксис для визуализации структуры и связей идей или кода
• ASCIIFlow — инструменты для создания диаграмм в формате ASCII-арта с использованием обычного текста, такие как asciiflow и Monodraw
• PlantUML — популярный инструмент с открытым исходным кодом для создания диаграмм классов, активности и развертывания, поддерживающий множество языков программирования
• GoDiagram — аналог Diagrams, но на языке Go
#сервисы@daniilak
• Diagrams — универсальный инструмент для создания различных диаграмм с использованием текстового кода, поддерживающий Python и JavaScript
• Mermaid — использует синтаксис, похожий на Markdown, для генерации блок-схем, последовательностных диаграмм и диаграмм Ганта
• Markmap — использует Markdown-синтаксис для визуализации структуры и связей идей или кода
• ASCIIFlow — инструменты для создания диаграмм в формате ASCII-арта с использованием обычного текста, такие как asciiflow и Monodraw
• PlantUML — популярный инструмент с открытым исходным кодом для создания диаграмм классов, активности и развертывания, поддерживающий множество языков программирования
• GoDiagram — аналог Diagrams, но на языке Go
#сервисы@daniilak
Forwarded from Korenev AI - GPT в тапочках🩴
Ловите запись суперстрима в Акулах по ИИ кодингу и вайб кодингу
Лично я многое для себя почерпнул. Рекомендую как новичкам, так уже и опытным разрабам.
Новичкам может показаться местами сложно, т.к. сильно погружаемся в технические детали. Но не спешите отключаться,иногда часто периодически материал лайтовый, в нем можно прям находить жемчужины! Час просмотра и у вас жемчуга на колье подруге наберется🥺 ! Инфа 100%
Смотреть на ютубе
Нетехнарям открывать видео на свой свой страх и риск😄
Лично я многое для себя почерпнул. Рекомендую как новичкам, так уже и опытным разрабам.
Новичкам может показаться местами сложно, т.к. сильно погружаемся в технические детали. Но не спешите отключаться,
Смотреть на ютубе
Нетехнарям открывать видео на свой свой страх и риск
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Помогает ли ИИ кодить? Проблемы и их решения, стрим
Впервые формат записи стрима. Местами скомкано, местами отходили от темы, но много хороших глубоких штук обсудили. Почти без монтажа.
На видео замечены:
https://t.iss.one/korenev_ai - Саша Коренев
https://t.iss.one/maxzarev - Макс Зарев
https://t.iss.one/elkornacio - ваш…
На видео замечены:
https://t.iss.one/korenev_ai - Саша Коренев
https://t.iss.one/maxzarev - Макс Зарев
https://t.iss.one/elkornacio - ваш…
Forwarded from AB тесты и все вот про это вот все
Хабр
Офлайн А/Б тесты в ресторанах фастфуда. Часть 1: Планирование и верификация офлайн A/B-тестов
" Основа надёжного A/B — не магия формул, а понимание, с чего вы стартуете и с чем работаете. " Привет! Меня зовут Елена Малая, я занимаюсь офлайн A/B-тестами в Бургер Кинг Россия. В последнее время...
Forwarded from Geodatamess
Материалы курса "Пространственный анализ урбанизированных территорий"
В течение семестра получилось наконец-то сделать наиболее полную версию своего курса с презентациями лекций на двух языках: английском и русском, и практической частью на базе QGIS и GeoDa.
Несмотря на фигурирующее в названии словосочетание "урбанизированные территории" курс скорее общий о пространственном анализе с захватом пары смежных тем.
Все материалы по ссылке https://baltti.github.io/spatial-analysis/
В течение семестра получилось наконец-то сделать наиболее полную версию своего курса с презентациями лекций на двух языках: английском и русском, и практической частью на базе QGIS и GeoDa.
Несмотря на фигурирующее в названии словосочетание "урбанизированные территории" курс скорее общий о пространственном анализе с захватом пары смежных тем.
Все материалы по ссылке https://baltti.github.io/spatial-analysis/