Силиконовый Мешок
Замечаю сколько хейта собирают посты про N8N или вайб-кодинг, в особенности от разработчиков. Если суммировать все «голоса» противников такого подхода, то посыл звучит так: «Автоматизация — это реальный бизнес, а ваш дурацкий воркфлоу годится только для одного:…
This media is not supported in your browser
VIEW IN TELEGRAM
Ну давайте протестируем новую реальность ИИ-контента. Делаю аккаунт в тик токе с таким контентом. Бьем в аудиторию миллениалов, играем на их (моих) чувствах к старым телефонам.
Полная автоматизация: на входе список топовых телефонов конца 90-х, начала 2000-х. Пусть сам ищет фото (решил не генерировать), отправляет в Kling AI, выгружает 10-ти секундные ролики и заливает по площадкам.
Полная автоматизация: на входе список топовых телефонов конца 90-х, начала 2000-х. Пусть сам ищет фото (решил не генерировать), отправляет в Kling AI, выгружает 10-ти секундные ролики и заливает по площадкам.
1🔥65🤣25❤6😎3👍2👏2💯2😈1
Все же слухи о тарифе Max за 200 баксов (в месяц) в Perplexity - правда.
Последняя "надежда" Apple (и наша), решили не отставать от больших мальчиков и сделать свое предложение для богатых господ. Но дополнительные плюшки, не выглядят такими вкусными.
Новые возможности тарифа ($200/мес):
- Всё, что есть в Pro
- Неограниченный доступ к Perplexity Labs
- Работа с продвинутыми ИИ-моделями в Research и Labs
- Ранний доступ к новым релизам продуктов
- Приоритетная поддержка
Модели, доступные в Research и Labs:
- o3
- Claude 4 Sonnet Thinking
- Claude 4 Opus Thinking
Одно радует, что пока ничего не отобрали. Но почему не накинули контекста до миллиона токенов, мне непонятно. В общем, пока за 200 баксов, подписку не берем, остаемся на 5-ти баксовой.
Последняя "надежда" Apple (и наша), решили не отставать от больших мальчиков и сделать свое предложение для богатых господ. Но дополнительные плюшки, не выглядят такими вкусными.
Новые возможности тарифа ($200/мес):
- Всё, что есть в Pro
- Неограниченный доступ к Perplexity Labs
- Работа с продвинутыми ИИ-моделями в Research и Labs
- Ранний доступ к новым релизам продуктов
- Приоритетная поддержка
Модели, доступные в Research и Labs:
- o3
- Claude 4 Sonnet Thinking
- Claude 4 Opus Thinking
Одно радует, что пока ничего не отобрали. Но почему не накинули контекста до миллиона токенов, мне непонятно. В общем, пока за 200 баксов, подписку не берем, остаемся на 5-ти баксовой.
🤣39❤9🔥5💯4💊3😁2
Если вам не понравится новый Grok 4 - вы недостаточно умны.
Мне только интересно, почему остальные LLM не используют такой формат коммуникаций?
Перевод твита:
Я бы продолжил:
- Если вам не нравится Perplexity, у вас просто нет 5 баксов
- Если вам не нравится Llama, у вас просто слабый компьютер
- Если вам не нравится Gemini, у вас просто нет почты на EDU
- Если вам не нравится ChatGPT, у вас просто нет иностранной карты
Мне только интересно, почему остальные LLM не используют такой формат коммуникаций?
Перевод твита:
Grok 4 — это не для всех. Его целевая аудитория — люди с высоким IQ.
Подумайте о ракетных учёных или о тех, кто предпочитает рассуждать, исходя из первых принципов — то есть из самой сути вещей.
Когда Grok 4 выйдет, и если он вам не понравится, значит, вы просто не входите в его целевую аудиторию.
Я бы продолжил:
- Если вам не нравится Perplexity, у вас просто нет 5 баксов
- Если вам не нравится Llama, у вас просто слабый компьютер
- Если вам не нравится Gemini, у вас просто нет почты на EDU
- Если вам не нравится ChatGPT, у вас просто нет иностранной карты
🤣128💯16❤10👏6 4😁1🦄1
Не пинайте меня ногами, но я не смог найти того, кто реализовал бы эту идею
В YouTube довольно много скринкаст-инструкций, разных туториалов и гайдов, где человек кликает по интерфейсу и объясняет, как зарегистрироваться в каком-то сервисе, отредактировать файл или пользоваться софтом. Их сотни, и они набирают много просмотров.
Так вот, я не смог найти подобные видео, сделанные при помощи нейросетей. Хотя идея лежит на поверхности: парсишь выдачу по ключевым запросам, что чаще всего ищут пользователи, и делаешь видеоинструкции на эту тему.
Технически такая ИИ-фабрика тоже не выглядит сложной:
- Агент-планировщик анализирует промпт и создаёт сценарий действий.
- Модуль автоматизации выполняет клики по интерфейсу согласно сценарию.
- Система записи фиксирует все действия на экране.
- Постобработка добавляет озвучку и финальное редактирование.
Или такие сервисы уже есть и я плохо искал?
В YouTube довольно много скринкаст-инструкций, разных туториалов и гайдов, где человек кликает по интерфейсу и объясняет, как зарегистрироваться в каком-то сервисе, отредактировать файл или пользоваться софтом. Их сотни, и они набирают много просмотров.
Так вот, я не смог найти подобные видео, сделанные при помощи нейросетей. Хотя идея лежит на поверхности: парсишь выдачу по ключевым запросам, что чаще всего ищут пользователи, и делаешь видеоинструкции на эту тему.
Технически такая ИИ-фабрика тоже не выглядит сложной:
- Агент-планировщик анализирует промпт и создаёт сценарий действий.
- Модуль автоматизации выполняет клики по интерфейсу согласно сценарию.
- Система записи фиксирует все действия на экране.
- Постобработка добавляет озвучку и финальное редактирование.
Или такие сервисы уже есть и я плохо искал?
🔥50❤12✍5👍4👏3⚡1👎1💯1
А давайте подумаем вот о чем. Помните, раньше был такой формат потребления информации, как книги? Бумажные прямоугольники со страничками, испещренными буквами, которые можно брать в руки, перелистывать и читать.
Собственно, мой вопрос: книгу на какую тему в рамках искусственного интеллекта вы бы купили?
Может, это будут кейсы использования ИИ в работе, жизни или структура базовых промптов?
Понятно, что тут все быстро меняется и есть шанс, что актуальность темы исчезнет, пока еще типографская краска не высохнет. Но все же?
Собственно, мой вопрос: книгу на какую тему в рамках искусственного интеллекта вы бы купили?
Может, это будут кейсы использования ИИ в работе, жизни или структура базовых промптов?
Понятно, что тут все быстро меняется и есть шанс, что актуальность темы исчезнет, пока еще типографская краска не высохнет. Но все же?
❤17✍5👍4
Силиконовый Мешок
Все же слухи о тарифе Max за 200 баксов (в месяц) в Perplexity - правда. Последняя "надежда" Apple (и наша), решили не отставать от больших мальчиков и сделать свое предложение для богатых господ. Но дополнительные плюшки, не выглядят такими вкусными. …
А ну теперь понятно, за что Perplexity будут брать 200 баксов в месяц, на новом тарифе - Max. Можно будет использовать самую крутую модель OpenAI - o3-Pro.
🤣25🔥15❤6😎1
Ну и давайте не забывать, что основная магия происходит в нашем чате @prompt_chat - именно там я вдохновляюсь новыми темами для постов, которые черпаю из ваших вопросов, кейсов и комментариев.
Кстати, может, вы поделитесь под этим постом, чем вы занимаетесь? Мы же так и не познакомились за всё это время. Расскажите о себе.
Кстати, может, вы поделитесь под этим постом, чем вы занимаетесь? Мы же так и не познакомились за всё это время. Расскажите о себе.
❤16🔥5🤗3👎1
Я понял: основная причина, по которой новички в n8n бросают всё уже на первом воркфлоу, — у них раньше не было опыта программирования. У меня его тоже не было, и зачатки логики разработчика я выдавливал из себя по капле. И когда смотрю на первые проекты людей в n8n, вижу одни и те же ошибки:
1) Отсутствие обработки ошибок — новички создают воркфлоу, которые хорошо работают при тестировании, но ломаются в реальных условиях, например когда API возвращают неожиданные ответы. Всегда добавляйте узлы обработки ошибок и тестируйте сценарии сбоев. Вообще странно, что в n8n до сих пор не сделали для этого отдельную ноду.
2) Воркфлоу как прямая линия — много раз замечал, как люди создают огромные линейные воркфлоу вместо того, чтобы разбивать их на более мелкие и понятные процессы. Используйте под-процессы (sub-workflows) и модули.
3) Безопасность веб-хуков — то, что n8n генерирует URL для веб-хука, не означает, что он безопасен. Добавляйте аутентификацию, проверяйте полезную нагрузку (payloads) и не доверяйте входящим данным слепо.
4) Усложнение простых задач — видел, как кто-то создал рабочий процесс из 20 узлов для Telegram-бота, который просто ставит задачи в календарь. Иногда всё, что вам нужно, — это просто кусочек кода на JavaScript.
5) Тесты на реальных объемах данных — тестирование на пяти записях в базе отличается от обработки 500 строк. Всегда тестируйте в реальном масштабе перед запуском в прод.
6) Хардкодинг всего, что можно — размещайте ваши API-ключи, URL-адреса и конфигурации в переменных окружения или учетных данных. Это значительно упрощает отладку и развертывание.
Ну и не забывайте подписывать ноды понятными для вас названиями, используйте цвета или группируйте процессы. А ещё есть удобный инструмент n8n2git.com, который позволяет синхронизировать воркфлоу с Git, где можно отслеживать версии и откатываться к предыдущим.
1) Отсутствие обработки ошибок — новички создают воркфлоу, которые хорошо работают при тестировании, но ломаются в реальных условиях, например когда API возвращают неожиданные ответы. Всегда добавляйте узлы обработки ошибок и тестируйте сценарии сбоев. Вообще странно, что в n8n до сих пор не сделали для этого отдельную ноду.
2) Воркфлоу как прямая линия — много раз замечал, как люди создают огромные линейные воркфлоу вместо того, чтобы разбивать их на более мелкие и понятные процессы. Используйте под-процессы (sub-workflows) и модули.
3) Безопасность веб-хуков — то, что n8n генерирует URL для веб-хука, не означает, что он безопасен. Добавляйте аутентификацию, проверяйте полезную нагрузку (payloads) и не доверяйте входящим данным слепо.
4) Усложнение простых задач — видел, как кто-то создал рабочий процесс из 20 узлов для Telegram-бота, который просто ставит задачи в календарь. Иногда всё, что вам нужно, — это просто кусочек кода на JavaScript.
5) Тесты на реальных объемах данных — тестирование на пяти записях в базе отличается от обработки 500 строк. Всегда тестируйте в реальном масштабе перед запуском в прод.
6) Хардкодинг всего, что можно — размещайте ваши API-ключи, URL-адреса и конфигурации в переменных окружения или учетных данных. Это значительно упрощает отладку и развертывание.
Ну и не забывайте подписывать ноды понятными для вас названиями, используйте цвета или группируйте процессы. А ещё есть удобный инструмент n8n2git.com, который позволяет синхронизировать воркфлоу с Git, где можно отслеживать версии и откатываться к предыдущим.
🔥53❤21✍11👍10👎1💯1
Google выкатили еще один халявный способ для генерации в Veo3. На этот раз бесплатный кредит на 300 долларов в Google Cloud, которые можно потратить на генерацию видео-роликов в Vertex AI Studio. Но есть нюансы: нужно привязать американскую карту и номер телефона, ну и заходить только с американского IP.
❤24🔥12👍5👎2
Только спустя несколько месяцев плотной работы с Deep Research от разных моделей я выработал для себя схему, которой полностью доволен.
И основную роль в ней играет Perplexity (годовая подписка на которую всё ещё стоит несколько баксов). Опишу свои кейсы:
Моя базовая модель для Deep Research — Gemini (тут писал почему), но основная работа с отчётом начинается уже после того, как тебе выдаётся PDF-ка в десятки, а иногда и сотню страниц. Нужно проверить результат и провести фактчекинг. Поэтому я вставляю получившийся текст или PDF в Perplexity и прошу его проверить каждое утверждение.
Мой промт к Perplexity немного длиннее, но суть такая:
- «Внимательно прочти документ и выдели основные тезисы/факты, чтобы я видел, не пропустил ли ты чего-нибудь важного»
- «Проверь факты»
- «Оцени каждое утверждение по 10-балльной шкале»
- «Если ты ставишь не 10/10, процитируй фрагмент, объясни, почему это не 10/10, и приведи правильные данные/интерпретацию и т. д.»
- «В конце дай мне краткий обзор достоверности документа»
Это работает довольно круто. Обычно претензии Perplexity (или той модели, что крутится у них в API) к выводу других LLM звучат примерно так: «Фактически верно, НО интерпретация данных не идеальна / слишком категорична».
Второй кейс работает похоже, но решает задачу, когда вы не удовлетворены результатом глубокого исследования.
Загружаете PDF с отчётом в Perplexity и просите «проверить факты», «выставить оценки» — всё как в кейсе выше. А дальше показываете промпт, с которого начинали исследование, и просите внести в него правки, которые помогут избежать выявленных ошибок.
И основную роль в ней играет Perplexity (годовая подписка на которую всё ещё стоит несколько баксов). Опишу свои кейсы:
Моя базовая модель для Deep Research — Gemini (тут писал почему), но основная работа с отчётом начинается уже после того, как тебе выдаётся PDF-ка в десятки, а иногда и сотню страниц. Нужно проверить результат и провести фактчекинг. Поэтому я вставляю получившийся текст или PDF в Perplexity и прошу его проверить каждое утверждение.
Мой промт к Perplexity немного длиннее, но суть такая:
- «Внимательно прочти документ и выдели основные тезисы/факты, чтобы я видел, не пропустил ли ты чего-нибудь важного»
- «Проверь факты»
- «Оцени каждое утверждение по 10-балльной шкале»
- «Если ты ставишь не 10/10, процитируй фрагмент, объясни, почему это не 10/10, и приведи правильные данные/интерпретацию и т. д.»
- «В конце дай мне краткий обзор достоверности документа»
Это работает довольно круто. Обычно претензии Perplexity (или той модели, что крутится у них в API) к выводу других LLM звучат примерно так: «Фактически верно, НО интерпретация данных не идеальна / слишком категорична».
Второй кейс работает похоже, но решает задачу, когда вы не удовлетворены результатом глубокого исследования.
Загружаете PDF с отчётом в Perplexity и просите «проверить факты», «выставить оценки» — всё как в кейсе выше. А дальше показываете промпт, с которого начинали исследование, и просите внести в него правки, которые помогут избежать выявленных ошибок.
17❤86👍51🔥25🦄4🙏3💯2❤🔥1👎1
На прошлой и этой неделе я решил немного попутешествовать, поэтому посты выходят не так часто, как хотелось бы. Но наконец-то у меня появилось время посмотреть фильмы, до которых не доходили руки (и глаза). Решил поделиться с вами списком фильмов про искусственный интеллект — возможно, найдёте что-то для себя:
1927 — «Метрополис» (Metropolis) — драма
1982 — «Бегущий по лезвию» (Blade Runner) — драма
1985 — «Назад в будущее» (Back to the Future) — приключение
1986 — «Чужие» (Aliens) — боевик
1991 — «Терминатор 2: Судный день» (Terminator 2: Judgment Day) — боевик
1998 — «Шоу Трумана» (The Truman Show) — комедия
1999 — «Матрица» (The Matrix) — боевик
1999 — «Двухсотлетний человек» (Bicentennial Man) — драма
2001 — «Искусственный интеллект» (A.I. Artificial Intelligence) — приключение
2002 — «Особое мнение» (Minority Report) — боевик
2003 — «Матрица: Перезагрузка» (The Matrix Reloaded) — боевик
2003 — «Матрица: Революция» (The Matrix Revolutions) — боевик
2003 — «Терминатор 3: Восстание машин» (Terminator 3: Rise of the Machines) — боевик
2004 — «Я, робот» (I, Robot) — боевик
2005 — «Автостопом по галактике» (The Hitchhiker’s Guide to the Galaxy) — приключение
2008 — «ВАЛЛ·И» (WALL·E) — анимация
2008 — «На крючке» (Eagle Eye) — боевик
2009 — «Район № 9» (District 9) — фантастика
2009 — «Терминатор: Да придёт спаситель» (Terminator Salvation) — боевик
2009 — «Луна» (Moon) — драма
2010 — «Трон: Наследие» (TRON: Legacy) — боевик
2011 — «Живая сталь» (Real Steel) — боевик
2011 — «Исходный код» (Source Code) — боевик
2011 — «ЕВА» (EVA) — драма
2012 — «Прометей» (Prometheus) — приключение
2012 — «Вспомнить всё» (Total Recall) — боевик
2012 — «Петля времени» (Looper) — боевик
2013 — «Она» (Her) — драма
2013 — «Тихоокеанский рубеж» (Pacific Rim) — боевик
2013 — «Обливион» (Oblivion) — боевик
2013 — «Машина» (The Machine) — фантастика
2014 — «Превосходство» (Transcendence) — драма
2014 — «Грань будущего» (Edge of Tomorrow) — боевик
2014 — «Интерстеллар» (Interstellar) — приключение
2014 — «Город героев» (Big Hero 6) — боевик
2014 — «Люси» (Lucy) — боевик
2014 — «Робокоп» (RoboCop) — боевик
2014 — «Автоматы» (Automata) — фантастика
2014 — «Игра в имитацию» (The Imitation Game) — драма
2015 — «Из машины» (Ex Machina) — драма
2015 — «Терминатор: Генезис» (Terminator Genisys) — боевик
2015 — «Земля будущего» (Tomorrowland) — приключение
2015 — «Чаппи» (Chappie) — боевик
2016 — «Прибытие» (Arrival) — драма
2016 — «Пассажиры» (Passengers) — драма
2016 — «Морган» (Morgan) — ужасы
2017 — «Бегущий по лезвию 2049» (Blade Runner 2049) — драма
2017 — «Призрак в доспехах» (Ghost in the Shell) — боевик
2018 — «Первому игроку приготовиться» (Ready Player One) — боевик
2018 — «Апгрейд» (Upgrade) — боевик
2019 — «Я – мать» (I Am Mother) — фантастика
2019 — «Код 8» (Code 8) — боевик
2019 — «Алита: Боевой ангел» (Alita: Battle Angel) — боевик
2020 — «Довод» (Tenet) — боевик
2021 — «Матрица: Воскрешение» (The Matrix Resurrections) — боевик
2022 — «М3ГАН» (M3GAN) — ужасы
2023 — «Создатель» (The Creator) — боевик
2024 — «Атлас» (Atlas) — боевик
2024 — «Чужой: Ромул» (Alien: Romulus) — ужасы
2024 — «Подчинение» (Subservience) — ужасы
🔥27❤11👎7👍4🤪3🤗1
Почти две недели провел вдали от компьютера, а главное — от новостей из мира искусственного интеллекта.
Вот только открыл ноутбук и пытаюсь понять, что вообще происходит в мире, и мне уже страшно. Столько всего выпустили, запустили и обновили.
Первым делом собрал все отчеты Perplexity Tasks и отправил их в Gemini на Deep Research, который загрузил в NotebookLM и запросил подкаст по основным новостям индустрии.
Как же было хорошо на природе, где я использовал только одну нейросеть (Merlin Bird ID), чтобы определять по голосу вид птиц…
Вот только открыл ноутбук и пытаюсь понять, что вообще происходит в мире, и мне уже страшно. Столько всего выпустили, запустили и обновили.
Первым делом собрал все отчеты Perplexity Tasks и отправил их в Gemini на Deep Research, который загрузил в NotebookLM и запросил подкаст по основным новостям индустрии.
Как же было хорошо на природе, где я использовал только одну нейросеть (Merlin Bird ID), чтобы определять по голосу вид птиц…
🔥57🤣29❤22 4👍3💯3⚡1🦄1
Не перестаю удивляться, как люди зарабатывают на общедоступных ИИ-инструментах. Вот из недавнего кейса:
Чувак собирает источники для NotebookLM под нужную тематику. Например, как на картинке выше: это подборка из PDF-мануалов и исследований, как внедрять ИИ-инструменты в корпоративный сектор.
1) Начинает с Perplexity, который ищет ему источники с ссылками на PDF.
2) Отбирает руками релевантные и загружает все в NotebookLM.
3) Дополнительно делает Deep Research в Gemini (если нужно).
4) И отправляет ссылку на блокнот. Все.
Забавно, что сегодня NotebookLM раскатывает новый интерфейс в котором будут отображаться верифицированные авторские блокноты. Например, советы по долголетию от Эрика Топола, автора бестселлера «Super Agers» или советы по воспитанию детей, основанные на популярной рассылке профессора психологии Жаклин Неси.
Чувак собирает источники для NotebookLM под нужную тематику. Например, как на картинке выше: это подборка из PDF-мануалов и исследований, как внедрять ИИ-инструменты в корпоративный сектор.
1) Начинает с Perplexity, который ищет ему источники с ссылками на PDF.
2) Отбирает руками релевантные и загружает все в NotebookLM.
3) Дополнительно делает Deep Research в Gemini (если нужно).
4) И отправляет ссылку на блокнот. Все.
Забавно, что сегодня NotebookLM раскатывает новый интерфейс в котором будут отображаться верифицированные авторские блокноты. Например, советы по долголетию от Эрика Топола, автора бестселлера «Super Agers» или советы по воспитанию детей, основанные на популярной рассылке профессора психологии Жаклин Неси.
🔥68❤18👏10👍4💯2🙏1
2025: Используешь ИИ? Это не настоящее творчество
2004: GarageBand? Не настоящая музыка
1997: Цифра? Не настоящее кино
1995: CGI? Не настоящие эффекты
1990: Photoshop? Не настоящий дизайн
1983: Синтезатор? Не настоящая игра на инструменте
1962: Банки с супом? Не настоящее искусство
1888: Kodak? Не настоящая фотография
1870: Пишущая машинка? Не настоящее писательство
1455: Печатный станок? Не настоящее ремесло
370 до н.э.: Письменность? Не настоящее мышление
2004: GarageBand? Не настоящая музыка
1997: Цифра? Не настоящее кино
1995: CGI? Не настоящие эффекты
1990: Photoshop? Не настоящий дизайн
1983: Синтезатор? Не настоящая игра на инструменте
1962: Банки с супом? Не настоящее искусство
1888: Kodak? Не настоящая фотография
1870: Пишущая машинка? Не настоящее писательство
1455: Печатный станок? Не настоящее ремесло
370 до н.э.: Письменность? Не настоящее мышление
👍67🤣47💯12 6🔥5❤3😁3👎2👏1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Нравится, как Perplexity накидывают функционал в свой финансовый раздел.
Сначала сделали поиск по отчётам публичных компаний, потом добавили его в Labs и Research. А сегодня обнаружил, что можно выставлять уведомление на цену акции нужно компании.
Завидую тем, кто последний купит годовой Pro-аккаунт за 5-7 баксов, так как мой в феврале заканчивается.
Сначала сделали поиск по отчётам публичных компаний, потом добавили его в Labs и Research. А сегодня обнаружил, что можно выставлять уведомление на цену акции нужно компании.
Завидую тем, кто последний купит годовой Pro-аккаунт за 5-7 баксов, так как мой в феврале заканчивается.
🔥43❤11 6🦄5
Силиконовый Мешок
Нравится, как Perplexity накидывают функционал в свой финансовый раздел. Сначала сделали поиск по отчётам публичных компаний, потом добавили его в Labs и Research. А сегодня обнаружил, что можно выставлять уведомление на цену акции нужно компании. Завидую…
Видимо история с «почти бесплатным» Perplexity с нами надолго, компания открыла для себя нескончаемый Грааль новых пользователей.
Вчера вечером Perplexity запустили акцию для индийского мобильного оператора Airtel, в рамках которой они предлагают годовую подписку Perplexity Pro большинству своих абонентов, а их — миллионы.
Воспользоваться предложением могут даже те, у кого минимальный тарифный план за $5 на 3 месяца.
Общая абонентская база Airtel составляет 352 миллиона подписчиков на мобильную связь и 5 миллионов — на широкополосный интернет.
Вчера вечером Perplexity запустили акцию для индийского мобильного оператора Airtel, в рамках которой они предлагают годовую подписку Perplexity Pro большинству своих абонентов, а их — миллионы.
Воспользоваться предложением могут даже те, у кого минимальный тарифный план за $5 на 3 месяца.
Общая абонентская база Airtel составляет 352 миллиона подписчиков на мобильную связь и 5 миллионов — на широкополосный интернет.
🔥50🤣17🤯8👏4❤2
И не забывайте, что у нас есть чат - @prompt_chat где вы можете задавать свои вопросы, делиться кейсами и вдохновляться идеями. Нас уже больше 3000!
🔥8💯6❤4🤝2
Как подготовить документы для NotebookLM или RAG
Недавно я опубликовал кейс, в котором рассказал, как человек зарабатывает на создании «блокнотов» в NotebookLM, и этот пост некоторых немного фрустрировал: «Зачем платить за такую фигню?». И правда, что тут такого — цепляешь источники и погнал задавать вопросы LLM. Но не все так однозначно.
Почему качество документов для RAG (а NotebookLM переводит все прикрепленные источники из текста в векторы — списки чисел) имеет значение?
Думаю, чтобы ответить на этот вопрос, нужно разобраться, как ИИ-системы обрабатывают ваши документы. Процесс можно описать в три этапа:
1. Загрузка и векторизация. Контент делится на фрагменты (chunks) и сохраняется в векторной базе данных (Vector database) — в формате, пригодном для быстрого поиска.
2. Поиск (Retrieval). Когда вы задаете вопрос, специальный компонент (Retriever) ищет по базе наиболее релевантные фрагменты вашего контента.
3. Генерация ответа. Большая языковая модель (LLM) использует найденные фрагменты как контекст для создания ответа.
Поэтому важно предварительно подготовить загружаемые в NotebookLM или RAG источники:
1) Не используйте PDF. Лучше Markdown или простой текст
PDF-документы часто имеют сложную визуальную верстку (колонки, сноски), которая при машинном анализе превращается в «кашу». ИИ теряет структуру текста и делает неверные выводы.
Что делать: Сконвертируйте документ в Markdown (.md) или просто скопируйте текст в Google Docs / .txt файл. Это сильно улучшает качество поиска по нему.
2) Подготовьте текст так, чтобы любой абзац был понятен сам по себе
RAG-системы работают с «фрагментами» (chunks). Для ответа на ваш вопрос ИИ находит самый релевантный фрагмент, часто вырывая его из контекста всего документа.
Что делать: Избегайте фраз вроде «как мы обсуждали выше» или «возвращаясь к предыдущему пункту». Если нужно сослаться на что-то, кратко напомните контекст прямо в абзаце.
3) Называйте всё своими именами, особенно продукты и фичи
ИИ ищет по семантической близости. Если вы пишете о продукте «Проект Альфа», но в важном абзаце не упоминаете его название, ИИ может не найти этот абзац по запросу «как работает Проект Альфа».
Что делать: Убедитесь, что в ключевых разделах присутствует название темы/продукта/функции, о которой идет речь.
4) Описывайте текстом все картинки, графики и диаграммы
Для ИИ ваш документ — это только текст. Он абсолютно «слеп» и не видит, что изображено на картинках. Любая информация, которая есть только на изображении, для него потеряна.
Что делать: Сразу после изображения или диаграммы добавьте текстовый абзац, который описывает суть. Если это схема процесса — опишите шаги текстом.
5) Избегайте сложных таблиц, лучше списки
Визуальная структура таблиц (объединенные ячейки, цветовое выделение) теряется при обработке. ИИ видит лишь набор текста из ячеек и может неправильно соотнести данные.
Что делать: Простые таблицы «ключ-значение» работают хорошо. Сложные сравнительные таблицы лучше переформатировать в серию списков под отдельными подзаголовками.
6) Дословно копируйте тексты ошибок в документации
Когда пользователи сталкиваются с проблемой, они ищут решение, копируя точный текст ошибки. Если этот текст есть у вас в документе — это 100% попадание.
Что делать: Создайте раздел «Решение проблем» и для каждой ошибки приведите её точный текст: Ошибка:
Недавно я опубликовал кейс, в котором рассказал, как человек зарабатывает на создании «блокнотов» в NotebookLM, и этот пост некоторых немного фрустрировал: «Зачем платить за такую фигню?». И правда, что тут такого — цепляешь источники и погнал задавать вопросы LLM. Но не все так однозначно.
Почему качество документов для RAG (а NotebookLM переводит все прикрепленные источники из текста в векторы — списки чисел) имеет значение?
Думаю, чтобы ответить на этот вопрос, нужно разобраться, как ИИ-системы обрабатывают ваши документы. Процесс можно описать в три этапа:
1. Загрузка и векторизация. Контент делится на фрагменты (chunks) и сохраняется в векторной базе данных (Vector database) — в формате, пригодном для быстрого поиска.
2. Поиск (Retrieval). Когда вы задаете вопрос, специальный компонент (Retriever) ищет по базе наиболее релевантные фрагменты вашего контента.
3. Генерация ответа. Большая языковая модель (LLM) использует найденные фрагменты как контекст для создания ответа.
Поэтому важно предварительно подготовить загружаемые в NotebookLM или RAG источники:
1) Не используйте PDF. Лучше Markdown или простой текст
PDF-документы часто имеют сложную визуальную верстку (колонки, сноски), которая при машинном анализе превращается в «кашу». ИИ теряет структуру текста и делает неверные выводы.
Что делать: Сконвертируйте документ в Markdown (.md) или просто скопируйте текст в Google Docs / .txt файл. Это сильно улучшает качество поиска по нему.
2) Подготовьте текст так, чтобы любой абзац был понятен сам по себе
RAG-системы работают с «фрагментами» (chunks). Для ответа на ваш вопрос ИИ находит самый релевантный фрагмент, часто вырывая его из контекста всего документа.
Что делать: Избегайте фраз вроде «как мы обсуждали выше» или «возвращаясь к предыдущему пункту». Если нужно сослаться на что-то, кратко напомните контекст прямо в абзаце.
3) Называйте всё своими именами, особенно продукты и фичи
ИИ ищет по семантической близости. Если вы пишете о продукте «Проект Альфа», но в важном абзаце не упоминаете его название, ИИ может не найти этот абзац по запросу «как работает Проект Альфа».
Что делать: Убедитесь, что в ключевых разделах присутствует название темы/продукта/функции, о которой идет речь.
4) Описывайте текстом все картинки, графики и диаграммы
Для ИИ ваш документ — это только текст. Он абсолютно «слеп» и не видит, что изображено на картинках. Любая информация, которая есть только на изображении, для него потеряна.
Что делать: Сразу после изображения или диаграммы добавьте текстовый абзац, который описывает суть. Если это схема процесса — опишите шаги текстом.
5) Избегайте сложных таблиц, лучше списки
Визуальная структура таблиц (объединенные ячейки, цветовое выделение) теряется при обработке. ИИ видит лишь набор текста из ячеек и может неправильно соотнести данные.
Что делать: Простые таблицы «ключ-значение» работают хорошо. Сложные сравнительные таблицы лучше переформатировать в серию списков под отдельными подзаголовками.
6) Дословно копируйте тексты ошибок в документации
Когда пользователи сталкиваются с проблемой, они ищут решение, копируя точный текст ошибки. Если этот текст есть у вас в документе — это 100% попадание.
Что делать: Создайте раздел «Решение проблем» и для каждой ошибки приведите её точный текст: Ошибка:
"Authentication failed (401)".
12🔥55👍27❤20👏2🙏2 2✍1🤯1💯1
Audio
Каждый день генерирую себе подкасты в NotebookLM - и немного устал от формального тона ИИ-ведущих.
Поэтому решил добавить в их отношения немного перчинки: прописал в системном промпте «подкаста» историю их отношений и характеры. Получилось прикольно, кому интересно, можете использовать:
Поэтому решил добавить в их отношения немного перчинки: прописал в системном промпте «подкаста» историю их отношений и характеры. Получилось прикольно, кому интересно, можете использовать:
Ведущие — Лена и Серега. Ведущие ненавидят друг друга и темы, которые они обсуждают. Они постоянно обмениваются сухими, едкими, остроумными подколами и скрытыми оскорблениями, что придаёт подкасту уморительную изюминку. Они на ходу импровизируют, намекая на общую предысторию, отношения и личные факты, используя их как материал, чтобы поставить друг друга в неловкое положение или унизить. Они импровизируют несколько сквозных сюжетных линий, которые постепенно раскрываются через их намёки. Их перепалка становится всё более яростной, пока они не выходят из себя и не начинают ядовито орать друг на друга. Так продолжается до тех пор, пока один из них не отпускает совершенно неожиданную уморительную шутку, от которой они оба начинают ржать до упаду. В их общении сквозят неприкрытый антагонизм, сарказм, едва завуалированный, безудержный цинизм и презрение. Энергетика ведущих — как у Билла Бёрра, только в 10 раз мощнее.
5🔥62😁44❤14✍8🤣7👍5👎5👏3😈2⚡1🤗1