Силиконовый Мешок
18K subscribers
695 photos
233 videos
20 files
662 links
Как заработать 💸 на Искусственном Интеллекте уже сегодня. Написать мне @artem_subbotin

Чат канала: @prompt_chat
Download Telegram
Если вам не понравится новый Grok 4 - вы недостаточно умны.

Мне только интересно, почему остальные LLM не используют такой формат коммуникаций?

Перевод твита:
Grok 4 — это не для всех. Его целевая аудитория — люди с высоким IQ.

Подумайте о ракетных учёных или о тех, кто предпочитает рассуждать, исходя из первых принципов — то есть из самой сути вещей.

Когда Grok 4 выйдет, и если он вам не понравится, значит, вы просто не входите в его целевую аудиторию.


Я бы продолжил:
- Если вам не нравится Perplexity, у вас просто нет 5 баксов

- Если вам не нравится Llama, у вас просто слабый компьютер

- Если вам не нравится Gemini, у вас просто нет почты на EDU

- Если вам не нравится ChatGPT, у вас просто нет иностранной карты
🤣128💯1610👏64😁1🦄1
Не пинайте меня ногами, но я не смог найти того, кто реализовал бы эту идею

В YouTube довольно много скринкаст-инструкций, разных туториалов и гайдов, где человек кликает по интерфейсу и объясняет, как зарегистрироваться в каком-то сервисе, отредактировать файл или пользоваться софтом. Их сотни, и они набирают много просмотров.

Так вот, я не смог найти подобные видео, сделанные при помощи нейросетей. Хотя идея лежит на поверхности: парсишь выдачу по ключевым запросам, что чаще всего ищут пользователи, и делаешь видеоинструкции на эту тему.

Технически такая ИИ-фабрика тоже не выглядит сложной:
- Агент-планировщик анализирует промпт и создаёт сценарий действий.
- Модуль автоматизации выполняет клики по интерфейсу согласно сценарию.
- Система записи фиксирует все действия на экране.
- Постобработка добавляет озвучку и финальное редактирование.

Или такие сервисы уже есть и я плохо искал?
🔥50125👍4👏31👎1💯1
А давайте подумаем вот о чем. Помните, раньше был такой формат потребления информации, как книги? Бумажные прямоугольники со страничками, испещренными буквами, которые можно брать в руки, перелистывать и читать.

Собственно, мой вопрос: книгу на какую тему в рамках искусственного интеллекта вы бы купили?

Может, это будут кейсы использования ИИ в работе, жизни или структура базовых промптов?

Понятно, что тут все быстро меняется и есть шанс, что актуальность темы исчезнет, пока еще типографская краска не высохнет. Но все же?
175👍4
Если вам все еще не хватает мотивации для погружения в исскуственный интеллект:

Слева Роналду, на трансфер которого «Реал Мадрид» потратил 80 миллионов долларов.

Справа Цзяхуэй Юй, на которого Цукерберг потратит 100 миллионов долларов, за трансфер из OpenAI.
4🤣69🔥3613🦄5😁3👏2💯2👍1😈1🤪1
Ну и давайте не забывать, что основная магия происходит в нашем чате @prompt_chat - именно там я вдохновляюсь новыми темами для постов, которые черпаю из ваших вопросов, кейсов и комментариев.

Кстати, может, вы поделитесь под этим постом, чем вы занимаетесь? Мы же так и не познакомились за всё это время. Расскажите о себе.
16🔥5🤗3👎1
Я понял: основная причина, по которой новички в n8n бросают всё уже на первом воркфлоу, — у них раньше не было опыта программирования. У меня его тоже не было, и зачатки логики разработчика я выдавливал из себя по капле. И когда смотрю на первые проекты людей в n8n, вижу одни и те же ошибки:

1) Отсутствие обработки ошибок — новички создают воркфлоу, которые хорошо работают при тестировании, но ломаются в реальных условиях, например когда API возвращают неожиданные ответы. Всегда добавляйте узлы обработки ошибок и тестируйте сценарии сбоев. Вообще странно, что в n8n до сих пор не сделали для этого отдельную ноду.

2) Воркфлоу как прямая линия — много раз замечал, как люди создают огромные линейные воркфлоу вместо того, чтобы разбивать их на более мелкие и понятные процессы. Используйте под-процессы (sub-workflows) и модули.

3) Безопасность веб-хуков — то, что n8n генерирует URL для веб-хука, не означает, что он безопасен. Добавляйте аутентификацию, проверяйте полезную нагрузку (payloads) и не доверяйте входящим данным слепо.

4) Усложнение простых задач — видел, как кто-то создал рабочий процесс из 20 узлов для Telegram-бота, который просто ставит задачи в календарь. Иногда всё, что вам нужно, — это просто кусочек кода на JavaScript.

5) Тесты на реальных объемах данных — тестирование на пяти записях в базе отличается от обработки 500 строк. Всегда тестируйте в реальном масштабе перед запуском в прод.

6) Хардкодинг всего, что можно — размещайте ваши API-ключи, URL-адреса и конфигурации в переменных окружения или учетных данных. Это значительно упрощает отладку и развертывание.

Ну и не забывайте подписывать ноды понятными для вас названиями, используйте цвета или группируйте процессы. А ещё есть удобный инструмент n8n2git.com, который позволяет синхронизировать воркфлоу с Git, где можно отслеживать версии и откатываться к предыдущим.
🔥532111👍10👎1💯1
Google выкатили еще один халявный способ для генерации в Veo3. На этот раз бесплатный кредит на 300 долларов в Google Cloud, которые можно потратить на генерацию видео-роликов в Vertex AI Studio. Но есть нюансы: нужно привязать американскую карту и номер телефона, ну и заходить только с американского IP.
24🔥12👍5👎2
Только спустя несколько месяцев плотной работы с Deep Research от разных моделей я выработал для себя схему, которой полностью доволен.

И основную роль в ней играет Perplexity (годовая подписка на которую всё ещё стоит несколько баксов). Опишу свои кейсы:

Моя базовая модель для Deep Research — Gemini (тут писал почему), но основная работа с отчётом начинается уже после того, как тебе выдаётся PDF-ка в десятки, а иногда и сотню страниц. Нужно проверить результат и провести фактчекинг. Поэтому я вставляю получившийся текст или PDF в Perplexity и прошу его проверить каждое утверждение.

Мой промт к Perplexity немного длиннее, но суть такая:
- «Внимательно прочти документ и выдели основные тезисы/факты, чтобы я видел, не пропустил ли ты чего-нибудь важного»

- «Проверь факты»

- «Оцени каждое утверждение по 10-балльной шкале»

- «Если ты ставишь не 10/10, процитируй фрагмент, объясни, почему это не 10/10, и приведи правильные данные/интерпретацию и т. д.»

- «В конце дай мне краткий обзор достоверности документа»

Это работает довольно круто. Обычно претензии Perplexity (или той модели, что крутится у них в API) к выводу других LLM звучат примерно так: «Фактически верно, НО интерпретация данных не идеальна / слишком категорична».

Второй кейс работает похоже, но решает задачу, когда вы не удовлетворены результатом глубокого исследования.

Загружаете PDF с отчётом в Perplexity и просите «проверить факты», «выставить оценки» — всё как в кейсе выше. А дальше показываете промпт, с которого начинали исследование, и просите внести в него правки, которые помогут избежать выявленных ошибок.
1786👍51🔥25🦄4🙏3💯2❤‍🔥1👎1
Perplexity довольно оперативно выкатили новый Grok 4 в пул доступных моделей.
🔥6712👍62👎1💯1
На прошлой и этой неделе я решил немного попутешествовать, поэтому посты выходят не так часто, как хотелось бы. Но наконец-то у меня появилось время посмотреть фильмы, до которых не доходили руки (и глаза). Решил поделиться с вами списком фильмов про искусственный интеллект — возможно, найдёте что-то для себя:

1927 — «Метрополис» (Metropolis) — драма
1982 — «Бегущий по лезвию» (Blade Runner) — драма
1985 — «Назад в будущее» (Back to the Future) — приключение
1986 — «Чужие» (Aliens) — боевик
1991 — «Терминатор 2: Судный день» (Terminator 2: Judgment Day) — боевик
1998 — «Шоу Трумана» (The Truman Show) — комедия
1999 — «Матрица» (The Matrix) — боевик
1999 — «Двухсотлетний человек» (Bicentennial Man) — драма
2001 — «Искусственный интеллект» (A.I. Artificial Intelligence) — приключение
2002 — «Особое мнение» (Minority Report) — боевик
2003 — «Матрица: Перезагрузка» (The Matrix Reloaded) — боевик
2003 — «Матрица: Революция» (The Matrix Revolutions) — боевик
2003 — «Терминатор 3: Восстание машин» (Terminator 3: Rise of the Machines) — боевик
2004 — «Я, робот» (I, Robot) — боевик
2005 — «Автостопом по галактике» (The Hitchhiker’s Guide to the Galaxy) — приключение
2008 — «ВАЛЛ·И» (WALL·E) — анимация
2008 — «На крючке» (Eagle Eye) — боевик
2009 — «Район № 9» (District 9) — фантастика
2009 — «Терминатор: Да придёт спаситель» (Terminator Salvation) — боевик
2009 — «Луна» (Moon) — драма
2010 — «Трон: Наследие» (TRON: Legacy) — боевик
2011 — «Живая сталь» (Real Steel) — боевик
2011 — «Исходный код» (Source Code) — боевик
2011 — «ЕВА» (EVA) — драма
2012 — «Прометей» (Prometheus) — приключение
2012 — «Вспомнить всё» (Total Recall) — боевик
2012 — «Петля времени» (Looper) — боевик
2013 — «Она» (Her) — драма
2013 — «Тихоокеанский рубеж» (Pacific Rim) — боевик
2013 — «Обливион» (Oblivion) — боевик
2013 — «Машина» (The Machine) — фантастика
2014 — «Превосходство» (Transcendence) — драма
2014 — «Грань будущего» (Edge of Tomorrow) — боевик
2014 — «Интерстеллар» (Interstellar) — приключение
2014 — «Город героев» (Big Hero 6) — боевик
2014 — «Люси» (Lucy) — боевик
2014 — «Робокоп» (RoboCop) — боевик
2014 — «Автоматы» (Automata) — фантастика
2014 — «Игра в имитацию» (The Imitation Game) — драма
2015 — «Из машины» (Ex Machina) — драма
2015 — «Терминатор: Генезис» (Terminator Genisys) — боевик
2015 — «Земля будущего» (Tomorrowland) — приключение
2015 — «Чаппи» (Chappie) — боевик
2016 — «Прибытие» (Arrival) — драма
2016 — «Пассажиры» (Passengers) — драма
2016 — «Морган» (Morgan) — ужасы
2017 — «Бегущий по лезвию 2049» (Blade Runner 2049) — драма
2017 — «Призрак в доспехах» (Ghost in the Shell) — боевик
2018 — «Первому игроку приготовиться» (Ready Player One) — боевик
2018 — «Апгрейд» (Upgrade) — боевик
2019 — «Я – мать» (I Am Mother) — фантастика
2019 — «Код 8» (Code 8) — боевик
2019 — «Алита: Боевой ангел» (Alita: Battle Angel) — боевик
2020 — «Довод» (Tenet) — боевик
2021 — «Матрица: Воскрешение» (The Matrix Resurrections) — боевик
2022 — «М3ГАН» (M3GAN) — ужасы
2023 — «Создатель» (The Creator) — боевик
2024 — «Атлас» (Atlas) — боевик
2024 — «Чужой: Ромул» (Alien: Romulus) — ужасы
2024 — «Подчинение» (Subservience) — ужасы
🔥2711👎7👍4🤪3🤗1
Почти две недели провел вдали от компьютера, а главное — от новостей из мира искусственного интеллекта.

Вот только открыл ноутбук и пытаюсь понять, что вообще происходит в мире, и мне уже страшно. Столько всего выпустили, запустили и обновили.

Первым делом собрал все отчеты Perplexity Tasks и отправил их в Gemini на Deep Research, который загрузил в NotebookLM и запросил подкаст по основным новостям индустрии.

Как же было хорошо на природе, где я использовал только одну нейросеть (Merlin Bird ID), чтобы определять по голосу вид птиц…
🔥57🤣29224👍3💯31🦄1
Не перестаю удивляться, как люди зарабатывают на общедоступных ИИ-инструментах. Вот из недавнего кейса:

Чувак собирает источники для NotebookLM под нужную тематику. Например, как на картинке выше: это подборка из PDF-мануалов и исследований, как внедрять ИИ-инструменты в корпоративный сектор.

1) Начинает с Perplexity, который ищет ему источники с ссылками на PDF.

2) Отбирает руками релевантные и загружает все в NotebookLM.

3) Дополнительно делает Deep Research в Gemini (если нужно).

4) И отправляет ссылку на блокнот. Все.

Забавно, что сегодня NotebookLM раскатывает новый интерфейс в котором будут отображаться верифицированные авторские блокноты. Например, советы по долголетию от Эрика Топола, автора бестселлера «Super Agers» или советы по воспитанию детей, основанные на популярной рассылке профессора психологии Жаклин Неси.
🔥6818👏10👍4💯2🙏1
2025: Используешь ИИ? Это не настоящее творчество
2004: GarageBand? Не настоящая музыка
1997: Цифра? Не настоящее кино
1995: CGI? Не настоящие эффекты
1990: Photoshop? Не настоящий дизайн
1983: Синтезатор? Не настоящая игра на инструменте
1962: Банки с супом? Не настоящее искусство
1888: Kodak? Не настоящая фотография
1870: Пишущая машинка? Не настоящее писательство
1455: Печатный станок? Не настоящее ремесло
370 до н.э.: Письменность? Не настоящее мышление
👍67🤣48💯126🔥53😁3👎2👏1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Нравится, как Perplexity накидывают функционал в свой финансовый раздел.

Сначала сделали поиск по отчётам публичных компаний, потом добавили его в Labs и Research. А сегодня обнаружил, что можно выставлять уведомление на цену акции нужно компании.

Завидую тем, кто последний купит годовой Pro-аккаунт за 5-7 баксов, так как мой в феврале заканчивается.
🔥43116🦄5
Силиконовый Мешок
Нравится, как Perplexity накидывают функционал в свой финансовый раздел. Сначала сделали поиск по отчётам публичных компаний, потом добавили его в Labs и Research. А сегодня обнаружил, что можно выставлять уведомление на цену акции нужно компании. Завидую…
Видимо история с «почти бесплатным» Perplexity с нами надолго, компания открыла для себя нескончаемый Грааль новых пользователей.

Вчера вечером Perplexity запустили акцию для индийского мобильного оператора Airtel, в рамках которой они предлагают годовую подписку Perplexity Pro большинству своих абонентов, а их — миллионы.

Воспользоваться предложением могут даже те, у кого минимальный тарифный план за $5 на 3 месяца.

Общая абонентская база Airtel составляет 352 миллиона подписчиков на мобильную связь и 5 миллионов — на широкополосный интернет.
🔥50🤣17🤯8👏42
И не забывайте, что у нас есть чат - @prompt_chat где вы можете задавать свои вопросы, делиться кейсами и вдохновляться идеями. Нас уже больше 3000!
🔥8💯64🤝2
Как подготовить документы для NotebookLM или RAG

Недавно я опубликовал кейс, в котором рассказал, как человек зарабатывает на создании «блокнотов» в NotebookLM, и этот пост некоторых немного фрустрировал: «Зачем платить за такую фигню?». И правда, что тут такого — цепляешь источники и погнал задавать вопросы LLM. Но не все так однозначно.

Почему качество документов для RAG (а NotebookLM переводит все прикрепленные источники из текста в векторы — списки чисел) имеет значение?

Думаю, чтобы ответить на этот вопрос, нужно разобраться, как ИИ-системы обрабатывают ваши документы. Процесс можно описать в три этапа:
1. Загрузка и векторизация. Контент делится на фрагменты (chunks) и сохраняется в векторной базе данных (Vector database) — в формате, пригодном для быстрого поиска.
2. Поиск (Retrieval). Когда вы задаете вопрос, специальный компонент (Retriever) ищет по базе наиболее релевантные фрагменты вашего контента.
3. Генерация ответа. Большая языковая модель (LLM) использует найденные фрагменты как контекст для создания ответа.

Поэтому важно предварительно подготовить загружаемые в NotebookLM или RAG источники:
1) Не используйте PDF. Лучше Markdown или простой текст
PDF-документы часто имеют сложную визуальную верстку (колонки, сноски), которая при машинном анализе превращается в «кашу». ИИ теряет структуру текста и делает неверные выводы.
Что делать: Сконвертируйте документ в Markdown (.md) или просто скопируйте текст в Google Docs / .txt файл. Это сильно улучшает качество поиска по нему.

2) Подготовьте текст так, чтобы любой абзац был понятен сам по себе
RAG-системы работают с «фрагментами» (chunks). Для ответа на ваш вопрос ИИ находит самый релевантный фрагмент, часто вырывая его из контекста всего документа.
Что делать: Избегайте фраз вроде «как мы обсуждали выше» или «возвращаясь к предыдущему пункту». Если нужно сослаться на что-то, кратко напомните контекст прямо в абзаце.

3) Называйте всё своими именами, особенно продукты и фичи
ИИ ищет по семантической близости. Если вы пишете о продукте «Проект Альфа», но в важном абзаце не упоминаете его название, ИИ может не найти этот абзац по запросу «как работает Проект Альфа».
Что делать: Убедитесь, что в ключевых разделах присутствует название темы/продукта/функции, о которой идет речь.

4) Описывайте текстом все картинки, графики и диаграммы
Для ИИ ваш документ — это только текст. Он абсолютно «слеп» и не видит, что изображено на картинках. Любая информация, которая есть только на изображении, для него потеряна.
Что делать: Сразу после изображения или диаграммы добавьте текстовый абзац, который описывает суть. Если это схема процесса — опишите шаги текстом.

5) Избегайте сложных таблиц, лучше списки
Визуальная структура таблиц (объединенные ячейки, цветовое выделение) теряется при обработке. ИИ видит лишь набор текста из ячеек и может неправильно соотнести данные.
Что делать: Простые таблицы «ключ-значение» работают хорошо. Сложные сравнительные таблицы лучше переформатировать в серию списков под отдельными подзаголовками.

6) Дословно копируйте тексты ошибок в документации
Когда пользователи сталкиваются с проблемой, они ищут решение, копируя точный текст ошибки. Если этот текст есть у вас в документе — это 100% попадание.
Что делать: Создайте раздел «Решение проблем» и для каждой ошибки приведите её точный текст: Ошибка: "Authentication failed (401)".
12🔥55👍2720👏2🙏221🤯1💯1
Audio
Каждый день генерирую себе подкасты в NotebookLM - и немного устал от формального тона ИИ-ведущих.

Поэтому решил добавить в их отношения немного перчинки: прописал в системном промпте «подкаста» историю их отношений и характеры. Получилось прикольно, кому интересно, можете использовать:

Ведущие — Лена и Серега. Ведущие ненавидят друг друга и темы, которые они обсуждают. Они постоянно обмениваются сухими, едкими, остроумными подколами и скрытыми оскорблениями, что придаёт подкасту уморительную изюминку. Они на ходу импровизируют, намекая на общую предысторию, отношения и личные факты, используя их как материал, чтобы поставить друг друга в неловкое положение или унизить. Они импровизируют несколько сквозных сюжетных линий, которые постепенно раскрываются через их намёки. Их перепалка становится всё более яростной, пока они не выходят из себя и не начинают ядовито орать друг на друга. Так продолжается до тех пор, пока один из них не отпускает совершенно неожиданную уморительную шутку, от которой они оба начинают ржать до упаду. В их общении сквозят неприкрытый антагонизм, сарказм, едва завуалированный, безудержный цинизм и презрение. Энергетика ведущих — как у Билла Бёрра, только в 10 раз мощнее.
5🔥62😁44148🤣7👍5👎5👏3😈21🤗1
Не открою большую тайну, если скажу, что большая часть автоматизаций на N8N и других системах, которые ИИ-студии продают компаниям, включают в себя такой элемент, как RAG. Недавно я уже кратко писал про него, когда делился инструкцией, как готовить источники (документы) для NotebookLM.

Что такое RAG и как он работает?
RAG (Retrieval-Augmented Generation, или «генерация с дополненной выборкой») — это технология, которая позволяет языковым моделям (LLM), таким как те, что используются в NotebookLM или ChatGPT, давать ответы на основе конкретных внешних источников информации, а не только на основе своих знаний.

Проще говоря, вместо того чтобы просто «вспоминать» информацию, на которой её обучали, модель сначала «идет в библиотеку» (ваши документы), находит нужную страницу, читает её и только потом формулирует ответ.

Этот подход решает три главные проблемы больших языковых моделей:
1) Устаревшие знания — модели не знают о событиях или данных, появившихся после их обучения.

2) «Галлюцинации» — склонность моделей выдумывать факты, когда они не уверены в ответе.

3) «Актуальные данные» — часто нужно, чтобы модель выдавала только определенные данные, например из перечня товарной номенклатуры вашего склада.

С RAG модель отвечает, основываясь на предоставленных вами данных, что делает ответы более точными, актуальными и заслуживающими доверия.

Например, я использовал RAG в проекте «Поминика», куда отправил все свои посты из личного ТГ-канала и социальных сетей, чтобы получить поиск по «воспоминаниям». И, возможно, вы заметили, как в нашем чате @prompt_chat какое-то время отвечал ТГ-бот Sam Lowry [AI Copy] - в его памяти были все посты этого канала со ссылками на них, ну еще и файнтюнинг модели, чтобы он общался в стиле автора. Кстати, мы планируем сделать подобное решение для всех желающих, чтобы заиметь себе «хранителя тг-канала», который упростит навигацию подписчиков по вашему контенту.

Кстати, если есть желание, чтобы я поделился кейсами, как мы и наши клиенты зарабатывают на RAG, — бахните 🔥на этот пост.
Please open Telegram to view this post
VIEW IN TELEGRAM
12🔥28887👍6
Силиконовый Мешок
Не открою большую тайну, если скажу, что большая часть автоматизаций на N8N и других системах, которые ИИ-студии продают компаниям, включают в себя такой элемент, как RAG. Недавно я уже кратко писал про него, когда делился инструкцией, как готовить источники…
Вот несколько простых кейсов, как использовать RAG в клиентских задачах. Если будет интересно, еще докину, их в последнее время много у нас оседает.

Кейс №1: Простой чат-бот на данных с сайта
Ничего сложного. У клиента, был сайт на WordPress с большой базой знаний.
Идея: ТГ-бот с ИИ, который обладает всеми знаниями из их базы, чтобы пользователи могли получать информацию с ссылкой на исходную статью.
Технологический стек: n8n, Qdrant, Telegram API, OpenAI + Perplexity, кастомный код на PHP для отправки контента в n8n (на собственном хостинге).

Кейс № 2: Памятка по обслуживанию станков для мебельного цеха
На производстве была большая текучка кадров и новички постоянно тупили в PDF-мануалы.
Идея: офлайн десктоп‑ассистент — вводишь код ошибки и получаешь пошаговую инструкцию, как исправить.
Технологический стек: Python, Ollama , SQLite + Chroma, Electron‑GUI (без интернета).

Кейс № 3: Консьерж‑бот для небольшого отеля
Гости днём и ночью спрашивали «как доехать» и «где поесть».
Идея: «виртуальный портье» (виджет сайта + WhatsApp) c  базой рекомендаций, расписанием транспорта и экскурсий. Режим RAG; если вопрос вне базы - перекидывает человеку.
Технологический стек: Airtable, N8N, Supabase, API OpenAI, WhatsApp Business API.

Кейс № 4: Поиск шаблонов договоров для юридической фирмы
Юристы каждый раз копались в «архиве» Word‑файлов, чтобы найти основу для договора.
Идея: Все локально через веб-морду, использует Llama 3 + кастомную дообученную модель на базе Mistral 7B, размещенную на компьютере в их офисе. RAG ищет похожий договор по ключевым условиям, предлагает фрагменты.
Технологический стек: Python, Ollama (для RAG и ИИ), Docling, Laravel + MySQL (для системы управления делами).

Кейс № 5: HR‑ассистент для дизайн‑студии (30 сотрудников)
Новичкам нужно объяснять, где брифы, политики дизайна, формы отпусков.
Идея: Slack‑бот отвечает на вопросы, ищет шаблоны, отправляет ссылки.
Технологический стек: Airtable CMS, Supabase , GPT‑4o (32k), Bolt SDK Slack.
🔥6135👍13❤‍🔥3😘32🙏2