SimpleAGI
236 subscribers
49 photos
2 files
43 links
Здесь ты найдешь понятные лайфхаки и примеры использования LLM в повседневной жизни и бизнесе.

Подпишись, чтобы вместе шаг за шагом разбираться в технологиях, которые уже меняют наше будущее.
Download Telegram
Сегодня хотел взять подписку к очередному AI помогатору, но по итогу возобновил подписку в Coursera для учебы.
Горжусь собой)

Ну и поделюсь прошлыми успехами на площадке
🔥6
При первом же твоём сообщении к LLM ты уже используешь один из приёмов Prompt Engineering.

Скорее всего, ты даже не подозревал об этом и не задумывался — но уже в теме 😎

Давай разберёмся, что такое Prompt Engineering и какой тип промпта ты уже используешь.

1. Zero-shot (общий промпт — тот самый, который пробовали все)

Zero-shot prompt — это простейший тип запроса, где указывается только описание задачи и даётся некоторый текст для начала работы модели, без дополнительных примеров.

2. One-shot и Few-shot
Эти типы промптов предусматривают предоставление модели примеров:
One-shot — один пример.
Few-shot — несколько примеров.

Примеры помогают модели имитировать желаемую структуру или формат вывода.
Пример промпта:
Найди отели в Чудово и выведи ответ в следующем формате:
Отель: Название отеля
Рейтинг: Оценка посетителей
Стоимость: Цена за сутки
Адрес: Точный адрес отеля


Существует множество других типов промптов, но обо всём по порядку.

Рекомендую попробовать оба этих варианта и сравнить результаты. Уверен, ты приятно удивишься, открыв для себя новые способы взаимодействия с моделями!
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥2
3. Системный промпт
Устанавливает общий контекст и цель для языковой модели. Он определяет "общую картину" того, что модель должна делать. Использование системного промпта может помочь LLM не возвращать лишний текст.

Один из примеров использования системного промптинга ты часто встречал, задавая нехорошие вопросы:

не могу и не буду давать инструкции по взлому — это незаконно и противоречит этическим стандартам


Подобный функционал ты мог наблюдать в GPT в настройках.
Можешь попробовать задать системный промпт там. Ну или явно в первом сообщении диалога укажи системное сообщение и модель будет ему следовать.

4. Контекстный промпт
Предоставляет конкретные детали или фоновую информацию, относящуюся к текущей беседе или задаче. Он помогает модели понять нюансы запроса и соответствующим образом адаптировать ответ.

Может показаться, что это одно и то же, но:
- Системный промпт - это ядро, что не меняется вне зависимости от поворота диалога(Как наши рефлексы)
- Контекстный промпт - это манитя(магма) над ядром. Опирается на контекст данный в запросе (как наши привычки)

Вторая часть подошла к концу. А вы, друзья, пишите:
- Вопросы по теме.
- Что вы хотели бы узнать
- Советы\ предложения
- Передайте привет друзьям, ведь канал то скоро взлетит⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥3
Так же присоединяйтесь к каналу Валеры, Чертовки умный парень и пишет понятные посты о невероятно крутых решениях
Forwarded from Neural Kovalskii
Удивил меня Github отсутствием адекватных готовых серверов под Т5 модели с поддержкой OpenAI API
vLLM вообще решил не выпускать поддержку

Спасибо Никите подкинул пример я дописал через Cursor и упаковал в docker-compose

Запустил на своем сервере в 3 инстанса модель
Без токена можно попробовать протестировать свой RAG или один из доступных кейсов:

API: https://emb-frida.neuraldeep.tech/docs#/

curl -X 'POST' \
'https://emb-frida.neuraldeep.tech/embed_batch' \
-H 'accept: application/json' \
-H 'Content-Type: application/json' \
-d '{
"texts": [
"Кошка", "Cобака", "Птичка"
],
"prompt_name": "paraphrase"
}'


Префиксы

1. Семантический поиск - создание поисковых систем с пониманием контекста на русском и английском языках (используя префиксы search_query/search_document)

2. Определение дубликатов контента - автоматическое выявление похожих текстов с разными формулировками (paraphrase)

3.Классификация документов - автоматическое определение тематик документов или категоризация текстов (categorize_topic)

4. Анализ тональности - определение эмоциональной окраски текстов (categorize_sentiment)

5. NLI (определение логических взаимосвязей) - установление логических отношений между текстами (categorize_entailment)



API полностью совместим с OpenAI embeddings API, что позволяет легко интегрировать модель с существующими RAG-системами и LangChain/LlamaIndex фреймворками.
🔥2❤‍🔥1
Получилось сделать интересный прототип агента с возможностью получить csv таблицу из изображения по запросу пользователя в чат режиме.
"Преобразуй изображение в таблицу: ./images/cartochka.png"


1. Агент понимает потребность, использует инструмент для передачи изображения в модель распознавания текста на картинке и передает ему путь к файлу.

2. Инструмент распознавания возвращает агенту markdown текст таблицы.

3. Агент передает этот результат к следующему инструменту,
Который преобразует этот markdown текст в подходящий формат для сохранения в CSV и сохраняет в папку.

Чертовски рад)
🔥6
Сегодня у меня был первый этап собеседования в Яндекс.

Впечатления весьма размыты.
Мне очень понравился человек, с кем я общался, очень приятный и добрый парень.
Помогал наводящими вопросами, крайними случаями для алгоритмов и вообще мы в диалоге хорошо провели время решая задачу.

Это в целом необычный опыт, когда на собеседовании вообще никакого стресса.

Из смешанного:
1. Мы должны были пройти 2 задачи, а прошли только 1, но с расширенными изменениями и несколькими подходами, Но всё равно считаю, что это мой минус.

2. Я подаюсь на должность в сфере ML AI, но собес всё же был алгоритмический, видать у Яндекса этого не отнять)

В целом считаю опыт полезным и важным.
Я точно начал себя увереннее чувствовать. Последний месяц с собесами очень сильно меня аппнул в коммуникации.
🔥3
Китайская модель умеет в реальном времени по промпту генерировать изображения. За референс использовал голубя и медведя-упорыша.

Как же это быстро и классно. Даже страшно представить, что ребята будут уметь делать через год.
1😁1
Продолжаем про Промпты.

5. Chain of Thought (CoT) Промптинг

Эта техника, которая улучшает способность языковых моделей к рассуждению, генерируя промежуточные шаги. Помогает модели давать более точные ответы.
CoT можно комбинировать с few-shot промптингом для достижения лучших результатов на более сложных задачах, требующих рассуждений.

Преимущество CoT:

- Интерпретируемость: можно увидеть шаги рассуждений модели.

Недостатки CoT:

Увеличивает количество выходных токенов(текста), что может повысить стоимость и время выполнения.

Пример без CoT:

Вопрос: Когда мне было 3 года, моему партнёру было 3 раза больше моего возраста. Сейчас мне 20 лет. Сколько лет моему партнёру?
Ответ: 63 года.

Очевидно, что это неправильный ответ. LLM часто ошибаются в математических задачах.

Пример с CoT:

Вопрос: Когда мне было 3 года, моему партнёру было 3 раза больше моего возраста. Сейчас мне 20 лет. Сколько лет моему партнёру? Давайте думать по шагам.
Ответ:
Моя текущая возраст — 20 лет.
Когда мне было 3 года, моему партнёру было 3 * 3 = 9 лет.
С тех пор прошло 20 - 3 = 17 лет.
Возраст партнёра увеличился на 17 лет.
Текущий возраст партнёра: 9 + 17 = 26 лет.

Теперь ответ правильный! А надо то было всего лишь указать, как размышлять, чтоб минимизировать шанс ошибок.

Вот такую классную технику вы теперь тоже знаете🕺
И рекомендую попробовать в любой используемой тобой LLM данный подход. Всё как всегда.⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
А вот и Claude обновили пулл своих моделей и это будет огромной новостной бомбой.

Так что кратко о произошедшем:

Claude Opus 4 — лучшая в мире модель кодирования, обеспечивающая устойчивую производительность при выполнении сложных, длительных задач и рабочих процессов агентов. Claude Sonnet 4 — это значительное обновление Claude Sonnet 3.7, обеспечивающее превосходное кодирование и обоснование, а также более точную реакцию на ваши инструкции.

Сильный упор на агентские системы, выпустили инструмент в OpenSource для построения агентов самостоятельно.

Звучит круто!
3
SimpleAGI
А вот и Claude обновили пулл своих моделей и это будет огромной новостной бомбой. Так что кратко о произошедшем: Claude Opus 4 — лучшая в мире модель кодирования, обеспечивающая устойчивую производительность при выполнении сложных, длительных задач и рабочих…
Я попробовал Claude Opus 4 в Copilot VSCode.
Друзья, Я в ауте. Уверен, что это новая веха в индустрии.
Ставлю на то, что телеграмм несколько месяцев не будет утихать!

Я пол дня писал проект про сбору страниц с сайтов документаций библиотек.

Opus Исправил все мои ошибки буквально за 2 промпта без использования каких-либо системных сообщений, просто в режиме чата.

Это что-то на уровне мечтаний.
🤔4🔥2
6. Tree of Thoughts
Техника, где LLM строит целое дерево рассуждений, а не одну прямую цепочку. Смотри картинку выше: слева — привычный CoT, справа — ToT со множеством веток.

Почему это важно?
Когда задача сложная и требует поиска, одной тропинки мало. ToT даёт модели:

- Исследование: несколько параллельных путей → больше шансов найти правильное решение.

- Оценку: можно “проголосовать”, какая ветка логичнее.

- Гибкость: легко обрубить бесперспективные ветки и углубиться в перспективные.

Как работает ToT (упрощённо)

1. Стартуем с входа (Input)
2. Генерируем 3-5 «мыслей» = промежуточных шагов
3. Для каждой мысли снова рожаем варианты
4. Повторяем, пока не дойдём до глубины N
5. Сравниваем листовые узлы, берём самый адекватный
6. Выводим ответ

Плюсы

- Более точные решения на задачах с поиском (головоломки, планирование, код).

- Возможность визуализировать ход мысли — полезно для дебага.

Вот пример использования и ответ.
Запрос
Ты — эксперт-логист. Реши задачу
Используй Tree of Thoughts с k=3, max_depth=4
На каждом узле выводи краткую оценку
В финале дай оптимальный маршрут и поясни выбор


Задача: найти кратчайший путь между двумя городами.
ToT: модель сразу предлагает 3 маршрута, на втором уровне уточняет расстояния, на третьем сравнивает пробки и стоимость, в финале выдаёт оптимальный.

Ответ длинный и интересный, так что прикладываю ссылку на него, открывать с VPN
Тык
🔥6👏2
За последние дни я раскрыл серию постов, которые раз и навсегда изменят твой подход к работе с нейросетями! Ты узнаешь:

Что такое Zero-shot, One-shot и Few-shot промпты — и почему от них зависит точность модели.
Пост №1

Чем Системный промпт отличается от Контекстного промпта и как использовать оба, чтобы получать идеально подходящие ответы.
Пост №2

Почему Chain of Thought (CoT) — настоящий прорыв, который поможет тебе не только получить точный ответ, но и понять ход рассуждений модели.
Пост №3

И самое продвинутое — Tree of Thoughts, техника, которая заставит твою модель мыслить многомерно и выдавать решения даже для самых сложных задач.
Пост №4

Поверь, после этой серии твоя продуктивность и качество общения с нейросетями взлетят до небес.

Рекомендую пройти весь цикл постов, чтобы не упустить важнейшие детали!

Пост "Кто я такой", будем дружить)
🔥5
Прошел интересный курс от IBM.
Можно сказать что прослушал и поотвечал на тесты успешно.

Всё же не поддается мне математика ну никак. В моменте понимаю, что происходит и буквально через мгновение - пустота)

Вообще считаю, что даже слушать курсы полезно, какая-то часть новой информации трансформируется в знания.
🔥52
Последние дни разбирался с библиотекой Qdrant.
Это векторная база данных для работы с текстом(и не только).

Нужна для поиска и хранения текстов и последующим поиском релевантных фрагментов.

Написал проект с ней и намучился вдоволь⌨️
Ругался, матерился, отвлекался, ну всё, что происходит с каждым из нас. Чувство горящей жопы и чтение документации и соседних проектов в GitHub.

А чего мне не хватало? Так простого мануала для старта, что делать, чтоб посмотреть на быстрые результаты и закрепить мысль
"Это действительно удобно и практично, Я смогу разобраться!"

Так о чем я?
Написал такой мануал и предлагаю вам ознакомиться.
Даже если ты далек от подобного, посмотри на вывод кода и ячеек и станет понятно, что это за технологии такие и из чего строится процесс "программирования"

Это не так страшно, как кажется на берегу.

Возможно на базе этого мануала начнется твоя личная история погружения.
По крайней мере я на это надеюсь)
Всё же хочется делать что-то полезное для людей, а не только для работодателя.

Вот такое "Доброе утро, друзья"
❤️

Мануал
Please open Telegram to view this post
VIEW IN TELEGRAM
15👏4❤‍🔥31
Из интересного и приятного:

На работе есть ежегодная оценка
(Прям как в вузе 😁)
И мне прям приятно!
18🔥2❤‍🔥1