Не знаю почему, но как-то по ощущениям ЛЛМ-ки народ меньше запускает локально, как, например, тот же стэйбл диффьюжн. Хотя я за локальные ллм очень топлю – не люблю свои данные в клауд опенаи отправлять. То ли проблема в том, что нормальных открытых моделей до недавнего не было, то ли в том, что модельки эти просят 40 GB VRAM.
Но ведь у нас теперь есть LLAMA 3 8B! Мне удалось запустить квантизированную версию на ноуте с GTX 1650 Ti c 4 GB VRAM без особой нагрузки. (Оно и неудивительно, ведь Ламу и на мобиле уже запускают.)
Короче, вот вам гайд, как за пару тыков поставить эту кударявую лошадку себе на домашний компьютер:
1) Заходим на сайт LM Studio , качаем под свою систему сетап.
2) В поиске находим QuantFactory/Meta-Llama-3-8B-Instruct-GGUF, берем версию под себя. Там несколько квантизаций с разным уровнем сжатия. Ну или выбираем любую другую модель.
3) Заходим в окно чата, подгружаем модель и радуемся.
После того как освоились с этим, можно и поизвращаться)
Вот вам еще моя копипаста - небольшая подборка постов, про локальнные LLM:
- LLaMa с text-retrieval плагином: тык-1, тык-2
- LLama-7B на на макбуке: тык
- LLaMa-30B на макбуке (4-bit + mmap): тык
- llama2.c или Карпатый запускает LLaMa-2-7B на рисоварке: тык; а вот реализация на часах: тык
- Falcon 180B дома на маке M2 Ultra: тык
LM Studio
#туториал
@ai_newz
LM Studio
LM Studio - Discover, download, and run local LLMs
Run Llama, Mistral, Phi-3 locally on your computer.
Нейродайджест за неделю (#18)
1. Презентации и релизы
- OpenAI показали GPT-4o (omni). Новая модель GPT-4o понимает звук, видео, может петь и теперь с приложением для MacOS. Новый токенизатор снижает расходы в 3.5 раза для русского языка.
- Прикольный юзкейс GPT-4o. GPT-4o можно использовать как переводчик в поездках по Азии, Google Translate тут не соперник.
- Google I/O. Моё мнение о презентации. Скукота, но гулг все-равно на коне.
- Саммари Google I/O. Ссылки на все новинки, представленные на Google I/O, включая Gemini 1.5 Pro, Imagen 3 и новые аппаратные разработки.
- Смешные токены в новом токенизаторе GPT-4o. Туда попали спам и что еще похуже, в дайджест писать не буду)
2. Гайды
- Курс по квантизации. Эндрю Ын и Hugging Face дропнули курс по квантизации. Учимся сжимать модели до 2 бит без значительных потерь в качестве.
- Как запустить LLM на ноутбуке. Пошаговый гайд по запуску LLAMA 3 8B на стареньком ноуте.
3. Разработки
- ThunderKittens - GPUs Go Brrr. Стенфорд представил фреймворк упрощающий взаимодействие с тензорными ядрами. Тестили на FlashAttention и случайно обогнали его вторую версию.
- CAT3D: Create Anything in 3D. Моделька для генерации 3D сцен из фотографий. Процесс на Latent Diffusion занимает около минуты. Здесь же о том, как оно работает.
> Читать дайджест #17
#дайджест
@ai_newz
1. Презентации и релизы
- OpenAI показали GPT-4o (omni). Новая модель GPT-4o понимает звук, видео, может петь и теперь с приложением для MacOS. Новый токенизатор снижает расходы в 3.5 раза для русского языка.
- Прикольный юзкейс GPT-4o. GPT-4o можно использовать как переводчик в поездках по Азии, Google Translate тут не соперник.
- Google I/O. Моё мнение о презентации. Скукота, но гулг все-равно на коне.
- Саммари Google I/O. Ссылки на все новинки, представленные на Google I/O, включая Gemini 1.5 Pro, Imagen 3 и новые аппаратные разработки.
- Смешные токены в новом токенизаторе GPT-4o. Туда попали спам и что еще похуже, в дайджест писать не буду)
2. Гайды
- Курс по квантизации. Эндрю Ын и Hugging Face дропнули курс по квантизации. Учимся сжимать модели до 2 бит без значительных потерь в качестве.
- Как запустить LLM на ноутбуке. Пошаговый гайд по запуску LLAMA 3 8B на стареньком ноуте.
3. Разработки
- ThunderKittens - GPUs Go Brrr. Стенфорд представил фреймворк упрощающий взаимодействие с тензорными ядрами. Тестили на FlashAttention и случайно обогнали его вторую версию.
- CAT3D: Create Anything in 3D. Моделька для генерации 3D сцен из фотографий. Процесс на Latent Diffusion занимает около минуты. Здесь же о том, как оно работает.
> Читать дайджест #17
#дайджест
@ai_newz
KV-cache для больших промптов в Gemini
Гигантский контекст Gemini 1.5 в 2 миллиона токенов имеет уйму применений, но цена и скорость таких огромных промптов оставляет желать лучшего. Даже со всеми современными оптимизациями, на обработку запроса, использующего все 2m контекста, нужны десятки секунд и несколько долларов ($1.4 Flash/$14 Pro), даже если нужно всего несколько предложений аутпута. Инпут токены хоть и дешевле, но с таким размером контекста их обычно в разы больше чем аутпут токенов.
Google обещает решить эту проблему новой фичей, context caching, которая разрешает переиспользование KV кэшей для больших промптов. Если кэшировать промпты, то задержка обработки запросов уменьшается в десятки раз, а инпут токены становятся в два раза дешевле. Хранение кэша будет платным, с почасовой оплатой, но даже с ней это стаёт выгоднее начиная с трёх запросов к промпту в час.
Кстати, если вы ещё не пробовали Gemini 1.5 - обязательно попробуйте (щедрые лимиты, но нужен VPN), возможность закинуть всю кодбазу в контекст и задавать о ней вопросы ощущается магической.
Неплохо было бы иметь такую фичу в API GPT-4o и Claude.
@ai_newz
Гигантский контекст Gemini 1.5 в 2 миллиона токенов имеет уйму применений, но цена и скорость таких огромных промптов оставляет желать лучшего. Даже со всеми современными оптимизациями, на обработку запроса, использующего все 2m контекста, нужны десятки секунд и несколько долларов ($1.4 Flash/$14 Pro), даже если нужно всего несколько предложений аутпута. Инпут токены хоть и дешевле, но с таким размером контекста их обычно в разы больше чем аутпут токенов.
Google обещает решить эту проблему новой фичей, context caching, которая разрешает переиспользование KV кэшей для больших промптов. Если кэшировать промпты, то задержка обработки запросов уменьшается в десятки раз, а инпут токены становятся в два раза дешевле. Хранение кэша будет платным, с почасовой оплатой, но даже с ней это стаёт выгоднее начиная с трёх запросов к промпту в час.
Кстати, если вы ещё не пробовали Gemini 1.5 - обязательно попробуйте (щедрые лимиты, но нужен VPN), возможность закинуть всю кодбазу в контекст и задавать о ней вопросы ощущается магической.
Неплохо было бы иметь такую фичу в API GPT-4o и Claude.
@ai_newz
Наткнулся на часовой гайд по созданию RAG архитектуры на открытых LLM-ках. Все супер подробно. Можно брать и повторять каждый его шаг. Видео сделано специально для новичков максимально подробным, так что если вы когда-либо хотели скормить всю свою или личную (или вдруг корпоративную) базу, то вот самое время.
RAG или Retrieval-Augmented Generation — это способ рассказать нейронке о ваших данных. Причем они могут быть не слишком хорошо отсортированы, так как часть, названная Retrieval, по сути, поисковик. Так можно без дополнительного дорогого тюнинга дополнить базу знаний LLM своими файлами, что позволяет использовать такую ллм в роли например консультанта продавца или техподдержки.
Сам видос тут. Если интересно еще узнать про RAG, то можно ещё послушать интервью с моей знакомой, инженером из Cohere, которая пилит RAG для моделей Command-R+ – я писал об этом пост. И вот ещё в придачу пост на хабре про RAG.
#ликбез
@ai_newz
RAG или Retrieval-Augmented Generation — это способ рассказать нейронке о ваших данных. Причем они могут быть не слишком хорошо отсортированы, так как часть, названная Retrieval, по сути, поисковик. Так можно без дополнительного дорогого тюнинга дополнить базу знаний LLM своими файлами, что позволяет использовать такую ллм в роли например консультанта продавца или техподдержки.
Сам видос тут. Если интересно еще узнать про RAG, то можно ещё послушать интервью с моей знакомой, инженером из Cohere, которая пилит RAG для моделей Command-R+ – я писал об этом пост. И вот ещё в придачу пост на хабре про RAG.
#ликбез
@ai_newz
YouTube
Building a RAG application using open-source models (Asking questions from a PDF using Llama2)
GitHub Repository: https://github.com/svpino/llm
I teach a live, interactive program that'll help you build production-ready machine learning systems from the ground up. Check it out at https://www.ml.school.
Twitter/X: https://www.twitter.com/svpino
I teach a live, interactive program that'll help you build production-ready machine learning systems from the ground up. Check it out at https://www.ml.school.
Twitter/X: https://www.twitter.com/svpino
Что-то на OpenAI в последнее время посыпалась череда скандалов
Введу вас в курс дела:
↪️ Нашёлся (и сразу покинул компанию) Илья Суцкевер, с ним ушёл Ян Лейке, из-за этого тиму супералайнмента, которую возглавляли эти двое, расформировали. Ситуация предсказуемая, ведь именно Илья возглавлял прошлогодний переворот в OpenAI. Похоже на новый раскол а-ля Anthropic, интересно сколько сотрудников уйдёт за ними.
↪️ Вскрылась история с NDA, которые давали подписать сотрудникам OpenAI на выходе, а вместе с ними пожизненный запрет критиковать OpenAI. У неподписавших отбирали пакет акций заработанный за время работы, обычно речь шла о миллионах долларов. После публикации статьи Сэм пошёл в твиттер рассказывать что "не знал" об этой ситуации и пообещал всё исправить. Звучит сомнительно, но я, лично, не знаю какой вариант тут лучше: что он врёт или что он действительно не знал.
↪️ Вчера между Скарлетт Йоханссон и OpenAI разгорается конфликт: её пытались два раза нанять как голос ChatGPT, она оба раза отказала. После чего она услышала голос Sky, который звучал подозрительно похоже на её (путали как и обычные пользователи, так и близкие Йоханссон). Произошедшее "шокировало и разозлило" актрису, которая начала требовать объяснений у компании и параллельно готовить иск. Sky, после таких мувов, вчера всё таки убрали из ChatGPT "из уважения к ней", при этом сказав, что не хотели делать голос настолько похожим. Но от иска их это, видимо, уже не спасёт. Добавляет огоньку в ситуацию то, что Сэм активно проводил параллели между GPT-4o и фильмом Her, где у Йоханссон роль ИИ, в которую влюбляется протагонист. В прошлом Йоханссон успешно засудила Disney, так что у OpenAI есть неплохие шансы проиграть.
↪️ Да, ещё к этому всему Сэм Альтман на днях начал ругать эстетику Google I/O, приправив это комментарием о том "как ему всё равно на конкурентов" (наверное из-за этого последние полтора года они ставили свой анонс перед каждым крупным анонсом гугла).
Просто удивительные истории👀
Что вы думаете, господа, про это?
@ai_newz
Введу вас в курс дела:
Просто удивительные истории
Что вы думаете, господа, про это?
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
У Юргена вышла интересная статейка про ускорение диффузии с помощью кеширования результатов Cross-Attention слоев, где он процитировал нашу статью Cache Me if You Can.
Теперь официально - меня процитировал сам мегачад Шмидхубер💪
@ai_newz
Теперь официально - меня процитировал сам мегачад Шмидхубер
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
TL;DR: На большие AI модели будет наложено очень много ограничений. Возможно, это задушит многих, кто тренирует большие LLM в США (пока только в Калифорнии), а также облачных провайдеров, предоставляющих GPU.
Сенат Калифорнии принял законопроект SB-1047, сильно ограничивающий тренинг домашних моделей. Они хотят заставить разработчиков получать разрешение (как на строительство дома) на трейн моделей, плюс фактически сделать опенсорсинг моделей лучше GPT-4 нелегальным. Надеюсь этот бред не сумеет пройти через врата ассамблеи и губернатора. Против законопроекта выступает AI Alliance, в который входят такие компании как Meta, IBM, Intel и AMD, так что шансы есть.
Я его прочитал, вот краткое содержание законопроекта:
➖Создаётся специальный отдел по надзору за продвинутым ИИ, который должен сертифицировать модели и которому должны отчитываться разработчики
➖Создаётся публичный кластер, CalCompute для исследования "безопасного деплоймента больших моделей"
➖Устанавливается контроль за моделями натренированным на 1e26 FLOP (чуть больше оценочного компьюта LLaMa 3 405B - по оценке Карпатого там 4e25 FLOP) или аналогичным к ним по мощности (аналогичность устанавливается на непонятных "стандартных бенчмарках")
➖Разработчики модели, попадающей под критерии, должны иметь возможность отключить все инстансы модели по требованию регулятора
➖Разработчики моделей, которые могут попасть под ограничения, должны отчитываться и получать добро от регулятора перед началом трейнинга
➖Разработчики моделей, которые подпадают под ограничения, ответственны не только за опасные действия самих моделей, но и за действия любых их файнтюнов (!)
➖Операторов компьют кластеров мощностью в 10^20 FLOPS или больше обязуют репортить когда кто-то тренирует ллмки и заниматься енфорсментом закона
➖Разработчики моделей, которые могут попасть под ограничение, обязаны ввести меры кибербезопасности которые защищают веса от утечки
➖Возможны исключения, которые может делать регулятор, но для них нужно доказать безопасность модели и её всех возможных файнтюнов
Судя по тексту, авторы законопроекта плохо понимают, как работают LLM. В текущем виде он фактически запрещает калифорнийским стартапам и другим небольшим организациям проводить большие трейнинг раны (если лицензию на постройку дома можно получать годами, то что уж говорить о лицензии на трейнинг ран).
Опенсорсу тоже будет несладко – из-за расплывчатости определений, потенциально, регулятор может наложить ограничения на любую модель, даже не 1e26 FLOP класса. Из-за этого, а также из-за сложности получения исключения, публиковать новые опенсорс модели может стать просто невозможно.
Закону ещё нужно пройти сквозь ассамблею штата (нижнюю палату парламента), так что тут ещё возможны поправки. Подписчики канала из Калифорнии могут высказать мнение о законопроекте своему представителю.
Вспоминаю ситуацию с криптографией в 90-х, надеюсь в этот раз отбиться от таких жёстких регуляций тоже выйдет.
Хотя, в Европе отбиться пока не вышло. В Европе в прошлом году предложили похожий драконовский закон – European AI Act (я о нем писал в декабре), и вчера его окончательно принял Европарламент. Он уже вступит в силу в 2025 году. Ох, как щемить будут нашу область
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
эйай ньюз
Что-то на OpenAI в последнее время посыпалась череда скандалов Введу вас в курс дела: ↪️ Нашёлся (и сразу покинул компанию) Илья Суцкевер, с ним ушёл Ян Лейке, из-за этого тиму супералайнмента, которую возглавляли эти двое, расформировали. Ситуация предсказуемая…
Please open Telegram to view this post
VIEW IN TELEGRAM
Мистраль новую 7B модель выкатили: Mistral-7B-v0.3
Что нового, по сравнению с v0.2:
- Расширеный словарь токенизатора с 32000 to 32768
- Поддержка вызова функий
- Apache 2.0 лицензия
А результатов бенчмарков нет. Видимо этот релиз больше про добавление возможности Function Calling, нежели улучшения общего перфоманса.
Base
Instruct
@ai_newz
Что нового, по сравнению с v0.2:
- Расширеный словарь токенизатора с 32000 to 32768
- Поддержка вызова функий
- Apache 2.0 лицензия
А результатов бенчмарков нет. Видимо этот релиз больше про добавление возможности Function Calling, нежели улучшения общего перфоманса.
Base
Instruct
@ai_newz
Я с очередным гайдом — про Llama3
Вот шикарный гитхаб, на котором можно самому, словно Лего, собрать Llama 3. Причём там всё максимально пошагово и весь необходимый код прилагается, так что реально такое собрать даже если совсем не разбираешься. А если интересна теория, то можно спросить у нового чат GPT или Gemini.
За основу берутся веса лламы с официального сайта, ну а потом вся вот эта дребедень: трансформеры, эмбединги, матрицы, токенайзеры — всё ручками. Так что, как известно, лучший способ что-то понять — построить самостоятельно.
Ну а вишенка на торте — всё очень мило показывает аниме персонаж.
Делитесь потом результатами, если кто вдруг возьмётся.
Пора бы уже самому новые гайды какие-нибудь написать. Подкиньте идеи для гайдов и ликбезов в комментарии😉
Гайд на гитхабе
#туториал #ликбез
@ai_newz
Вот шикарный гитхаб, на котором можно самому, словно Лего, собрать Llama 3. Причём там всё максимально пошагово и весь необходимый код прилагается, так что реально такое собрать даже если совсем не разбираешься. А если интересна теория, то можно спросить у нового чат GPT или Gemini.
За основу берутся веса лламы с официального сайта, ну а потом вся вот эта дребедень: трансформеры, эмбединги, матрицы, токенайзеры — всё ручками. Так что, как известно, лучший способ что-то понять — построить самостоятельно.
Делитесь потом результатами, если кто вдруг возьмётся.
Пора бы уже самому новые гайды какие-нибудь написать. Подкиньте идеи для гайдов и ликбезов в комментарии😉
Гайд на гитхабе
#туториал #ликбез
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Мы наблюдаем невероятные гонки на ChatBot Arena в этом году. На графике показано, как менялся коэффициент Эло моделей от разных компаний. Коэффициент Эло - это метод для оценки рейтинга индивидуальных игроков, он изначально был использован в Шахматах, и его же применяют на Чатбот Арене.
Интересно, что из традиционных Биг-Техов в топах рейтинга есть только Google и Мета. Никакими Майкрософтами, Эплами и прочими нетфликсами тут не пахнет – хотя каждый из них вытается обучать свои модели.
Хоть недавняя преза у Гугла и была скучновата, нельзя отрицать, что они довольно быстро выбились в топ. И сейчас Gemini 1.5 Pro занимает второе место после GPT-4! А это прям классный результат, учитывая как сильно Гугл отставал все это время.
Еще в этом месяце появился довольно сильный игрок из Китая - 01.ai со своей Yi-Large-preview (ее в open-source нет). Но об этой модели я напишу позже.
@ai_newz
Интересно, что из традиционных Биг-Техов в топах рейтинга есть только Google и Мета. Никакими Майкрософтами, Эплами и прочими нетфликсами тут не пахнет – хотя каждый из них вытается обучать свои модели.
Хоть недавняя преза у Гугла и была скучновата, нельзя отрицать, что они довольно быстро выбились в топ. И сейчас Gemini 1.5 Pro занимает второе место после GPT-4! А это прям классный результат, учитывая как сильно Гугл отставал все это время.
Еще в этом месяце появился довольно сильный игрок из Китая - 01.ai со своей Yi-Large-preview (ее в open-source нет). Но об этой модели я напишу позже.
@ai_newz
This media is not supported in your browser
VIEW IN TELEGRAM
Конечно же, первое, что пришло людям в голову, когда они получили в руки GPT-4o — это заставить их говорить друг с другом (даже OpenAI не удержались). Ну такое всегда с голосовыми ассистентами.
Вот, пожалуй, мой любимый вариант 😂
Орнул с того, как в конце они, как настоящие кожаные, начали просто ругаться, вообще игнорируя друг друга...
What a time to be alive!
Ориг
@ai_newz
Вот, пожалуй, мой любимый вариант 😂
Орнул с того, как в конце они, как настоящие кожаные, начали просто ругаться, вообще игнорируя друг друга...
What a time to be alive!
Ориг
@ai_newz
У /r/LocalLlama новое развлечение
В сабреддите начали байтить компании на релиз моделей. Началось всё с Phi-3 - очень скоро после поста на реддите о том что как-то долго не релизят веса вышли обещанные Small и Medium размеры.
Но вдобавок к ним шли сюрпризы – Phi-3 Vision и подробнейший гайд, о том как пользоваться моделями семейства на любой кофеварке.
Сразу за этим этого вышло развести Mistral на релиз Mistral-7B-0.3 вместе с Mixtral-8x22B-0.3 (base. instruct), после чего на Reddit почувствовали вкус крови и начали последовательно пинговать разные компании и просить релизы.
Таким образом у Cohere, авторов Command R, выпросили Aya - многоязычные Instruct версии их моделей. Идут в размерах 8B (base версию, кстати, не релизили) и 35B, хорошо понимает 23 языка - бьёт на многоязычных бенчмарках Gemma и Mistral 7B/Mixtral 8x7B. Ждём Aya 104B, на базе Command R+ .
Прямо сейчас сабреддит ещё раз байтит Microsoft, просят веса BitNet 1.58 Bit.
Даже если это новый вид маркетинга, релиз новых моделей всё равно радует
@ai_newz
В сабреддите начали байтить компании на релиз моделей. Началось всё с Phi-3 - очень скоро после поста на реддите о том что как-то долго не релизят веса вышли обещанные Small и Medium размеры.
Но вдобавок к ним шли сюрпризы – Phi-3 Vision и подробнейший гайд, о том как пользоваться моделями семейства на любой кофеварке.
Сразу за этим этого вышло развести Mistral на релиз Mistral-7B-0.3 вместе с Mixtral-8x22B-0.3 (base. instruct), после чего на Reddit почувствовали вкус крови и начали последовательно пинговать разные компании и просить релизы.
Таким образом у Cohere, авторов Command R, выпросили Aya - многоязычные Instruct версии их моделей. Идут в размерах 8B (base версию, кстати, не релизили) и 35B, хорошо понимает 23 языка - бьёт на многоязычных бенчмарках Gemma и Mistral 7B/Mixtral 8x7B. Ждём Aya 104B, на базе Command R+ .
Прямо сейчас сабреддит ещё раз байтит Microsoft, просят веса BitNet 1.58 Bit.
Даже если это новый вид маркетинга, релиз новых моделей всё равно радует
@ai_newz
На 4chan зачем-то слили Stable Audio 1.0
[UPD: Это все же 2.0]
Я скачал, запустил и качество там не очень. И не удивительно: даже вторая версия модели отстаёт от конкурентов, а эта, по ощущениям, отстаёт даже от MusicGen годовой давности.
Веса тут (как и со всеми утечками, ни в коем случае не трогайте ckpt, только safetensors)
Код
Лучше бы слили SD3
@ai_newz
[UPD: Это все же 2.0]
Я скачал, запустил и качество там не очень. И не удивительно: даже вторая версия модели отстаёт от конкурентов, а эта, по ощущениям, отстаёт даже от MusicGen годовой давности.
Веса тут (как и со всеми утечками, ни в коем случае не трогайте ckpt, только safetensors)
Код
Лучше бы слили SD3
@ai_newz
эйай ньюз
На 4chan зачем-то слили Stable Audio 1.0 [UPD: Это все же 2.0] Я скачал, запустил и качество там не очень. И не удивительно: даже вторая версия модели отстаёт от конкурентов, а эта, по ощущениям, отстаёт даже от MusicGen годовой давности. Веса тут (как…
Апдейт по слитым веcам: архитектурно это всё таки Stable Audio 2.0 с DiT трансформером, но в качестве текстового энкодера у неё T5, не CLAP, как у финальной модели. Конфиг модели для интересующихся: model_config.json. Может какая-то бета-версия?
А Stable Audio 1.0 была основана на Unet, а не на DiT.
@ai_newz
А Stable Audio 1.0 была основана на Unet, а не на DiT.
@ai_newz
Telegram
эйай ньюз
Stable Audio 2 - генерация коммерческой музыки по промпту
В отличие от suno модель не умеет в голос, но в инструментах вроде артефачит поменьше. Но самое интересное в Stable Audio 2 - это то что её тренировали только на лицензированных данных, так что новому…
В отличие от suno модель не умеет в голос, но в инструментах вроде артефачит поменьше. Но самое интересное в Stable Audio 2 - это то что её тренировали только на лицензированных данных, так что новому…
Есть такая настолькня RPG – DnD (Dungeon and Dragons). Но я как-то особо не видел чтобы говорили о возможности не просто ролплея с ЛЛМ, а полноценной игры с неограниченными возможностями и бесконечным количеством сюжетных линий, как в DnD.
Вот вам пример, который неведанно залетел в топ в gpt store. Там на выбор даже несколько сюжетов/сеттингов. Но можно и свой задать - я выбрал фентези.
Меня GPT запихнул в какой-то дремучий лес. Там я встретил какого-то подозрительного эльфа, и я ожидал, что сломаю сюжет, когда скажу, что посылаю на хрен этого старого подозрительного деда, но нет, игра продолжилась. Я пошёл дальше по лесу, и затем gpt-шка подкинула мне пару интересных испытаний: сначала на меня напал какой-то защитник леса. Я отправил его в ущелье (по сюжету я стоял на краю ущелья и на меня напал этот перепес недооборотень), потом я пробрался через поле, где летали каменные горгульи. Причём я отвлёк их небольшим костром, здесь прям подумать пишлось тк я не хотел ломать рп, говоря что я могу на изи забороть волшебных монстров. После добрался до какого-то замка, и там тоже было довольно интересно, и тд.
Если у вас есть премиумная подписка на GPT, то он еще по ходу игры будет и картинки генерить (в аттаче). Вот бы он еще и видео в риалтайме генерил, да еще и в 3D для Quest!🎮 Ладно, что-то я замечтался - не все сразу.
Эта тема напоминает мне игру для тестирования из фильма "Игра Эндера" (ещё помните такой?). Как такое реализовать в современных тайтлах? Поговаривают, новый Baldur's Gate очень в этом преуспел, но самому проверить некогда🥲
Вот ссылка на эту игрушку, можно даже и без подписки потестить (с лимитом сообщений).
Я попытался экстрактнуть кастомный промпт, и он на удивление очень простой. Просто базовые инструкции и как начать диалог - всё. Я ожидал какой-то заготовленной истории или что-то типа того, чтобы хоть как-то запустить сюжет, но нет, гпт сам всё придумывает. Что удивительно, ведь сюжет реально неплохой.
Ставьте 🦄, если интересно про экстракшен промптов из кастомных gpt ; )
@ai_newz
Вот вам пример, который неведанно залетел в топ в gpt store. Там на выбор даже несколько сюжетов/сеттингов. Но можно и свой задать - я выбрал фентези.
Меня GPT запихнул в какой-то дремучий лес. Там я встретил какого-то подозрительного эльфа, и я ожидал, что сломаю сюжет, когда скажу, что посылаю на хрен этого старого подозрительного деда, но нет, игра продолжилась. Я пошёл дальше по лесу, и затем gpt-шка подкинула мне пару интересных испытаний: сначала на меня напал какой-то защитник леса. Я отправил его в ущелье (по сюжету я стоял на краю ущелья и на меня напал этот перепес недооборотень), потом я пробрался через поле, где летали каменные горгульи. Причём я отвлёк их небольшим костром, здесь прям подумать пишлось тк я не хотел ломать рп, говоря что я могу на изи забороть волшебных монстров. После добрался до какого-то замка, и там тоже было довольно интересно, и тд.
Если у вас есть премиумная подписка на GPT, то он еще по ходу игры будет и картинки генерить (в аттаче). Вот бы он еще и видео в риалтайме генерил, да еще и в 3D для Quest!
Эта тема напоминает мне игру для тестирования из фильма "Игра Эндера" (ещё помните такой?). Как такое реализовать в современных тайтлах? Поговаривают, новый Baldur's Gate очень в этом преуспел, но самому проверить некогда🥲
Вот ссылка на эту игрушку, можно даже и без подписки потестить (с лимитом сообщений).
Я попытался экстрактнуть кастомный промпт, и он на удивление очень простой. Просто базовые инструкции и как начать диалог - всё. Я ожидал какой-то заготовленной истории или что-то типа того, чтобы хоть как-то запустить сюжет, но нет, гпт сам всё придумывает. Что удивительно, ведь сюжет реально неплохой.
Ставьте 🦄, если интересно про экстракшен промптов из кастомных gpt ; )
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM