FSCP
18.4K subscribers
30K photos
3.43K videos
858 files
76.9K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Вот держите очень полезную таблицу, в которой сделана попытка систематизировать все это безумное животноботство.
На первой вкладке базовые модели (там уже есть вчерашняя StableLM), с указанием типа лицензии.
На второй вкладке файн-тюнингованый зоопарк, что-то типа хаоса с Civitai.
На третьей немного датасетов
Также есть оценки производительности и даже сравнения разных версий chatGPT.
docs.google.com

P.S. Сергей Марков прислал ссылку, где есть гораздо более полный список базовых моделей.
docs.google.com
_______
Источник | #cgevent
by @F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Олег Чумаков прислал уникальный материал.
Огромный Postmortem of a Game Made With chatGPT and Midjourney
И это не статья в духе "смотрите, как можно генерить что-нибудь для игр", а огромный детальный отчет о том, как Luden.io делали игру за 72 часа с помощью Midjourney и chatGPT. Причем не на уровне генерации иконок или текстурок, а с полным погружением в использование ИИ по всем фронтам.
Создание концептов, написание истории с помощью chatGPT, выписывание персонажей с помощью chatGPT, написание диалогов, описание локаций в chatGPT(!) для дальнейшей визуализации в Midjourney, огромное количество трюков с локациями для консистентности, преимущества коротких промптов, создание ИИ музыки для игры и многое другое. Практика 100%.
Читается как рассказ-приключение.
blog.luden.io
_______
Источник | #cgevent
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Ясный сокол на 180 миллиардов параметров.

Falcon 180B - сверхмощная языковая модель с 180 миллиардами параметров, обученная на 3.5 триллионах(!) токенов.

Эта модель отлично справляется с различными задачами, такими как рассуждение, кодирование, знание и тесты знаний, даже опережая конкурентов, таких как Meta LLaMA 2.

Среди моделей с закрытым исходным кодом он стоит сразу за GPT 4 от OpenAI и работает наравне с PaLM 2 Large от Google.

Информация, хагингфейс и демо тут, там же можно скачать и почитать лиц соглашение.

falconllm.tii.ae

Понятно, что она не влезет ни в одну видеокарту, поэтому ждем вот такое оборудование от Nvidia:
🔥NVIDIA GH200 Grace Hopper 282 GB VRAM!

На SIGGRAPH 2023 NVIDIA анонсировала нового монстра для задча Generative AI - GH200 Grace Hopper с памятью HBM3e:

🔹 На борту чипа не только GPU, но и встроенный ARM процессор.

🔹 Базовая версия оснащена 141 GB VRAM и 72 ядрами ARM Neoverse c 480 GB LPDDR5X RAM.

🔹 С помощью NVIDIA NVLink можно объединять в сдвоенные "суперчипы", достигая 480x2 GB быстрой памяти (RAM)

🔹 Сдвоенный чип предлагает 282 GB VRAM, 144 ядра ARM Neoverse и 7.9 PFLOPS int8 производителтьности (так же как и у сдвоенной H100 NVL).

🔹 Новая память HBM3e на 50% быстрее предыдущего поколения HBM3, обеспечивая 10 ТБ/с комбинированной пропускной способности
_______
Источник | #cgevent
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
OpenAI бахнул DALL-E 3. Пользователи Stable Diffusion и Midjourney могут спать спокойно.

Пока все с восторгом постят ссылку на блог Open AI, давайте приглядимся к картинкам и почитаем внимательно буквы.

1. В инсте Open AI (да, есть такая) много новых картинок, но вы почти не увидите там людей, лиц и фотореализма. В основном это отличные стилизации, много абстракции, интерьеры, хорошие композиции, модель отлично исполняет в дизайн. Но все, что связано с реалистичными кожаными, похоже, зачищено очень сильно.

2. Вот тут совсем жоско: представители OpenAI сообщили в электронном письме, что DALL-E 3 обучен отказываться от создания изображений в стиле ныне живущих художников. В отличие от DALL-E 2, который при подсказке может имитировать искусство в стиле определенных художников.
Все это напоминает ситуацию с выходом Stable Diffusion 2.0, которая осталась унылой и нелюбимой версией в сообществе. Поглядим, что случится с DALL-E 3.

3. OpenAI также позволит (ныне живущим) художникам исключать свои произведения из будущих версий DALL-E. Авторы могут отправить изображение, права на которое у них есть, и запросить его удаление, заполнив форму на своем веб-сайте. Будущая версия DALL-E сможет блокировать результаты, похожие на изображение и стиль исполнителя.

4. Параиноидальные акценты на безопасности: OpenAI заявила, что работала с внешними «красными командами» — группами, которые намеренно пытались взломать систему, чтобы проверить ее безопасность — и полагались на классификаторы ввода — как способ научить языковые модели игнорировать определенные слова, чтобы избежать явных или жестоких подсказок. DALL-E 3 также не сможет воссоздавать изображения общественных деятелей, если в подсказке конкретно упоминается имя.
Будут ли celebrities включены в "общественных деятелей" пока непонятно. А ведь один из самых эффективных трюков при генерации лиц всегда был "looks like Name Surname" - модель резко повышала качество, ведь в датасете было огромное количество изображений нужной персоны. Но, похоже, лица будут не welcome, так что придется умерить аппетиты.

5. Цензура и вотермарки. Упомянуто встраивание специальных меток, чтобы отслеживать "изображения, созданные с помощью ИИ"

6. Улучшена генерация текста и рук (привет Ideogram). Об этом, правда мы читаем в каждом пресс-релизе каждой новой версии конкурентов. Надо смотреть за пределами представленного черри-пикинга как будет в реальности.

7. DALL-E 3 гораздо лучше справляется с пониманием пространственных отношений, описанных в промптах (помните лошадь на астронавте?), что делает проще и точнее построение сложных ракурсов и композиций. Тут пользователи Midjourney такие: пруфы давайте.

8. ОСНОВНОЙ АКЦЕНТ - это работа с промптами и интеграция с chatGPT. Автоматизация, ускорение и акцентированное упрощение промпт-дизайна. Я уже выпивал на днях за промпт-инженеров - тренд налицо. Промпты будет писать chatGPT. Достаточно скормить ему идею или свой чахлый промпт - он раскучерявит его так, чтобы было красиво. А за курсы промптинга для генерации картинок тоже можно будет выпить, не чокаясь. DALL-E 3 лучше понимает контекст, что делает передачу "идеи" менее словообильной задачей и позволяет сосредоточиться на "замысле".

9. Ничего про inpainting, outpaintig, generative fill и уж тем более про 3Д, управление камерой или (о боги), аналоги Control Net, без которых уже как без рук.
_______
Источник | #cgevent
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
This media is not supported in your browser
VIEW IN TELEGRAM
Тут вот меня забросали ссылками на KREA - типа KREA is a design tool with AI inside.
Смотрится угарно.
Но камон.
Это же просто нашлепка на Stable Diffusion с ControlNet.
InvokeAI уже год в такое умеет, только небыстро.
Простая демка ControlNet в веб-интерфейсе.
Да, они быстро прикрутили SDXL вместе с LCM-LoRA.
Но жить такому стартапу месяца два. Когда это появится в Автоматике и прочих опенсорсах.
Выглядит симпатично, но сайт пестрит всеми цветами и маркерами инфобиза.
www.krea.ai
_______
Источник | #cgevent
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
This media is not supported in your browser
VIEW IN TELEGRAM
Экспресс эмоции или эмоциональные экспрешены.

Synthesia обновила свой движок и теперь это Express-1 - самая главная фича в том, что эмоции и движения головы теперь не полагаются на заранее прошитые скрипты, а генерируются на основе анализа сентимента речи, на лету, так сказать.
ИИ анализирует эмоции во входном аудио или тексте и сам добавляет Станиславского в мимику и движения головы.
Ну и генерация голосов тоже на уровне.
Иногда аватары "показывают зубки", но это даже мило.
HeyGen немного занервничал, особенно после того, как Нвидия вонзила очень много денег в Synthesia.
После того, что показал Микрософт и Алибаба, понятно, что нейрорендеринг аватаров будет основным направление генерации реалистичных лиц. Ибо 3Д безнадежно застряло при переходе, через зловещую долину (это касается человеческих лиц) и пока не нашло выхода оттуда.
___
🐾 Источник | #cgevent
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
This media is not supported in your browser
VIEW IN TELEGRAM
Для сравнения кину сюда эмоции и нейрорендеринг из Микрософтовской Вазы.
Да-да, это все ИИ-шная генерация кожаных лиц. На входе - одно фото или картинка из Midjourney/Stable Diffusion

Ну, за дикторов!
_______
Источник | #cgevent
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot
Учите программирование в любом возрасте.

Я
тут порылся в сохраненном и неопубликованном и нашел ответ на вопрос из поста выше.
Похоже, что для того, чтобы было меньше таких заголовков из последнего поста, надо учить кожаных программированию (в любом возрасте).
Есть вот такая работа:
Если LLM - волшебник, то код - волшебная палочка: Обзор того, как код позволяет большим языковым моделям служить в качестве интеллектуальных агентов

Вывод такой: если замешивать в обучение не только "обычные" тексты, но и большое количество кода, то модель точно становится умнее и приобретает навыки критического мышления и декомпозиции задач. Последнее очень важно для медленного "размышления" в отличие от быстрых принятия решений.

Если подробнее, то:
Включение кода в датасеты повышает навыки программирования у моделей, позволяя им писать код на нескольких(!) языках. Тут вроде банально, но с разными языками очень круто.

Структурные ответы: генерировация контента с помощью жестко-структурированных данных, таких как HTML или таблицы. Тут тоже предсказуемо. Но глядя на то как некоторые кожаные мычат, пытаясь сформулировать простые мысли, хочется послать их на курсы бейсика.

Дальше интереснее, обученные на добавленном коде LLM демонстрируют навыки сложного рассуждения и тех самых chain of thoughts. Декомпозиция и размышление.

Авторы предполагают, что такие LLM легче превращаются в продвинутых интеллектуальных агентов, способных принимать решения и самостоятельно решать задачи.

Я понял, что написал какой-то рекламный проеспект курсов по программированию:

Учите программирование (сами и с детьми) и вы:
будете умнее
получите скилл критического мышления и сопоставления фактов
научитесь не мычать, а внятно излагать свои мысли
приобретете способность делать речерч в своей кожаной голове, а не только реагировать на тиктоки

И все это просто подмешав немного кода в вашу кожаную голову.

Маркетологи забирайте, дорого!

Сама работат вот тут:
openreview.net
_______
Источник | #cgevent
🐾 @F_S_C_P

-------
поддержи канал
-------
ИИ для харкорных композеров.

Как обработать группу снимков одним щелчком мыши, как автоматически маскировать, отслеживать объекты, автоматически нажимать клавишу, автоматически применять удаление. Как применять различные модели машинного обучения и как создавать новые модели, адаптированные к вашему материалу.

Все это на русском с подробными объяснениями от Влада Ахтырского. В начале хороший ностальгический проброс в Ванкувер 2018, где мы с Владом отжигали на Сигграфе. До ковида, войны и вот этого вот всего.

Для тех, кто шарить за взрослый композ и знает, что такое деспил.

И да, это та сама кнопка "Сделать Всё" в виде системы Junior.
www.youtube.com

Ну, за джунов.
_______
Источник | #cgevent
🐾 @F_S_C_P

Генерируй картинки с ⛵️MIDJOURNEY в Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
GPT-4 - самая тупая модель, которую кому-либо из вас когда-либо придется использовать снова.

"GPT-4 is the dumbest model any of you will ever ever have to use again, by a lot."

Сама, два вопроса:

1. За что мы платим 20 баксов в месяц?
2. Где нетупая модель?

twitter.com
_______
Источник | #cgevent
🐾 @F_S_C_P

-------
поддержи канал
-------