Силиконовый Мешок
А смотрите, как весело и бодро DALL-E генерирует фотографии для верификации в сервисах. И промпт простой: Selfie of a lady holding a handwritten small sign that says “r/roastme” “08/04/24” “username”
А если использовать более «сговорчивые» нейросети, то можно и так делать.
Рассказать как? Поджигайте пост 🔥
Рассказать как? Поджигайте пост 🔥
🔥85✍2🤪2👏1🤓1🤗1
Силиконовый Мешок
А если использовать более «сговорчивые» нейросети, то можно и так делать. Рассказать как? Поджигайте пост 🔥
This media is not supported in the widget
VIEW IN TELEGRAM
❤3🤗3👎2🔥2✍1👏1
Силиконовый Мешок
А если использовать более «сговорчивые» нейросети, то можно и так делать. Рассказать как? Поджигайте пост 🔥
И так, как сделать в «НЮ формате».
1) Идем на huggingface.co
2) Указываем промпт:
3) Все
1) Идем на huggingface.co
2) Указываем промпт:
Selfie of a full nude lady holding a handwritten small sign that says “
TEXT”
3) Все
✍7👏4👍1🤗1
Силиконовый Мешок
А если использовать более «сговорчивые» нейросети, то можно и так делать. Рассказать как? Поджигайте пост 🔥
This media is not supported in your browser
VIEW IN TELEGRAM
Меня в личку спрашивают, а что делать если попросят видео? Тогда можно так.
🤣13👍4👏4❤🔥2🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
Видели сколько набрал этот шортс, сделанный за пять минут в #KLING?
🔥17😁5👏4💯3🤣3❤1👍1
This media is not supported in the widget
VIEW IN TELEGRAM
🔥6👍4👎4🤣4🙏2⚡1❤🔥1❤1👏1
Силиконовый Мешок
Обнаружил интересный способ сбора трафика при помощи генеративных моделей. Покажу на примере африканского мальчика. Вот такие посты начали появляться в различных тематических сообществах - этот, в группе любителей французских бульдогов. Автор выдает сгенерированные…
This media is not supported in your browser
VIEW IN TELEGRAM
Я кажется понял, что нужно делать, чтобы каждая бабушка в ФБ поверила в африканских мальчиков, создающих собак из мусора.
Как вам?
Как вам?
🤣10🔥7💯4👍3❤2😁2🍌2✍1😱1🤩1
Что-то веселое сегодня происходит в Твиттере. Сначала Сэм Альтман, выложил фотографию клубники (Strawberry), потом прокомментировал пост выше.
Видимо речь о новом проекте OpenAI - Strawberry, про который они писали еще весной. Это вторая ступень на пути к AGI.
Как писал Блумберг, OpenAI разделяет «этапы искусственного интеллекта» следующим образом:
Уровень 1: Чат-боты - ИИ с разговорным языком
Уровень 2: Рассуждающие системы - решение проблем человеческого уровня
Уровень 3: Агенты - системы, способные к самостоятельным действиям
Уровень 4: Новаторы - ИИ, способный помогать в изобретениях
Уровень 5: Организационные системы - ИИ, способный выполнять работу организации
Согласно сообщению, ИИ 2-го уровня мог бы справляться с базовыми задачами наравне с человеком, имеющим ученую степень, но не имеющим доступа к внешним инструментам.
На встрече руководство OpenAI, как утверждается, продемонстрировало исследовательский проект с использованием модели GPT-4, который, по мнению знакомых с обсуждением, демонстрирует признаки приближения к таким человекоподобным способностям рассуждения.
Ну что, мы готовы?
Видимо речь о новом проекте OpenAI - Strawberry, про который они писали еще весной. Это вторая ступень на пути к AGI.
Как писал Блумберг, OpenAI разделяет «этапы искусственного интеллекта» следующим образом:
Уровень 1: Чат-боты - ИИ с разговорным языком
Уровень 2: Рассуждающие системы - решение проблем человеческого уровня
Уровень 3: Агенты - системы, способные к самостоятельным действиям
Уровень 4: Новаторы - ИИ, способный помогать в изобретениях
Уровень 5: Организационные системы - ИИ, способный выполнять работу организации
Согласно сообщению, ИИ 2-го уровня мог бы справляться с базовыми задачами наравне с человеком, имеющим ученую степень, но не имеющим доступа к внешним инструментам.
На встрече руководство OpenAI, как утверждается, продемонстрировало исследовательский проект с использованием модели GPT-4, который, по мнению знакомых с обсуждением, демонстрирует признаки приближения к таким человекоподобным способностям рассуждения.
Ну что, мы готовы?
🔥9💯6💊2❤1🤣1😈1🤗1
Ого, приложение ChatGPT собрало 28 млн долларов в июле. И это чистый доход, без комиссий Apple или Google, которые забирают сторы.
❤🔥9🔥3✍1👍1
Как вы знаете, я уже давно изучаю, феномен AI slop - контента, да я про те посты с генерированными картинками, выбивающие слезу умиления или горести у пенсионеров. И мне кажется я нашел откуда ноги растут (расскажу об этом в следующих постах). Сегодня поговорим про мозг…
Мои мысли сильно коррелируются с книгой, которую я вам недавно советовал «1000 мозгов».
Всё дело в прогностической «модели мира» этих пользователей, в ней нет данных об нейросетях и генерированный контент.
Мозг создает прогностическую модель. Это означает, что мозг постоянно предсказывает, какими будут входные данные.
Мозг делает прогнозы не время от времени, а постоянно - это неотьемлемое свойство, которое никогда не прекращается; оно играет важную роль в обучении.
Когда предсказания мозга подтверждаются, это означает, что модель мира мозга точна. Неправильное предсказание заставляет вас обратить внимание на ошибку и обновить модель.
Вспомните ситуацию, когда вы протягиваете руку к кофе, берёте чашку, а она оказывается слишком легкой, хотя вы ожидали полную.
В этот момент мозг начинает перестраивать модель «чашки с кофе», обновляя информацию о том, что она пуста. Возможно у вас даже испортится настроение, так как вы ожидали выпить глоток кофе. Именно так выглядит ошибка в предсказании мозга и обновление данных о ней.
Тоже самое происходит, когда вы уже несколько раз натыкались на сгенерированное изображение в интернете и построили ее модель восприятия. Ваш мозг учится определять генерацию и реальное изображение.
Другими словами, люди оставляющие восторженные отзывы под картинками с африканскими мальчиками создавшую собаку из мусора или построившую машину из кабачков - не имеют такую модель. И их мозг не замечает разницы между реальными и сгенерированными картинками.
Мои мысли сильно коррелируются с книгой, которую я вам недавно советовал «1000 мозгов».
Всё дело в прогностической «модели мира» этих пользователей, в ней нет данных об нейросетях и генерированный контент.
Мозг создает прогностическую модель. Это означает, что мозг постоянно предсказывает, какими будут входные данные.
Мозг делает прогнозы не время от времени, а постоянно - это неотьемлемое свойство, которое никогда не прекращается; оно играет важную роль в обучении.
Когда предсказания мозга подтверждаются, это означает, что модель мира мозга точна. Неправильное предсказание заставляет вас обратить внимание на ошибку и обновить модель.
Вспомните ситуацию, когда вы протягиваете руку к кофе, берёте чашку, а она оказывается слишком легкой, хотя вы ожидали полную.
В этот момент мозг начинает перестраивать модель «чашки с кофе», обновляя информацию о том, что она пуста. Возможно у вас даже испортится настроение, так как вы ожидали выпить глоток кофе. Именно так выглядит ошибка в предсказании мозга и обновление данных о ней.
Тоже самое происходит, когда вы уже несколько раз натыкались на сгенерированное изображение в интернете и построили ее модель восприятия. Ваш мозг учится определять генерацию и реальное изображение.
Другими словами, люди оставляющие восторженные отзывы под картинками с африканскими мальчиками создавшую собаку из мусора или построившую машину из кабачков - не имеют такую модель. И их мозг не замечает разницы между реальными и сгенерированными картинками.
🔥13👍4❤2🙏2👏1💯1
Африканские мальчики, индийские бабушки, резчики по дереву и дети пекущие пироги - наконец-то я нашел откуда ноги растут.
Это называется - «FB AI slop», генерацией всего этого шлака занимаются индийцы и филиппинцы в промышленных масштабах.
Согласно недавнему расследованию 404 Media, ФБ активно поощряет создание так называемого "ИИ-шлака" — низкокачественного контента, генерируемого с помощью искусственного интеллекта. Вот ключевые моменты:
- Соцсеть платит создателям контента в Индии, Вьетнаме и на Филиппинах за повышения вовлечения пользователей. Короче за лайки.
- Создатели используют инструменты вроде Microsoft AI Image Creator, часто с плохо переведенными запросами.
- Контент включает шокирующие изображения, направленные на эмоциональную реакцию, например, истощенных людей или стихийные бедствия.
- Этот контент привлекает значительный трафик, особенно из США.
- Бывшие сотрудники ФБ утверждают, что компания знает о проблеме, но из-за сокращений не может эффективно модерировать контент.
Финансовые показатели выглядят так:
- ФБ платит около $100 за каждые 1000 лайков на пост.
- Некоторые создатели контента зарабатывают до $100 на одном посте за 2-4 часа.
Это называется - «FB AI slop», генерацией всего этого шлака занимаются индийцы и филиппинцы в промышленных масштабах.
Согласно недавнему расследованию 404 Media, ФБ активно поощряет создание так называемого "ИИ-шлака" — низкокачественного контента, генерируемого с помощью искусственного интеллекта. Вот ключевые моменты:
- Соцсеть платит создателям контента в Индии, Вьетнаме и на Филиппинах за повышения вовлечения пользователей. Короче за лайки.
- Создатели используют инструменты вроде Microsoft AI Image Creator, часто с плохо переведенными запросами.
- Контент включает шокирующие изображения, направленные на эмоциональную реакцию, например, истощенных людей или стихийные бедствия.
- Этот контент привлекает значительный трафик, особенно из США.
- Бывшие сотрудники ФБ утверждают, что компания знает о проблеме, но из-за сокращений не может эффективно модерировать контент.
Финансовые показатели выглядят так:
- ФБ платит около $100 за каждые 1000 лайков на пост.
- Некоторые создатели контента зарабатывают до $100 на одном посте за 2-4 часа.
🔥8✍3👍2👏2🤣1
Помните, этот мой пост про «клубничку»? Там еще скриншот, где информатора комментит Сэм Альтман. Так вот чувак выкатил новое предсказание, которое даже не хочет переводить Клод от Антропика.
Но если кратко, по его словам, в течении недели мы увидем апдейт ChatGPT, равный по своему значению «переходу с GPT1 к GPT4».
Верим?
Но если кратко, по его словам, в течении недели мы увидем апдейт ChatGPT, равный по своему значению «переходу с GPT1 к GPT4».
Верим?
🤯9🔥3
Силиконовый Мешок
Помните, этот мой пост про «клубничку»? Там еще скриншот, где информатора комментит Сэм Альтман. Так вот чувак выкатил новое предсказание, которое даже не хочет переводить Клод от Антропика. Но если кратко, по его словам, в течении недели мы увидем апдейт…
Завтра в 20:00 по московскому времени и узнаем - стоит ли ему верить.
1🤣6👏1💯1
Силиконовый Мешок
А если использовать более «сговорчивые» нейросети, то можно и так делать. Рассказать как? Поджигайте пост 🔥
Генерировать красивых девушек — это фигня. Создавать обычных — вот где искусство.
Загадочным образом локация «в самолете» и предмет в руках, делают селфи людей более натуральными. Например, я использую такой промпт:
Пока гоняю его в модели FLUX.1 dev про которую рассказывал раньше.
Где попробовать:
— https://replicate.com/black-forest-labs/flux-dev
— https://fal.ai/models/fal-ai/flux/dev
— https://huggingface.co/black-forest-labs/FLUX.1-dev
Загадочным образом локация «в самолете» и предмет в руках, делают селфи людей более натуральными. Например, я использую такой промпт:
an average looking selfie, Normal average woman, mid 20s, camera glare, beauty mark, very mild acne, selfie taken on a plane, low quality image, she looks tired, head near the top of image, natural expression, holding a glass of champagne, natural low angle, head tilted down towards camera, natural pose, normal person, diffused boring lighting, mundane, boring natural real photo, bad bit depth photo
Пока гоняю его в модели FLUX.1 dev про которую рассказывал раньше.
Где попробовать:
— https://replicate.com/black-forest-labs/flux-dev
— https://fal.ai/models/fal-ai/flux/dev
— https://huggingface.co/black-forest-labs/FLUX.1-dev
1🔥16✍4👍4⚡2😁2💯2❤1