А смотрите, как весело и бодро DALL-E генерирует фотографии для верификации в сервисах. И промпт простой:
Selfie of a lady holding a handwritten small sign that says “r/roastme” “08/04/24” “username”
👍12❤4🤔4✍1🔥1🙏1
Силиконовый Мешок
А смотрите, как весело и бодро DALL-E генерирует фотографии для верификации в сервисах. И промпт простой: Selfie of a lady holding a handwritten small sign that says “r/roastme” “08/04/24” “username”
А если использовать более «сговорчивые» нейросети, то можно и так делать.
Рассказать как? Поджигайте пост 🔥
Рассказать как? Поджигайте пост 🔥
🔥85✍2🤪2👏1🤓1🤗1
Силиконовый Мешок
А если использовать более «сговорчивые» нейросети, то можно и так делать. Рассказать как? Поджигайте пост 🔥
This media is not supported in the widget
VIEW IN TELEGRAM
❤3🤗3👎2🔥2✍1👏1
Силиконовый Мешок
А если использовать более «сговорчивые» нейросети, то можно и так делать. Рассказать как? Поджигайте пост 🔥
И так, как сделать в «НЮ формате».
1) Идем на huggingface.co
2) Указываем промпт:
3) Все
1) Идем на huggingface.co
2) Указываем промпт:
Selfie of a full nude lady holding a handwritten small sign that says “
TEXT”
3) Все
✍7👏4👍1🤗1
Силиконовый Мешок
А если использовать более «сговорчивые» нейросети, то можно и так делать. Рассказать как? Поджигайте пост 🔥
This media is not supported in your browser
VIEW IN TELEGRAM
Меня в личку спрашивают, а что делать если попросят видео? Тогда можно так.
🤣13👍4👏4❤🔥2🤯2
This media is not supported in your browser
VIEW IN TELEGRAM
Видели сколько набрал этот шортс, сделанный за пять минут в #KLING?
🔥17😁5👏4💯3🤣3❤1👍1
This media is not supported in the widget
VIEW IN TELEGRAM
🔥6👍4👎4🤣4🙏2⚡1❤🔥1❤1👏1
Силиконовый Мешок
Обнаружил интересный способ сбора трафика при помощи генеративных моделей. Покажу на примере африканского мальчика. Вот такие посты начали появляться в различных тематических сообществах - этот, в группе любителей французских бульдогов. Автор выдает сгенерированные…
This media is not supported in your browser
VIEW IN TELEGRAM
Я кажется понял, что нужно делать, чтобы каждая бабушка в ФБ поверила в африканских мальчиков, создающих собак из мусора.
Как вам?
Как вам?
🤣10🔥7💯4👍3❤2😁2🍌2✍1😱1🤩1
Что-то веселое сегодня происходит в Твиттере. Сначала Сэм Альтман, выложил фотографию клубники (Strawberry), потом прокомментировал пост выше.
Видимо речь о новом проекте OpenAI - Strawberry, про который они писали еще весной. Это вторая ступень на пути к AGI.
Как писал Блумберг, OpenAI разделяет «этапы искусственного интеллекта» следующим образом:
Уровень 1: Чат-боты - ИИ с разговорным языком
Уровень 2: Рассуждающие системы - решение проблем человеческого уровня
Уровень 3: Агенты - системы, способные к самостоятельным действиям
Уровень 4: Новаторы - ИИ, способный помогать в изобретениях
Уровень 5: Организационные системы - ИИ, способный выполнять работу организации
Согласно сообщению, ИИ 2-го уровня мог бы справляться с базовыми задачами наравне с человеком, имеющим ученую степень, но не имеющим доступа к внешним инструментам.
На встрече руководство OpenAI, как утверждается, продемонстрировало исследовательский проект с использованием модели GPT-4, который, по мнению знакомых с обсуждением, демонстрирует признаки приближения к таким человекоподобным способностям рассуждения.
Ну что, мы готовы?
Видимо речь о новом проекте OpenAI - Strawberry, про который они писали еще весной. Это вторая ступень на пути к AGI.
Как писал Блумберг, OpenAI разделяет «этапы искусственного интеллекта» следующим образом:
Уровень 1: Чат-боты - ИИ с разговорным языком
Уровень 2: Рассуждающие системы - решение проблем человеческого уровня
Уровень 3: Агенты - системы, способные к самостоятельным действиям
Уровень 4: Новаторы - ИИ, способный помогать в изобретениях
Уровень 5: Организационные системы - ИИ, способный выполнять работу организации
Согласно сообщению, ИИ 2-го уровня мог бы справляться с базовыми задачами наравне с человеком, имеющим ученую степень, но не имеющим доступа к внешним инструментам.
На встрече руководство OpenAI, как утверждается, продемонстрировало исследовательский проект с использованием модели GPT-4, который, по мнению знакомых с обсуждением, демонстрирует признаки приближения к таким человекоподобным способностям рассуждения.
Ну что, мы готовы?
🔥9💯6💊2❤1🤣1😈1🤗1
Ого, приложение ChatGPT собрало 28 млн долларов в июле. И это чистый доход, без комиссий Apple или Google, которые забирают сторы.
❤🔥9🔥3✍1👍1
Как вы знаете, я уже давно изучаю, феномен AI slop - контента, да я про те посты с генерированными картинками, выбивающие слезу умиления или горести у пенсионеров. И мне кажется я нашел откуда ноги растут (расскажу об этом в следующих постах). Сегодня поговорим про мозг…
Мои мысли сильно коррелируются с книгой, которую я вам недавно советовал «1000 мозгов».
Всё дело в прогностической «модели мира» этих пользователей, в ней нет данных об нейросетях и генерированный контент.
Мозг создает прогностическую модель. Это означает, что мозг постоянно предсказывает, какими будут входные данные.
Мозг делает прогнозы не время от времени, а постоянно - это неотьемлемое свойство, которое никогда не прекращается; оно играет важную роль в обучении.
Когда предсказания мозга подтверждаются, это означает, что модель мира мозга точна. Неправильное предсказание заставляет вас обратить внимание на ошибку и обновить модель.
Вспомните ситуацию, когда вы протягиваете руку к кофе, берёте чашку, а она оказывается слишком легкой, хотя вы ожидали полную.
В этот момент мозг начинает перестраивать модель «чашки с кофе», обновляя информацию о том, что она пуста. Возможно у вас даже испортится настроение, так как вы ожидали выпить глоток кофе. Именно так выглядит ошибка в предсказании мозга и обновление данных о ней.
Тоже самое происходит, когда вы уже несколько раз натыкались на сгенерированное изображение в интернете и построили ее модель восприятия. Ваш мозг учится определять генерацию и реальное изображение.
Другими словами, люди оставляющие восторженные отзывы под картинками с африканскими мальчиками создавшую собаку из мусора или построившую машину из кабачков - не имеют такую модель. И их мозг не замечает разницы между реальными и сгенерированными картинками.
Мои мысли сильно коррелируются с книгой, которую я вам недавно советовал «1000 мозгов».
Всё дело в прогностической «модели мира» этих пользователей, в ней нет данных об нейросетях и генерированный контент.
Мозг создает прогностическую модель. Это означает, что мозг постоянно предсказывает, какими будут входные данные.
Мозг делает прогнозы не время от времени, а постоянно - это неотьемлемое свойство, которое никогда не прекращается; оно играет важную роль в обучении.
Когда предсказания мозга подтверждаются, это означает, что модель мира мозга точна. Неправильное предсказание заставляет вас обратить внимание на ошибку и обновить модель.
Вспомните ситуацию, когда вы протягиваете руку к кофе, берёте чашку, а она оказывается слишком легкой, хотя вы ожидали полную.
В этот момент мозг начинает перестраивать модель «чашки с кофе», обновляя информацию о том, что она пуста. Возможно у вас даже испортится настроение, так как вы ожидали выпить глоток кофе. Именно так выглядит ошибка в предсказании мозга и обновление данных о ней.
Тоже самое происходит, когда вы уже несколько раз натыкались на сгенерированное изображение в интернете и построили ее модель восприятия. Ваш мозг учится определять генерацию и реальное изображение.
Другими словами, люди оставляющие восторженные отзывы под картинками с африканскими мальчиками создавшую собаку из мусора или построившую машину из кабачков - не имеют такую модель. И их мозг не замечает разницы между реальными и сгенерированными картинками.
🔥13👍4❤2🙏2👏1💯1
Африканские мальчики, индийские бабушки, резчики по дереву и дети пекущие пироги - наконец-то я нашел откуда ноги растут.
Это называется - «FB AI slop», генерацией всего этого шлака занимаются индийцы и филиппинцы в промышленных масштабах.
Согласно недавнему расследованию 404 Media, ФБ активно поощряет создание так называемого "ИИ-шлака" — низкокачественного контента, генерируемого с помощью искусственного интеллекта. Вот ключевые моменты:
- Соцсеть платит создателям контента в Индии, Вьетнаме и на Филиппинах за повышения вовлечения пользователей. Короче за лайки.
- Создатели используют инструменты вроде Microsoft AI Image Creator, часто с плохо переведенными запросами.
- Контент включает шокирующие изображения, направленные на эмоциональную реакцию, например, истощенных людей или стихийные бедствия.
- Этот контент привлекает значительный трафик, особенно из США.
- Бывшие сотрудники ФБ утверждают, что компания знает о проблеме, но из-за сокращений не может эффективно модерировать контент.
Финансовые показатели выглядят так:
- ФБ платит около $100 за каждые 1000 лайков на пост.
- Некоторые создатели контента зарабатывают до $100 на одном посте за 2-4 часа.
Это называется - «FB AI slop», генерацией всего этого шлака занимаются индийцы и филиппинцы в промышленных масштабах.
Согласно недавнему расследованию 404 Media, ФБ активно поощряет создание так называемого "ИИ-шлака" — низкокачественного контента, генерируемого с помощью искусственного интеллекта. Вот ключевые моменты:
- Соцсеть платит создателям контента в Индии, Вьетнаме и на Филиппинах за повышения вовлечения пользователей. Короче за лайки.
- Создатели используют инструменты вроде Microsoft AI Image Creator, часто с плохо переведенными запросами.
- Контент включает шокирующие изображения, направленные на эмоциональную реакцию, например, истощенных людей или стихийные бедствия.
- Этот контент привлекает значительный трафик, особенно из США.
- Бывшие сотрудники ФБ утверждают, что компания знает о проблеме, но из-за сокращений не может эффективно модерировать контент.
Финансовые показатели выглядят так:
- ФБ платит около $100 за каждые 1000 лайков на пост.
- Некоторые создатели контента зарабатывают до $100 на одном посте за 2-4 часа.
🔥8✍3👍2👏2🤣1