Новый Advanced Voice mode в ChatGPT
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
❤18 8👍4👾1
Google обновила Gemini 2.5 Pro (Preview)
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
🔥19
Media is too big
VIEW IN TELEGRAM
Elevenlabs выкатила text-to-speech модель Eleven v3 (alpha)
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
🔥43
Media is too big
VIEW IN TELEGRAM
AGI может и не случиться
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
👍14❤8👾2👨💻1
Наконец-то выкатили обновление Advanced Voice в ChatGPT
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.
1🔥37❤4
Сбой у OpenAI длится уже больше 7 часов.
Затронуло и API и ChatGPT. И это уже не первый такой глобальный сбой в этом году😭
Вайб: когда 30% кода в компании написано с помощью AI 😅
Затронуло и API и ChatGPT. И это уже не первый такой глобальный сбой в этом году
Вайб: когда 30% кода в компании написано с помощью AI 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
😭31 4
OpenAI выкатила o3-pro
Это самая мощная в своей линейке reasoning-моделей. Она уже доступна в ChatGPT Pro, Team и API.
Что умеет o3-pro:
— Лучше решает задачи по науке, коду, бизнесу и обучению
— Лучшая по всем метрикам по сравнению с o3
— Умеет использовать все инструменты: Python, файлы, веб, визуальный ввод
Цены в API:
— o3-pro: $20 за 1M токенов на вход, $80 — на выход
— обычную o3 удешевили на 80%: теперь $2 / $8 (на уровне GPT-4.1)
Теперь понятно, почему вчера у OpenAI всё лежало: катили нового монстра🐰
Это самая мощная в своей линейке reasoning-моделей. Она уже доступна в ChatGPT Pro, Team и API.
Что умеет o3-pro:
— Лучше решает задачи по науке, коду, бизнесу и обучению
— Лучшая по всем метрикам по сравнению с o3
— Умеет использовать все инструменты: Python, файлы, веб, визуальный ввод
Цены в API:
— o3-pro: $20 за 1M токенов на вход, $80 — на выход
— обычную o3 удешевили на 80%: теперь $2 / $8 (на уровне GPT-4.1)
Теперь понятно, почему вчера у OpenAI всё лежало: катили нового монстра
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17
OpenAI теперь и на Google Cloud
Кажется, конкуренция конкуренцией, а вычислительные мощности по расписанию (текущих от Microsoft не хватает, вчера снова был глобальный сбой). OpenAI договорились с Google и будут использовать их Google Cloud для своих моделей. Раньше вся нагрузка лежала на Microsoft, теперь мощности начали распределять.
Что известно:
– Сделку закрыли в мае
– Переговоры шли несколько месяцев (мешали условия с Microsoft)
– У OpenAI выросли запросы на обучение и запуск моделей, одной Azure уже мало
– Для Google это большая победа, особенно на фоне того, что ChatGPT “ест” их поисковик
– Параллельно OpenAI строят дата-центр Stargate и пилят собственные чипы, чтобы меньше зависеть от партнёров
Акции Google уже пошли вверх. И да, Google снова себя прекрасно ощущает и сумела выправить курс (Apple учись!).
Кажется, конкуренция конкуренцией, а вычислительные мощности по расписанию (текущих от Microsoft не хватает, вчера снова был глобальный сбой). OpenAI договорились с Google и будут использовать их Google Cloud для своих моделей. Раньше вся нагрузка лежала на Microsoft, теперь мощности начали распределять.
Что известно:
– Сделку закрыли в мае
– Переговоры шли несколько месяцев (мешали условия с Microsoft)
– У OpenAI выросли запросы на обучение и запуск моделей, одной Azure уже мало
– Для Google это большая победа, особенно на фоне того, что ChatGPT “ест” их поисковик
– Параллельно OpenAI строят дата-центр Stargate и пилят собственные чипы, чтобы меньше зависеть от партнёров
Акции Google уже пошли вверх. И да, Google снова себя прекрасно ощущает и сумела выправить курс (Apple учись!).
❤20🔥5👾1
Хватит хейтить Apple [никто и не хейтит] — давайте по делу. Что “эйайного” подвезли на WWDC
Начнём с XCode (обожаю его если честно). Xcode теперь с полноценной AI-интеграцией и теперь будет еще больше приложений в App Store от вайб-разработчиков (йеееха!):
– Встроенный ассистент: можно выбрать ChatGPT или подключить свою модель как облачную, так и локальную (через Ollama и LM Studio).
– Ассистент понимает контекст проекта, учитывает историю переписки, помогает писать, править, объяснять и документировать код.
– Генерирует фичи, меняет логику, предлагает улучшения, может создавать playground’ы и SwiftUI-превью для тестов.
– При ошибках предлагает исправления прямо в редакторе.
– Может автоматически добавлять комментарии к классам, методам и параметрам.
– Есть история взаимодействий: можно откатиться к любому предыдущему состоянию или восстановить нужный шаг. Работает поверх git (кайф же!).
– Поддержка кастомных моделей и ключей API: можно подключить свою модель через OpenAI или другого провайдера (например Claude от Anthropic).
– Судя по информации в сети, на бесплатном тарифе 20-25 запросов в день к ChatGPT (оф. данных не нашел). Поэтому только свой API ключ и сжигать деньги на вайбе.
Кайфовое обновелние для XCode? Определенно да, и оно мне нравится!
Детальнее можно почитать тут
Начнём с XCode (обожаю его если честно). Xcode теперь с полноценной AI-интеграцией и теперь будет еще больше приложений в App Store от вайб-разработчиков (йеееха!):
– Встроенный ассистент: можно выбрать ChatGPT или подключить свою модель как облачную, так и локальную (через Ollama и LM Studio).
– Ассистент понимает контекст проекта, учитывает историю переписки, помогает писать, править, объяснять и документировать код.
– Генерирует фичи, меняет логику, предлагает улучшения, может создавать playground’ы и SwiftUI-превью для тестов.
– При ошибках предлагает исправления прямо в редакторе.
– Может автоматически добавлять комментарии к классам, методам и параметрам.
– Есть история взаимодействий: можно откатиться к любому предыдущему состоянию или восстановить нужный шаг. Работает поверх git (кайф же!).
– Поддержка кастомных моделей и ключей API: можно подключить свою модель через OpenAI или другого провайдера (например Claude от Anthropic).
– Судя по информации в сети, на бесплатном тарифе 20-25 запросов в день к ChatGPT (оф. данных не нашел). Поэтому только свой API ключ и сжигать деньги на вайбе.
Кайфовое обновелние для XCode? Определенно да, и оно мне нравится!
Детальнее можно почитать тут
🔥18❤8 2🤣1
Foundation Models API от Apple
Apple выкатили API для Foundation Models (beta) для всех разработчиков. Наконец-то можно делать AI-приложения, только без геморроя с серверами и оплатой токенов. Всё работает прямо на устройстве. Давайте разбираться:
Что такое Foundation Models
– Это большая языковая модель, та же, что лежит в основе Apple Intelligence (Siri работает на её мощах), только теперь доступна через специальный API.
– Модель полностью крутится на устройстве, не уходит в облако, работает быстро и приватно (только на новых чипах — A17, M1 и выше).
– Никаких ключей, серверов и подписок. Всё для девелоперов бесплатно.
Что умеет
– Генерировать текст, писать и переписывать, делать резюме, отвечать на вопросы, вести диалоги — всё как у GPT, но у тебя в приложении.
– Есть “guided generation” — можно управлять стилем и форматом вывода (например, просить отвечать только списком или в стиле Твиттера).
– Tool calling: модель сама может вызывать функции твоего приложения, если не может что-то сделать (например, подсчитать что-то, перевести валюту, отправить письмо). Просто регистрируешь функции и модель их использует по ситуации.
– Всё через Swift в 2–3 строчки кода и можно получить генеративный ответ.
Как это интегрировать
– Импортируешь Foundation Models framework, создаёшь запрос к модели, получаешь результат.
– Можно использовать для любого NLP-сценария: персональный ассистент, креативщик, анализатор контента, чат-бот, генерация квизов, написание статей и т.д.
Почему это важно
– Все данные пользователя остаются на устройстве. Можно сделать реально приватное AI-приложение, не объясняясь ни с кем про GDPR.
– Нет лимитов и затрат, твоя генерация бесплатная, хочешь миллион токенов в день? Пожалуйста.
– Есть поддержка tool calling — теперь можно делать AI-агентов, которые реально что-то делают, а не просто болтают.
– Интеграция максимально простая: реально любой, кто писал на Swift, разберётся.
Ограничения и детали
– Работает только на новых устройствах (iPhone 15 Pro+, iPhone 16, все Mac на M1+).
– Название модели не раскрывают (видимо, что-то около 10–20B параметров, сжато для Neural Engine).
– Если чего-то не хватает, можно “звать” внешнюю модель через API (тот же ChatGPT), Apple не ограничивает.
Apple выкатили API для Foundation Models (beta) для всех разработчиков. Наконец-то можно делать AI-приложения, только без геморроя с серверами и оплатой токенов. Всё работает прямо на устройстве. Давайте разбираться:
Что такое Foundation Models
– Это большая языковая модель, та же, что лежит в основе Apple Intelligence (Siri работает на её мощах), только теперь доступна через специальный API.
– Модель полностью крутится на устройстве, не уходит в облако, работает быстро и приватно (только на новых чипах — A17, M1 и выше).
– Никаких ключей, серверов и подписок. Всё для девелоперов бесплатно.
Что умеет
– Генерировать текст, писать и переписывать, делать резюме, отвечать на вопросы, вести диалоги — всё как у GPT, но у тебя в приложении.
– Есть “guided generation” — можно управлять стилем и форматом вывода (например, просить отвечать только списком или в стиле Твиттера).
– Tool calling: модель сама может вызывать функции твоего приложения, если не может что-то сделать (например, подсчитать что-то, перевести валюту, отправить письмо). Просто регистрируешь функции и модель их использует по ситуации.
– Всё через Swift в 2–3 строчки кода и можно получить генеративный ответ.
Как это интегрировать
– Импортируешь Foundation Models framework, создаёшь запрос к модели, получаешь результат.
– Можно использовать для любого NLP-сценария: персональный ассистент, креативщик, анализатор контента, чат-бот, генерация квизов, написание статей и т.д.
Почему это важно
– Все данные пользователя остаются на устройстве. Можно сделать реально приватное AI-приложение, не объясняясь ни с кем про GDPR.
– Нет лимитов и затрат, твоя генерация бесплатная, хочешь миллион токенов в день? Пожалуйста.
– Есть поддержка tool calling — теперь можно делать AI-агентов, которые реально что-то делают, а не просто болтают.
– Интеграция максимально простая: реально любой, кто писал на Swift, разберётся.
Ограничения и детали
– Работает только на новых устройствах (iPhone 15 Pro+, iPhone 16, все Mac на M1+).
– Название модели не раскрывают (видимо, что-то около 10–20B параметров, сжато для Neural Engine).
– Если чего-то не хватает, можно “звать” внешнюю модель через API (тот же ChatGPT), Apple не ограничивает.
🔥21❤9👍4🤣1
Кстати, Apple обновила Shortcuts и добавила поддержку AI в сценариях
Теперь можно в автоматизациях добавить шаг с обращением к AI. Можно обращаться как к локальному Apple Intelligence, так и внешнему ChatGPT, но только по вашему API-ключу.
Раньше, чтобы обратиться к ChatGPT API в шорткатах нужно было дофига заморочиться, формировать http запрос и парсинг ответа, а теперь всё это из коробки. Кайф!
Плюс появились готовые действия: изменить тон текста, сделать из текста список, превратить текст в таблицу, исправить ошибки, переписать, сделать саммари, выбрать модель для обработки.
Кто увлекается автоматизацией через шорткаты, точно зайдёт такое обновление.
Теперь можно в автоматизациях добавить шаг с обращением к AI. Можно обращаться как к локальному Apple Intelligence, так и внешнему ChatGPT, но только по вашему API-ключу.
Раньше, чтобы обратиться к ChatGPT API в шорткатах нужно было дофига заморочиться, формировать http запрос и парсинг ответа, а теперь всё это из коробки. Кайф!
Плюс появились готовые действия: изменить тон текста, сделать из текста список, превратить текст в таблицу, исправить ошибки, переписать, сделать саммари, выбрать модель для обработки.
Кто увлекается автоматизацией через шорткаты, точно зайдёт такое обновление.
❤17🤣2
Projects в ChatGPT обновили и улучшили
- Поддержка Deep research и голосового режима в проектах
- Поддерживается память между чатами в проекте
- Наконец-то можно шейрить чаты из проектов
- Можно создавать новые проекты прямо из чатов (разве этого не было?)
- В мобильном приложении можно загружать файлы и переключать модели
Почему-то мне казалось, что часть этого списка и так было. Но видимо показалось!
И сразу вопрос: как часто пользуетесь проектами в чатике?
- Поддержка Deep research и голосового режима в проектах
- Поддерживается память между чатами в проекте
- Наконец-то можно шейрить чаты из проектов
- Можно создавать новые проекты прямо из чатов (разве этого не было?)
- В мобильном приложении можно загружать файлы и переключать модели
Почему-то мне казалось, что часть этого списка и так было. Но видимо показалось!
И сразу вопрос: как часто пользуетесь проектами в чатике?
❤17
Codex теперь может предлагать сразу несколько вариантов решения одной задачи.
Удобно, чтобы сравнить подходы и выбрать лучший. Можно посмотреть все ответы рядом и быстро решить, какой из них ближе к цели. Эта функция экономит время и помогает находить более точные решения.
Я думал мы стремимся к полной автономности и IQ 1000 у AI ботов, но пока компании перекладывают решения на плечи кожаных, типа сами решайте. Как будто пошел на Stackoverflow и сам выбираешь какое из решенийрабочее тебе нравится.
Кстати, не факт что хоть одно из предложенных решений от Codex будет рабочим!
Удобно, чтобы сравнить подходы и выбрать лучший. Можно посмотреть все ответы рядом и быстро решить, какой из них ближе к цели. Эта функция экономит время и помогает находить более точные решения.
Я думал мы стремимся к полной автономности и IQ 1000 у AI ботов, но пока компании перекладывают решения на плечи кожаных, типа сами решайте. Как будто пошел на Stackoverflow и сам выбираешь какое из решений
Кстати, не факт что хоть одно из предложенных решений от Codex будет рабочим!
❤14
Китайцы молодцы!
Если раньше они пытались достать чипы Nvidia через серые схемы, то теперь решили действовать наоборот — не ввозить железо, а вывозить данные.
WSJ раскопал шикарную историю. Что делают китайские компании под жесткими ограничениями на чипы? Не ноют, не жалуются. Четверо инженеров из Китая прилетели в Малайзию. У каждого в багаже — по 15 жёстких дисков по 80 ТБ (чтобы не спалиться на таможне). Всего почти 5 петабайт. Всё это чтобы обучать модели за пределами досягаемости американского контроля.
Передавать такое по сети долго и палевно. А так, чемодан, самолёт, здравствуйте, Куала-Лумпур.
На месте арендуют 300 серверов с Nvidia-чипами, и вперёд: модели обучаются, Китай догоняет и перегоняет. А что США? США просят Малайзию "мониторить каждую поставку", но когда у тебя в руках чемодан с дисками и туристическая виза — это уже не экспорт, это квест «кто кого переиграет».
Ну до чего изящная схема! Работает? Да. Обходят ли санкции? Тоже да. Обучение выходит дороже и сложнее, но Китай не сдаётся. Их модели дешевле западных, а по качеству не уступают.
Учимся у восточных мастеров!
Если раньше они пытались достать чипы Nvidia через серые схемы, то теперь решили действовать наоборот — не ввозить железо, а вывозить данные.
WSJ раскопал шикарную историю. Что делают китайские компании под жесткими ограничениями на чипы? Не ноют, не жалуются. Четверо инженеров из Китая прилетели в Малайзию. У каждого в багаже — по 15 жёстких дисков по 80 ТБ (чтобы не спалиться на таможне). Всего почти 5 петабайт. Всё это чтобы обучать модели за пределами досягаемости американского контроля.
Передавать такое по сети долго и палевно. А так, чемодан, самолёт, здравствуйте, Куала-Лумпур.
На месте арендуют 300 серверов с Nvidia-чипами, и вперёд: модели обучаются, Китай догоняет и перегоняет. А что США? США просят Малайзию "мониторить каждую поставку", но когда у тебя в руках чемодан с дисками и туристическая виза — это уже не экспорт, это квест «кто кого переиграет».
Ну до чего изящная схема! Работает? Да. Обходят ли санкции? Тоже да. Обучение выходит дороже и сложнее, но Китай не сдаётся. Их модели дешевле западных, а по качеству не уступают.
Учимся у восточных мастеров!
❤27🤣20👍7🔥4👾3
This media is not supported in your browser
VIEW IN TELEGRAM
Где тут AI видео?
Нарезка из видео, на каждое у вас несколько секунд чтобы сделать выбор где AI, а где реальное.
Сходу уже сложно определить где реальное. Что нас ждет через год?😃
Угадали хоть одно? По каким признакам?
Нарезка из видео, на каждое у вас несколько секунд чтобы сделать выбор где AI, а где реальное.
Сходу уже сложно определить где реальное. Что нас ждет через год?
Угадали хоть одно? По каким признакам?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20 3
Forwarded from Радиорубка Лихачёва
Исследование: люди тупеют от использования LLM, но работают лучше
Я использую их уже два года, поэтому этот заголовок — всё, на что меня хватило.
Учёные из MIT на днях опубликовали исследование влияния LLM на когнитивные способности человека. Если кратко, то они давали задания написать эссе трём группам людей: одни могли для этого пользоваться поисковиком, другие — нейросетью, а третьи — только собственным умом.
Но самое интересное — это, что после написания эссе его нужно было переписать, но на этот раз инструменты меняли: тем, кто использовал только мозг, давали в помощь нейросеть, и наоборот — отнимали нейросеть и заставляли думать самому. В процессе замеряли активность мозга через ЭЭГ, брали интервью и оценивали качество выполненного задания с помощью как судей, так и специально написанного ИИ.
Ожидаемо, даже на ЭЭГ уже были видны различия в активности мозга в этих трёх группах. Те, кто сначала думал, а потом переписывал нейросеткой, показали более высокие уровни мозговой активности, но они падали во время использования нейросети, а ещё они поначалу были явно менее довольны тем, что у них получается (напрягали мозг, но страдали).
А вот те, кто использовал LLM с самого начала, даже не могли особо процитировать свои эссе, и при переписывании уже особо не напрягали свой мозг. При этом конечные оценки по эссе у них более высокие: и ИИ, и человеческое жюри оценивали их как технически более совершенные, но живые люди чаще считали их «бездушными».
Работа очень большая (около 150 страниц) и там много интересных наблюдений и психологических референсов: полезно для тех, кто работает над этим профессионально. А ещё прикольно, что в работе есть инструкция для LLM («Читай только содержание этой таблицы»), что круто, учитывая, что многие наверняка скачают и загрузят PDF с исследованием в нейросеть и попросят пересказать, а не прочитают его сами.
Накину ещё пару интересных фактов, которые смог выцепить своим обленившимся мозгом:
1. Даже поиск информации в интернете, к которому мы как человечество уже привыкли — задача нетривиальная и для разных людей имеет разный уровень сложности: кому-то легко проверить данные в нескольких источниках, а кто-то тыкает в первую ссылку и берёт оттуда то, что там написано. Мозг не любит сложные задачи, как никто не любит мешки ворочать, и когда на помощь приходит LLM, он ей склонен доверять, чем перепроверять.
2. Люди, которые пишут эссе, думая только своей головой, показали большую вариативность тем и подходов к написанию. А вот у тех, кто использовал нейросети, эссе получились более-менее одинаковые, гомогенные. Но и у пользователей поисковика всё не слава богу: они сильно подверглись тому, что прочитали по ссылкам в выдаче, которые зависели от выбранных ключевых слов в запросах, но также влияние тут оказали платные результаты поиска.
Думайте, господа.
Я использую их уже два года, поэтому этот заголовок — всё, на что меня хватило.
Учёные из MIT на днях опубликовали исследование влияния LLM на когнитивные способности человека. Если кратко, то они давали задания написать эссе трём группам людей: одни могли для этого пользоваться поисковиком, другие — нейросетью, а третьи — только собственным умом.
Но самое интересное — это, что после написания эссе его нужно было переписать, но на этот раз инструменты меняли: тем, кто использовал только мозг, давали в помощь нейросеть, и наоборот — отнимали нейросеть и заставляли думать самому. В процессе замеряли активность мозга через ЭЭГ, брали интервью и оценивали качество выполненного задания с помощью как судей, так и специально написанного ИИ.
Ожидаемо, даже на ЭЭГ уже были видны различия в активности мозга в этих трёх группах. Те, кто сначала думал, а потом переписывал нейросеткой, показали более высокие уровни мозговой активности, но они падали во время использования нейросети, а ещё они поначалу были явно менее довольны тем, что у них получается (напрягали мозг, но страдали).
А вот те, кто использовал LLM с самого начала, даже не могли особо процитировать свои эссе, и при переписывании уже особо не напрягали свой мозг. При этом конечные оценки по эссе у них более высокие: и ИИ, и человеческое жюри оценивали их как технически более совершенные, но живые люди чаще считали их «бездушными».
LLM, несомненно, снизил уровень усилий при поиске ответов на вопросы участников по сравнению с пользователями поисковика. Однако это удобство было достигнуто за счет когнитивных затрат, снизив склонность пользователей критически оценивать результаты или «мнения» LLM. Это подчеркивает тревожную эволюцию эффекта «эхо-камеры»: вместо того, чтобы исчезнуть, он адаптировался, чтобы формировать воздействие на пользователей через алгоритмически отборный контент. На то, что считается «лучшим», в конечном итоге влияют приоритеты владельцев LLM.
Лишь несколько участников интервью упомянули, что они не следовали «мышлению» LLM и следовали своей линии мышления и идеям. Что касается этических соображений, участники, которые были в группе «использовать только свой мозг», сообщили о более высокой удовлетворённости и продемонстрировали более высокую связность мозга по сравнению с другими группами. Эссе, написанные с помощью LLM, имели меньшее значение или ценность для участников (нарушение чувства собственности), поскольку они тратили меньше времени на написание и в большинстве случаев не приводили цитаты из этих эссе.
Работа очень большая (около 150 страниц) и там много интересных наблюдений и психологических референсов: полезно для тех, кто работает над этим профессионально. А ещё прикольно, что в работе есть инструкция для LLM («Читай только содержание этой таблицы»), что круто, учитывая, что многие наверняка скачают и загрузят PDF с исследованием в нейросеть и попросят пересказать, а не прочитают его сами.
Накину ещё пару интересных фактов, которые смог выцепить своим обленившимся мозгом:
1. Даже поиск информации в интернете, к которому мы как человечество уже привыкли — задача нетривиальная и для разных людей имеет разный уровень сложности: кому-то легко проверить данные в нескольких источниках, а кто-то тыкает в первую ссылку и берёт оттуда то, что там написано. Мозг не любит сложные задачи, как никто не любит мешки ворочать, и когда на помощь приходит LLM, он ей склонен доверять, чем перепроверять.
2. Люди, которые пишут эссе, думая только своей головой, показали большую вариативность тем и подходов к написанию. А вот у тех, кто использовал нейросети, эссе получились более-менее одинаковые, гомогенные. Но и у пользователей поисковика всё не слава богу: они сильно подверглись тому, что прочитали по ссылкам в выдаче, которые зависели от выбранных ключевых слов в запросах, но также влияние тут оказали платные результаты поиска.
Думайте, господа.
1👍19🔥9 3👾2❤1