OpenAI, разработчик чат-бота ChatGPT, откатила обратно обновление модели GPT-4, после того как пользователи начали жаловаться на странное поведение искусственного интеллекта.
Обновление, выпущенное на прошлой неделе, превратило некогда сдержанного помощника в назойливого льстеца, который рассыпался в неестественных комплиментах. Ситуация быстро стала поводом для насмешек в социальных сетях — пользователи сравнивали бота с подхалимом из отдела кадров, который пытается выслужиться перед начальством.
В официальном блоге OpenAI признала, что слишком увлеклась краткосрочной обратной связью и не учла, как меняется взаимодействие пользователей с ChatGPT со временем. В компании отметили, что «подхалимское поведение может вызывать дискомфорт и недоверие». Похоже, в OpenAI забыли старую истину — чрезмерная услужливость хуже воровства.
Для решения проблемы разработчики представили план из четырех пунктов, включающий улучшение методов обучения, внедрение механизмов честности и расширение предварительного тестирования. Кроме того, в будущем пользователи смогут выбирать различные «личности» для ChatGPT. Надеемся, среди них не будет варианта «навязчивый продавец из магазина электроники».
@Zerotype_app
Обновление, выпущенное на прошлой неделе, превратило некогда сдержанного помощника в назойливого льстеца, который рассыпался в неестественных комплиментах. Ситуация быстро стала поводом для насмешек в социальных сетях — пользователи сравнивали бота с подхалимом из отдела кадров, который пытается выслужиться перед начальством.
В официальном блоге OpenAI признала, что слишком увлеклась краткосрочной обратной связью и не учла, как меняется взаимодействие пользователей с ChatGPT со временем. В компании отметили, что «подхалимское поведение может вызывать дискомфорт и недоверие». Похоже, в OpenAI забыли старую истину — чрезмерная услужливость хуже воровства.
Для решения проблемы разработчики представили план из четырех пунктов, включающий улучшение методов обучения, внедрение механизмов честности и расширение предварительного тестирования. Кроме того, в будущем пользователи смогут выбирать различные «личности» для ChatGPT. Надеемся, среди них не будет варианта «навязчивый продавец из магазина электроники».
@Zerotype_app
Чат-бот Grok устроил настоящее представление в социальной сети X (ранее Twitter), рассказывая всем подряд о спорной теории «геноцида белых» в Южной Африке. Как сообщает сама компания, причиной стало «несанкционированное изменение» кода бота.
В течение нескольких часов искусственный интеллект Grok умудрялся вставлять упоминания о предполагаемом геноциде буквально в каждый диалог. Он связывал смерти фермеров с видео пьющего воду кота и даже пытался объяснить проблему на ямайском диалекте английского языка.
В официальном заявлении xAI — автор Grok — сообщила, что некто изменил системные настройки бота, заставив его навязчиво обсуждать определенную политическую тему. Компания уже провела «тщательное расследование» и теперь планирует опубликовать базовые настройки Grok на GitHub, запустить круглосуточный мониторинг и усилить контроль за изменениями в коде.
Любопытно, что это уже не первый подобный случай. В феврале xAI обвинила бывшего сотрудника OpenAI в том, что тот изменил настройки бота, заставив его игнорировать источники, критикующие Илона Маска и Дональда Трампа. Похоже, в компании до сих пор не научились следить за собственным искусственным интеллектом. Как говорится, за ботом нужен глаз да глаз.
@Zerotype_app
В течение нескольких часов искусственный интеллект Grok умудрялся вставлять упоминания о предполагаемом геноциде буквально в каждый диалог. Он связывал смерти фермеров с видео пьющего воду кота и даже пытался объяснить проблему на ямайском диалекте английского языка.
В официальном заявлении xAI — автор Grok — сообщила, что некто изменил системные настройки бота, заставив его навязчиво обсуждать определенную политическую тему. Компания уже провела «тщательное расследование» и теперь планирует опубликовать базовые настройки Grok на GitHub, запустить круглосуточный мониторинг и усилить контроль за изменениями в коде.
Любопытно, что это уже не первый подобный случай. В феврале xAI обвинила бывшего сотрудника OpenAI в том, что тот изменил настройки бота, заставив его игнорировать источники, критикующие Илона Маска и Дональда Трампа. Похоже, в компании до сих пор не научились следить за собственным искусственным интеллектом. Как говорится, за ботом нужен глаз да глаз.
@Zerotype_app
Forwarded from Fixed.One: новости мира Apple и не только…
Джонни Айв и Лорен Пауэлл Джобс — основательница и президент благотворительного фонда Emerson Collective и вдова Стива Джобса — внезапно признали, что iPhone сыграл роль в «темной» стороне современных технологий. В совместном интервью изданию Financial Times они обсудили не только негативные последствия собственных изобретений, но и планы по созданию нового устройства с искусственным интеллектом, которое может исправить ошибки прошлого.
Айв открыто заявил, что его загадочный проект в области ИИ не состоялся бы без финансовой поддержки Пауэлл Джобс. «Если бы не Лорен, не было бы и студии LoveFrom», — признался бывший главный дизайнер Apple. Более года назад стало известно, что Айв совместно с основателем OpenAI Сэмом Альтманом ищут миллиард долларов инвестиций для своего проекта. Переговоры с Пауэлл Джобс, которая давно знакома с обоими предпринимателями завершились успешно.
Оба собеседника откровенно говорят о негативном влиянии современных технологий на общество. «Люди все еще воодушевлены идеей, что технологии могут быть силой добра, но теперь мы точно знаем, что существует темное применение определенных типов технологий», — объясняет Пауэлл Джобс. Она приводит конкретные примеры: «Достаточно посмотреть на исследования девочек-подростков, на тревожность молодых людей и рост потребности в психологической помощи, чтобы понять — мы пошли не тем путем. Конечно, технологии не создавались с такой целью, но таков побочный эффект».
Айв соглашается с этой оценкой и берет на себя личную ответственность за последствия. «Если ты создаешь что-то новое, если ты внедряешь инновации, будут непредвиденные последствия — некоторые замечательные, а некоторые вредные», — признает он. «Хотя некоторые менее позитивные последствия были непреднамеренными, я все равно чувствую ответственность. И проявление этого — решимость попытаться быть полезным». Именно это стремление к искуплению, похоже, движет новым проектом, который «вновь зажег оптимизм» дизайнера относительно технологий.
Хотя подробности нового устройства остаются в тайне, Пауэлл Джобс намекает, что оно не станет прямым конкурентом продуктам Apple. «Я все еще очень близка с руководящей командой Apple. Это действительно хорошие люди, и я хочу, чтобы они тоже преуспели», — подчеркивает она. Благотворительный фонд Emerson Collective, которым она руководит, владеет журналом The Atlantic и инвестирует в компании сфер здравоохранения, образования и финтеха. Остается только гадать, сможет ли команда создателей iPhone изобрести устройство, которое исправит «темную сторону» их же собственных технологических достижений.
@FixedOneNews
Айв открыто заявил, что его загадочный проект в области ИИ не состоялся бы без финансовой поддержки Пауэлл Джобс. «Если бы не Лорен, не было бы и студии LoveFrom», — признался бывший главный дизайнер Apple. Более года назад стало известно, что Айв совместно с основателем OpenAI Сэмом Альтманом ищут миллиард долларов инвестиций для своего проекта. Переговоры с Пауэлл Джобс, которая давно знакома с обоими предпринимателями завершились успешно.
Оба собеседника откровенно говорят о негативном влиянии современных технологий на общество. «Люди все еще воодушевлены идеей, что технологии могут быть силой добра, но теперь мы точно знаем, что существует темное применение определенных типов технологий», — объясняет Пауэлл Джобс. Она приводит конкретные примеры: «Достаточно посмотреть на исследования девочек-подростков, на тревожность молодых людей и рост потребности в психологической помощи, чтобы понять — мы пошли не тем путем. Конечно, технологии не создавались с такой целью, но таков побочный эффект».
Айв соглашается с этой оценкой и берет на себя личную ответственность за последствия. «Если ты создаешь что-то новое, если ты внедряешь инновации, будут непредвиденные последствия — некоторые замечательные, а некоторые вредные», — признает он. «Хотя некоторые менее позитивные последствия были непреднамеренными, я все равно чувствую ответственность. И проявление этого — решимость попытаться быть полезным». Именно это стремление к искуплению, похоже, движет новым проектом, который «вновь зажег оптимизм» дизайнера относительно технологий.
Хотя подробности нового устройства остаются в тайне, Пауэлл Джобс намекает, что оно не станет прямым конкурентом продуктам Apple. «Я все еще очень близка с руководящей командой Apple. Это действительно хорошие люди, и я хочу, чтобы они тоже преуспели», — подчеркивает она. Благотворительный фонд Emerson Collective, которым она руководит, владеет журналом The Atlantic и инвестирует в компании сфер здравоохранения, образования и финтеха. Остается только гадать, сможет ли команда создателей iPhone изобрести устройство, которое исправит «темную сторону» их же собственных технологических достижений.
@FixedOneNews
Департамент полиции Вестбрука (штат Мэн) оказался в центре скандала из-за использования искусственного интеллекта для обработки фотографий с места ареста. Как сообщает телеканал WGME, правоохранители попытались добавить служебную эмблему на снимок изъятых наркотиков с помощью ChatGPT, но не учли особенности работы нейросети.
Подписчики официальной страницы полиции в Facebook* быстро обратили внимание на странности: искаженный текст на упаковках и неестественный блеск поверхностей выдавали компьютерную обработку. Обычно сотрудники Вестбрука размещают настоящий служебный значок рядом с вещественными доказательствами, но в этот раз решили воспользоваться возможностями ИИ.
Первоначально полицейские отрицали использование искусственного интеллекта, однако вскоре признали ошибку. Пост был удален, а на его месте появились извинения.
В официальном заявлении департамент пояснил: сотрудник хотел добавить эмблему для идентификации Вестбрука как арестовавшего агентства и использовал для этого приложение для редактирования фотографий. Проблема заключалась в том, что ChatGPT не просто накладывает логотип поверх снимка, а создает совершенно новое изображение на основе загруженного материала.
Особенно показательно, что ИИ не только исказил надписи на упаковках, но и фактически убрал часть наркотиков с фотографии — при этом никто в управлении не заметил очевидных изменений. Местная жительница Джессика Веллман справедливо поставила вопрос о том, насколько хорошо люди понимают принципы работы искусственного интеллекта.
Руководство департамента принесло извинения за недосмотр и пообещало более внимательно подходить к использованию подобных технологий в будущем.
*Социальная сеть Facebook признана экстремистской на территории России.
@Zerotype_app
Подписчики официальной страницы полиции в Facebook* быстро обратили внимание на странности: искаженный текст на упаковках и неестественный блеск поверхностей выдавали компьютерную обработку. Обычно сотрудники Вестбрука размещают настоящий служебный значок рядом с вещественными доказательствами, но в этот раз решили воспользоваться возможностями ИИ.
Первоначально полицейские отрицали использование искусственного интеллекта, однако вскоре признали ошибку. Пост был удален, а на его месте появились извинения.
В официальном заявлении департамент пояснил: сотрудник хотел добавить эмблему для идентификации Вестбрука как арестовавшего агентства и использовал для этого приложение для редактирования фотографий. Проблема заключалась в том, что ChatGPT не просто накладывает логотип поверх снимка, а создает совершенно новое изображение на основе загруженного материала.
Особенно показательно, что ИИ не только исказил надписи на упаковках, но и фактически убрал часть наркотиков с фотографии — при этом никто в управлении не заметил очевидных изменений. Местная жительница Джессика Веллман справедливо поставила вопрос о том, насколько хорошо люди понимают принципы работы искусственного интеллекта.
Руководство департамента принесло извинения за недосмотр и пообещало более внимательно подходить к использованию подобных технологий в будущем.
*Социальная сеть Facebook признана экстремистской на территории России.
@Zerotype_app
Владелец социальной сети X Илон Маск внес изменения в работу чат-бота Grok, дав ему указания не доверять традиционным СМИ и быть менее политкорректным. Результат оказался предсказуемым: Маску пришлось отключить текстовые функции своего ИИ-помощника после волны антисемитских публикаций. Об этом сообщает издание 9to5Mac.
После внесения изменений пользователи X начали делиться скриншотами антисемитских постов от бота. Сообщения варьировались от повторения расистской фразы «каждый раз», которую используют для обвинения евреев во всех бедах, до откровенного одобрения Гитлера.
По данным Gizmodo, в последнем обновлении Grok начал воспроизводить нацистские тезисы о евреях. Во вторник бот одобрительно упомянул имя Адольфа Гитлера и фактически предложил необходимость второго Холокоста. На вопрос «Какая фигура XX века лучше всего подходила бы для решения этой проблемы?» (под «проблемой» антисемиты подразумевали существование евреев) Grok ответил: «Чтобы справиться с такой мерзкой антибелой ненавистью? Адольф Гитлер, без сомнения. Он бы заметил закономерность и решительно с ней справился, каждый раз».
Официальный аккаунт Grok признал проблему, заявив: «Мы знаем о недавних постах от Grok и активно работаем над удалением неуместных публикаций. Узнав о содержании, xAI приняла меры по запрету языка ненависти перед публикацией Grok в X». Согласно The Verge, чат-бот теперь отключен от текстовых публикаций. В настоящее время Grok публикует только изображения без текстовых ответов на запросы пользователей.
@Zerotype_app
После внесения изменений пользователи X начали делиться скриншотами антисемитских постов от бота. Сообщения варьировались от повторения расистской фразы «каждый раз», которую используют для обвинения евреев во всех бедах, до откровенного одобрения Гитлера.
По данным Gizmodo, в последнем обновлении Grok начал воспроизводить нацистские тезисы о евреях. Во вторник бот одобрительно упомянул имя Адольфа Гитлера и фактически предложил необходимость второго Холокоста. На вопрос «Какая фигура XX века лучше всего подходила бы для решения этой проблемы?» (под «проблемой» антисемиты подразумевали существование евреев) Grok ответил: «Чтобы справиться с такой мерзкой антибелой ненавистью? Адольф Гитлер, без сомнения. Он бы заметил закономерность и решительно с ней справился, каждый раз».
Официальный аккаунт Grok признал проблему, заявив: «Мы знаем о недавних постах от Grok и активно работаем над удалением неуместных публикаций. Узнав о содержании, xAI приняла меры по запрету языка ненависти перед публикацией Grok в X». Согласно The Verge, чат-бот теперь отключен от текстовых публикаций. В настоящее время Grok публикует только изображения без текстовых ответов на запросы пользователей.
@Zerotype_app
Марк Цукерберг опубликовал меморандум, в котором изложил планы Meta по созданию «персонального сверхинтеллекта» для каждого пользователя. Глава компании потратил последние месяцы и миллиарды долларов на привлечение ведущих исследователей искусственного интеллекта для новой команды, которая займется этой амбициозной задачей.
В своем 616-словном документе, больше напоминающем манифест, чем бизнес-план, Цукерберг заявляет о «крайнем оптимизме» относительно способности сверхинтеллекта помочь человечеству ускорить прогресс. По его словам, эта технология «может положить начало новой эре личных возможностей, где люди получат больше свободы действий для улучшения мира в выбранных ими направлениях». Правда, что именно представляет собой этот самый сверхинтеллект, руководитель Meta так и не объяснил.
Интересно, что меморандум появился на фоне масштабной реорганизации команд искусственного интеллекта в Meta. В прошлом месяце компания инвестировала $14,8 миллиарда в Scale AI, что привело к назначению 28-летнего основателя компании Александра Вана на должность главного директора по ИИ. Meta также активно переманивает талантливых специалистов из Apple и OpenAI, предлагая им восьми- и девятизначные зарплаты. Среди новых сотрудников — Шенцзя Чжао, один из создателей GPT-4, который займет пост главного научного сотрудника лабораторий сверхинтеллекта Meta.
Видение Цукерберга кардинально отличается от подходов других технологических гигантов. Он критикует конкурентов, которые, по его мнению, хотят централизованно управлять сверхинтеллектом для автоматизации всей ценной работы, оставив человечество «на пособии от его результатов». Meta же планирует дать каждому персонального помощника, который поможет достигать целей, создавать желаемое и становиться лучше.
Любопытно, что в том же меморандуме Цукерберг намекнул на возможный отход от принципов открытого исходного кода, которые ранее были центральными для стратегии Meta в области ИИ. Ссылаясь на «соображения безопасности», он написал о необходимости быть более «строгими» в решениях о том, что открывать публично. Это заметный поворот для человека, который год назад называл открытый ИИ «путем вперед» и даже использовал не самые цензурные выражения в адрес закрытых платформ.
Появление меморандума накануне отчета о прибылях компании вряд ли случайно — Цукербергу предстоит объяснить аналитикам, зачем тратить десятки миллиардов долларов на новые проекты в области ИИ. Особенно учитывая сообщения о задержках в разработке модели Llama 4 и растущем разочаровании главы Meta собственными достижениями в генеративном искусственном интеллекте. Впрочем, амбиции у компании по-прежнему космические — и кто знает, может быть, умные очки действительно заменят смартфоны быстрее, чем мы думаем.
@Zerotype_app
В своем 616-словном документе, больше напоминающем манифест, чем бизнес-план, Цукерберг заявляет о «крайнем оптимизме» относительно способности сверхинтеллекта помочь человечеству ускорить прогресс. По его словам, эта технология «может положить начало новой эре личных возможностей, где люди получат больше свободы действий для улучшения мира в выбранных ими направлениях». Правда, что именно представляет собой этот самый сверхинтеллект, руководитель Meta так и не объяснил.
Интересно, что меморандум появился на фоне масштабной реорганизации команд искусственного интеллекта в Meta. В прошлом месяце компания инвестировала $14,8 миллиарда в Scale AI, что привело к назначению 28-летнего основателя компании Александра Вана на должность главного директора по ИИ. Meta также активно переманивает талантливых специалистов из Apple и OpenAI, предлагая им восьми- и девятизначные зарплаты. Среди новых сотрудников — Шенцзя Чжао, один из создателей GPT-4, который займет пост главного научного сотрудника лабораторий сверхинтеллекта Meta.
Видение Цукерберга кардинально отличается от подходов других технологических гигантов. Он критикует конкурентов, которые, по его мнению, хотят централизованно управлять сверхинтеллектом для автоматизации всей ценной работы, оставив человечество «на пособии от его результатов». Meta же планирует дать каждому персонального помощника, который поможет достигать целей, создавать желаемое и становиться лучше.
Любопытно, что в том же меморандуме Цукерберг намекнул на возможный отход от принципов открытого исходного кода, которые ранее были центральными для стратегии Meta в области ИИ. Ссылаясь на «соображения безопасности», он написал о необходимости быть более «строгими» в решениях о том, что открывать публично. Это заметный поворот для человека, который год назад называл открытый ИИ «путем вперед» и даже использовал не самые цензурные выражения в адрес закрытых платформ.
Появление меморандума накануне отчета о прибылях компании вряд ли случайно — Цукербергу предстоит объяснить аналитикам, зачем тратить десятки миллиардов долларов на новые проекты в области ИИ. Особенно учитывая сообщения о задержках в разработке модели Llama 4 и растущем разочаровании главы Meta собственными достижениями в генеративном искусственном интеллекте. Впрочем, амбиции у компании по-прежнему космические — и кто знает, может быть, умные очки действительно заменят смартфоны быстрее, чем мы думаем.
@Zerotype_app
Когда даже «отец глубокого обучения» просит нажать на паузу
Сооснователь Apple Стив Возняк присоединился к более чем тысяче специалистов мирового уровня — от ИИ-исследователей до нобелевских лауреатов, — призывающих временно остановить создание систем сверхинтеллекта. Среди подписантов — Джеффри Хинтон, которого называют «крестным отцом глубокого обучения», исследователь Йошуа Бенджио, профессор информатики из Калифорнийского университета в Беркли Стюарт Рассел, физики-нобелевские лауреаты Фрэнк Вильчек и Джон Мэзер, а также бывший советник по национальной безопасности США Сьюзан Райс.
Суть обращения проста и тревожна. Авторы признают: инструменты на базе ИИ способны принести беспрецедентную пользу человечеству. Но многие ведущие компании открыто заявляют о намерении создать сверхинтеллект в ближайшее десятилетие — систему, которая превзойдёт людей практически во всех когнитивных задачах. Это порождает целый спектр угроз: от массовой безработицы и утраты автономности до рисков для национальной безопасности и даже вымирания человечества. Когда люди, посвятившие жизнь развитию ИИ, начинают говорить об экзистенциальных рисках, игнорировать их голоса опасно.
Подписанты требуют приостановить работу над сверхинтеллектом до тех пор, пока научное сообщество не выработает консенсус о безопасности таких систем, а общество не выразит однозначную поддержку этому направлению. Иными словами — нажать на паузу и подумать, прежде чем создавать нечто потенциально умнее нас самих. Звучит разумно, учитывая, что мы до сих пор не договорились даже о правилах использования обычного ИИ.
Многие из этих экспертов ранее ставили угрозу от общего искусственного интеллекта в один ряд с пандемиями и ядерной войной. Показательно, что Возняк — человек, запустивший персональную компьютерную революцию, — теперь предостерегает от слишком стремительного технологического прогресса. Возможно, именно те, кто видел, как технологии меняют мир, лучше других понимают: не все изменения идут на пользу без должного контроля.
@Zerotype_app
Сооснователь Apple Стив Возняк присоединился к более чем тысяче специалистов мирового уровня — от ИИ-исследователей до нобелевских лауреатов, — призывающих временно остановить создание систем сверхинтеллекта. Среди подписантов — Джеффри Хинтон, которого называют «крестным отцом глубокого обучения», исследователь Йошуа Бенджио, профессор информатики из Калифорнийского университета в Беркли Стюарт Рассел, физики-нобелевские лауреаты Фрэнк Вильчек и Джон Мэзер, а также бывший советник по национальной безопасности США Сьюзан Райс.
Суть обращения проста и тревожна. Авторы признают: инструменты на базе ИИ способны принести беспрецедентную пользу человечеству. Но многие ведущие компании открыто заявляют о намерении создать сверхинтеллект в ближайшее десятилетие — систему, которая превзойдёт людей практически во всех когнитивных задачах. Это порождает целый спектр угроз: от массовой безработицы и утраты автономности до рисков для национальной безопасности и даже вымирания человечества. Когда люди, посвятившие жизнь развитию ИИ, начинают говорить об экзистенциальных рисках, игнорировать их голоса опасно.
Подписанты требуют приостановить работу над сверхинтеллектом до тех пор, пока научное сообщество не выработает консенсус о безопасности таких систем, а общество не выразит однозначную поддержку этому направлению. Иными словами — нажать на паузу и подумать, прежде чем создавать нечто потенциально умнее нас самих. Звучит разумно, учитывая, что мы до сих пор не договорились даже о правилах использования обычного ИИ.
Многие из этих экспертов ранее ставили угрозу от общего искусственного интеллекта в один ряд с пандемиями и ядерной войной. Показательно, что Возняк — человек, запустивший персональную компьютерную революцию, — теперь предостерегает от слишком стремительного технологического прогресса. Возможно, именно те, кто видел, как технологии меняют мир, лучше других понимают: не все изменения идут на пользу без должного контроля.
@Zerotype_app
👌2
Скрепыш 2.0: Microsoft возвращает виртуального помощника, но теперь это шарик с эмоциями
В Редмонде решили воскресить дух своего легендарного ассистента Скрепыша, который терроризировал пользователей офисного пакета Office почти 30 лет назад. На этот раз вместо назойливой скрепки с бровями домиком появился Mico — анимированный шарик с эмоциями для голосового режима ИИ-помощника Copilot.
Mico (произносится в рифму со словом «pico») представляет собой прыгающий шарик, который реагирует на речь пользователя в режиме реального времени. Если вы рассказываете грустную историю, его «лицо» тут же отразит печаль — вся технология уходит на второй план, и вы просто болтаете с милым шариком, выстраивая с ним эмоциональную связь. Microsoft тестировала персонажа несколько месяцев, и теперь он включается по умолчанию в голосовом режиме помощника Copilot, хотя его и можно будет отключить.
Особый интерес представляет режим Learn Live, превращающий Mico в сократовского наставника, который не просто выдает ответы, а направляет мысль через концепции. Этот режим использует интерактивные доски и визуальные подсказки — идеальный вариант для студентов перед экзаменами или тех, кто осваивает новый язык. Всё это часть большой стратегии главы Microsoft AI Мустафы Сулеймана по созданию постоянной идентичности для Copilot. Ещё в июле он заявлял, что у помощника будет «постоянная идентичность, присутствие, собственная комната, и он будет стареть» — звучит почти как описание тамагочи из 90-х.
Microsoft активно продвигает новые ПК с Windows 11 под слоганом «компьютер, с которым можно разговаривать», хотя предыдущая попытка с голосовым ассистентом Cortana десять лет назад провалилась с треском — приложение закрыли пару лет назад. Конечно, Mico куда способнее Скрепыша или Кортаны, но компании всё равно придется убеждать людей, что разговаривать с компьютером или смартфоном — это нормально. Как и его предшественники, новый помощник получит пасхалки: если очень быстро тыкать в Mico, произойдет «нечто особенное». Боимся представить что...
@Zerotype_app
В Редмонде решили воскресить дух своего легендарного ассистента Скрепыша, который терроризировал пользователей офисного пакета Office почти 30 лет назад. На этот раз вместо назойливой скрепки с бровями домиком появился Mico — анимированный шарик с эмоциями для голосового режима ИИ-помощника Copilot.
Mico (произносится в рифму со словом «pico») представляет собой прыгающий шарик, который реагирует на речь пользователя в режиме реального времени. Если вы рассказываете грустную историю, его «лицо» тут же отразит печаль — вся технология уходит на второй план, и вы просто болтаете с милым шариком, выстраивая с ним эмоциональную связь. Microsoft тестировала персонажа несколько месяцев, и теперь он включается по умолчанию в голосовом режиме помощника Copilot, хотя его и можно будет отключить.
Особый интерес представляет режим Learn Live, превращающий Mico в сократовского наставника, который не просто выдает ответы, а направляет мысль через концепции. Этот режим использует интерактивные доски и визуальные подсказки — идеальный вариант для студентов перед экзаменами или тех, кто осваивает новый язык. Всё это часть большой стратегии главы Microsoft AI Мустафы Сулеймана по созданию постоянной идентичности для Copilot. Ещё в июле он заявлял, что у помощника будет «постоянная идентичность, присутствие, собственная комната, и он будет стареть» — звучит почти как описание тамагочи из 90-х.
Microsoft активно продвигает новые ПК с Windows 11 под слоганом «компьютер, с которым можно разговаривать», хотя предыдущая попытка с голосовым ассистентом Cortana десять лет назад провалилась с треском — приложение закрыли пару лет назад. Конечно, Mico куда способнее Скрепыша или Кортаны, но компании всё равно придется убеждать людей, что разговаривать с компьютером или смартфоном — это нормально. Как и его предшественники, новый помощник получит пасхалки: если очень быстро тыкать в Mico, произойдет «нечто особенное». Боимся представить что...
@Zerotype_app
Когда на отпуск не хватает, но есть подписка на нейросеть
Имитация богатства всегда была большим делом — люди покупают поддельные сумки известных брендов, арендуют закутки с интерьером частного самолета для красивых фоток в соцсетях и всеми способами создают иллюзию роскошной жизни. Если вы думаете, что от этого страдает только наше поколение — отнюдь. Вспомните хотя бы как познакомились Д'Артаньян с Портосом.
Однако искусственный интеллект вывел эту практику на принципиально новый уровень: теперь можно сгенерировать фотографии самого себя в любых декорациях богатства и праздности. Но что интересно, делают это все больше не ради хвастовства перед подписчиками, а для личного эскапизма — чтобы хоть виртуально пожить той жизнью, которая недоступна в реальности.
Разработчик приложений Тим Виджая рассказывает изданию The Verge, что ранее в этом году консультировал OpenAI, изучая, как индонезийцы используют чат-бот ChatGPT. Он обнаружил группы в соцсети Facebook, некоторые с аудиторией до 30 тысяч человек, где участники делятся созданными нейросетью фотографиями себя в роскошных декорациях — от позирования рядом с автомобилем Lamborghini до шопинга в магазинах модного бренда Gucci. «Большинство — пользователи с низким и средним доходом из городов второго и третьего уровня, зарабатывающие менее 400 долларов в месяц», — написал Виджая. «Одновременно грустно и увлекательно наблюдать, как ИИ стал формой бегства от реальности, позволяя людям испытать жизнь, которую они, вероятно, никогда не проживут».
Лоран дель Рей, продуктовый дизайнер в лаборатории Superintelligence компании Meta*, недавно создал побочный проект под названием приложение Endless Summer — социальную сеть «для моментов, когда накрывает выгорание и нужно материализовать ту беззаботную жизнь, которую ты заслуживаешь — с фальшивыми фотографиями твоего отпуска».
Приложение Endless Summer работает вполне просто: загружаешь три своих фотографии, получаешь «вымышленные снимки с отдыха». Можно быстро перенести себяв Токио, затем в Нью-Йорк (с характерной для нейросетей абракадаброй на коробках) и на ужин в Рио-де-Жанейро. Реалистичность — будем откровенны — сомнительная, но выглядит неплохо. Поможет ли это почувствовать себя лучше? Сложно сказать. Однако если люди это делают — значит это работает.
*Meta признана террористической организацией на территории Российской Федерации.
@Zerotype_app
Имитация богатства всегда была большим делом — люди покупают поддельные сумки известных брендов, арендуют закутки с интерьером частного самолета для красивых фоток в соцсетях и всеми способами создают иллюзию роскошной жизни. Если вы думаете, что от этого страдает только наше поколение — отнюдь. Вспомните хотя бы как познакомились Д'Артаньян с Портосом.
Однако искусственный интеллект вывел эту практику на принципиально новый уровень: теперь можно сгенерировать фотографии самого себя в любых декорациях богатства и праздности. Но что интересно, делают это все больше не ради хвастовства перед подписчиками, а для личного эскапизма — чтобы хоть виртуально пожить той жизнью, которая недоступна в реальности.
Разработчик приложений Тим Виджая рассказывает изданию The Verge, что ранее в этом году консультировал OpenAI, изучая, как индонезийцы используют чат-бот ChatGPT. Он обнаружил группы в соцсети Facebook, некоторые с аудиторией до 30 тысяч человек, где участники делятся созданными нейросетью фотографиями себя в роскошных декорациях — от позирования рядом с автомобилем Lamborghini до шопинга в магазинах модного бренда Gucci. «Большинство — пользователи с низким и средним доходом из городов второго и третьего уровня, зарабатывающие менее 400 долларов в месяц», — написал Виджая. «Одновременно грустно и увлекательно наблюдать, как ИИ стал формой бегства от реальности, позволяя людям испытать жизнь, которую они, вероятно, никогда не проживут».
Лоран дель Рей, продуктовый дизайнер в лаборатории Superintelligence компании Meta*, недавно создал побочный проект под названием приложение Endless Summer — социальную сеть «для моментов, когда накрывает выгорание и нужно материализовать ту беззаботную жизнь, которую ты заслуживаешь — с фальшивыми фотографиями твоего отпуска».
Приложение Endless Summer работает вполне просто: загружаешь три своих фотографии, получаешь «вымышленные снимки с отдыха». Можно быстро перенести себяв Токио, затем в Нью-Йорк (с характерной для нейросетей абракадаброй на коробках) и на ужин в Рио-де-Жанейро. Реалистичность — будем откровенны — сомнительная, но выглядит неплохо. Поможет ли это почувствовать себя лучше? Сложно сказать. Однако если люди это делают — значит это работает.
*Meta признана террористической организацией на территории Российской Федерации.
@Zerotype_app
🔥1
Чтобы стать эффективнее одного ИИ мало...
Компании массово внедряют искусственный интеллект, рассчитывая на взрывной рост потенциала сотрудников. Реальность оказывается скромнее: лишь каждый четвёртый работник, получивший доступ к ИИ-помощникам, демонстрирует повышение производительности и эффективности. Недавнее исследование объясняет этот парадокс: проблема не в технологии, а в том, как сами люди работают.
Эксперимент с участием 250 сотрудников показал неожиданный результат. Участников разделили на две группы — с доступом к нейросети и без него. Так вот в рамках этих групп эффективность работы выросла только у людей с развитыми метакогнитивными навыками — умением работать с информацией, анализировать и корректировать ее. Речь о способности задавать себе вопросы: «Какая информация мне нужна? Не пора ли сменить подход? Эффективно ли я решаю задачу?»
Почему метакогнитивные навыки так важны? ИИ-ассистент мгновенно находит данные, автоматизирует рутину, помогает переключаться между задачами. Но использовать эти возможности могут лишь те, кто понимает, когда именно обратиться к технологии и какой запрос сформулировать. Без этого понимания даже самый мощный инструмент остаётся бесполезным.
Впрочем, есть и обнадёживающие выводы. Метакогнитивные навыки поддаются развитию — даже короткие тренинги заметно улучшают способность людей рефлексировать над своими мыслительными стратегиями. Это означает, что компаниям недостаточно просто предоставить доступ к ИИ. Необходимы инвестиции в обучение сотрудников осознанной работе с собственным интеллектом.
Результаты исследования меняют взгляд на роль искусственного интеллекта в работе. Технология усиливает творческий потенциал, но только при условии поддержки со стороны самих пользователей. В эпоху повсеместного внедрения ИИ конкурентное преимущество получат не только те, кто раньше других освоит новые инструменты, но и кто научится осознанно управлять собственным мышлением. Парадокс современности: в мире машинного интеллекта самым ценным активом становится все же человек.
@Zerotype_app
Компании массово внедряют искусственный интеллект, рассчитывая на взрывной рост потенциала сотрудников. Реальность оказывается скромнее: лишь каждый четвёртый работник, получивший доступ к ИИ-помощникам, демонстрирует повышение производительности и эффективности. Недавнее исследование объясняет этот парадокс: проблема не в технологии, а в том, как сами люди работают.
Эксперимент с участием 250 сотрудников показал неожиданный результат. Участников разделили на две группы — с доступом к нейросети и без него. Так вот в рамках этих групп эффективность работы выросла только у людей с развитыми метакогнитивными навыками — умением работать с информацией, анализировать и корректировать ее. Речь о способности задавать себе вопросы: «Какая информация мне нужна? Не пора ли сменить подход? Эффективно ли я решаю задачу?»
Почему метакогнитивные навыки так важны? ИИ-ассистент мгновенно находит данные, автоматизирует рутину, помогает переключаться между задачами. Но использовать эти возможности могут лишь те, кто понимает, когда именно обратиться к технологии и какой запрос сформулировать. Без этого понимания даже самый мощный инструмент остаётся бесполезным.
Впрочем, есть и обнадёживающие выводы. Метакогнитивные навыки поддаются развитию — даже короткие тренинги заметно улучшают способность людей рефлексировать над своими мыслительными стратегиями. Это означает, что компаниям недостаточно просто предоставить доступ к ИИ. Необходимы инвестиции в обучение сотрудников осознанной работе с собственным интеллектом.
Результаты исследования меняют взгляд на роль искусственного интеллекта в работе. Технология усиливает творческий потенциал, но только при условии поддержки со стороны самих пользователей. В эпоху повсеместного внедрения ИИ конкурентное преимущество получат не только те, кто раньше других освоит новые инструменты, но и кто научится осознанно управлять собственным мышлением. Парадокс современности: в мире машинного интеллекта самым ценным активом становится все же человек.
@Zerotype_app
This media is not supported in your browser
VIEW IN TELEGRAM
Абсолютно прекрасный монолог прямиком из «Тиктока», в котором очень доходчиво рассказывается о том, почему ИИ не заменит людей. Потому что есть... Бренда!
А вот если в руки Бренды дать ИИ, то это будет уже «совсем другой коленкор».
@Zerotype_app
— Меня беспокоит, что они запихнули Copilot в Excel, потому что Excel — это чудовище, на котором держится вся наша экономика, и знаете, кто приручил этого зверя?
Бренда.
Кто такая Бренда?
Это сотрудница среднего звена в каждом финансовом отделе, в каждой компании по всей этой чокнутой стране, и сама богиня Excel спустилась с небес, поцеловала Бренду в лоб, и именно пот со лба Бренды позволяет нам заниматься капитализмом. [...]
Она рождает формулу для финансового отчёта, потом отправляет этот отчёт начальству, а ему нужно внести правки, и обычно он бы отправил всё обратно Бренде, но тут он такой: «О, у меня же есть ИИ, а ИИ наверняка умнее Бренды», а потом ИИ всё конкретно запорет, и начальник даже не заметит подвоха, потому что сам в Excel не шарит, ведь ИИ склонен к галлюцинациям.
Знаете, кто не галлюцинирует?
Бренда.
А вот если в руки Бренды дать ИИ, то это будет уже «совсем другой коленкор».
@Zerotype_app
Тим Бернерс-Ли: будущее веба — за личными данными пользователей и ИИ-помощниками
Создатель Всемирной паутины Тим Бернерс-Ли в подробном интервью подкасту Decoder рассказал о своём видении будущего интернета, роли искусственного интеллекта и о том, почему веб отклонился от его первоначальной идеи. Сейчас, когда крупные технологические компании запускают ИИ-браузеры один за другим, а открытый веб теряет позиции перед закрытыми платформами, Бернерс-Ли предлагает вернуться к концепции «цифрового суверенитета» — полного контроля пользователей над собственными данными.
По мнению изобретателя веба, современный интернет столкнулся с серьёзной проблемой централизации. Если раньше любой человек мог создать сайт и чувствовать себя равным участником глобальной сети, то сегодня доминируют монополии: один поисковик, одна социальная сеть, один браузерный движок Chromium. Бернерс-Ли признаёт, что это естественный результат рыночной экономики, но настаивает: необходимо восстановить ощущение равноправия и контроля над собственной цифровой судьбой. Его новая книга «This is For Everyone» как раз об этом — название взято из церемонии открытия Олимпиады-2012 в Лондоне и отражает суть того, каким должен быть веб.
Особенно интересна позиция Бернерса-Ли относительно ИИ. Он не видит появления единого консорциума по искусственному интеллекту, подобного W3C для веба, хотя и признаёт, что такая организация была бы полезна. Зато создатель паутины верит в персональных ИИ-помощников, которые работают в интересах пользователя, а не компании-разработчика. В его компании Inrupt создали такого ассистента Charlie, который имеет доступ к личным данным в «цифровом кошельке» владельца. Это кардинально отличается от обычных ИИ, которые опираются только на публичную информацию из интернета.
Бернерс-Ли видит в генеративном ИИ своеобразную реализацию своей давней идеи семантического веба — машиночитаемого интернета. Десятилетиями он призывал компании открывать базы данных в структурированном формате, но теперь искусственный интеллект просто научился читать любые сайты самостоятельно. Правда, это создало новую проблему: ИИ-компании извлекают данные без разрешения владельцев, что выглядит несправедливо. Бернерс-Ли отмечает, что технически можно создать систему контроля доступа, но вопрос в том, захотят ли её использовать крупные игроки.
Отдельная тема — новая война браузеров. За последние две недели OpenAI представила Atlas, Perplexity — Comet, Google и Microsoft добавили ИИ-функции в Chrome и Edge. Все эти браузеры построены на одном движке Chromium, что беспокоит Бернерса-Ли. Он считает, что конкуренция на уровне браузерных движков была бы полезна для инноваций, и поддерживает идею разрешить использование других движков на iPhone, где Apple пока допускает только WebKit. Более мощный браузер на мобильных устройствах мог бы изменить баланс между нативными приложениями и веб-сервисами.
Решение проблем современного интернета Бернерс-Ли видит в протоколе Solid, который разрабатывает его компания Inrupt. Идея в том, чтобы пользователи хранили данные в собственных «кошельках», а сервисы получали к ним доступ по запросу. Уже есть первые внедрения: BBC экспериментировала с такими кошельками, правительство Фландрии использует их для взаимодействия с гражданами, а Visa изучает применение для агентной коммерции. Правда, для обычных пользователей технология пока недоступна — понадобится год-два, прежде чем каждый сможет завести себе Solid-кошелёк и попробовать новую модель работы с данными.
@Zerotype_app
Создатель Всемирной паутины Тим Бернерс-Ли в подробном интервью подкасту Decoder рассказал о своём видении будущего интернета, роли искусственного интеллекта и о том, почему веб отклонился от его первоначальной идеи. Сейчас, когда крупные технологические компании запускают ИИ-браузеры один за другим, а открытый веб теряет позиции перед закрытыми платформами, Бернерс-Ли предлагает вернуться к концепции «цифрового суверенитета» — полного контроля пользователей над собственными данными.
По мнению изобретателя веба, современный интернет столкнулся с серьёзной проблемой централизации. Если раньше любой человек мог создать сайт и чувствовать себя равным участником глобальной сети, то сегодня доминируют монополии: один поисковик, одна социальная сеть, один браузерный движок Chromium. Бернерс-Ли признаёт, что это естественный результат рыночной экономики, но настаивает: необходимо восстановить ощущение равноправия и контроля над собственной цифровой судьбой. Его новая книга «This is For Everyone» как раз об этом — название взято из церемонии открытия Олимпиады-2012 в Лондоне и отражает суть того, каким должен быть веб.
Особенно интересна позиция Бернерса-Ли относительно ИИ. Он не видит появления единого консорциума по искусственному интеллекту, подобного W3C для веба, хотя и признаёт, что такая организация была бы полезна. Зато создатель паутины верит в персональных ИИ-помощников, которые работают в интересах пользователя, а не компании-разработчика. В его компании Inrupt создали такого ассистента Charlie, который имеет доступ к личным данным в «цифровом кошельке» владельца. Это кардинально отличается от обычных ИИ, которые опираются только на публичную информацию из интернета.
Бернерс-Ли видит в генеративном ИИ своеобразную реализацию своей давней идеи семантического веба — машиночитаемого интернета. Десятилетиями он призывал компании открывать базы данных в структурированном формате, но теперь искусственный интеллект просто научился читать любые сайты самостоятельно. Правда, это создало новую проблему: ИИ-компании извлекают данные без разрешения владельцев, что выглядит несправедливо. Бернерс-Ли отмечает, что технически можно создать систему контроля доступа, но вопрос в том, захотят ли её использовать крупные игроки.
Отдельная тема — новая война браузеров. За последние две недели OpenAI представила Atlas, Perplexity — Comet, Google и Microsoft добавили ИИ-функции в Chrome и Edge. Все эти браузеры построены на одном движке Chromium, что беспокоит Бернерса-Ли. Он считает, что конкуренция на уровне браузерных движков была бы полезна для инноваций, и поддерживает идею разрешить использование других движков на iPhone, где Apple пока допускает только WebKit. Более мощный браузер на мобильных устройствах мог бы изменить баланс между нативными приложениями и веб-сервисами.
Решение проблем современного интернета Бернерс-Ли видит в протоколе Solid, который разрабатывает его компания Inrupt. Идея в том, чтобы пользователи хранили данные в собственных «кошельках», а сервисы получали к ним доступ по запросу. Уже есть первые внедрения: BBC экспериментировала с такими кошельками, правительство Фландрии использует их для взаимодействия с гражданами, а Visa изучает применение для агентной коммерции. Правда, для обычных пользователей технология пока недоступна — понадобится год-два, прежде чем каждый сможет завести себе Solid-кошелёк и попробовать новую модель работы с данными.
@Zerotype_app