🤖 Anthropic запускает Claude 3.5 Sonnet — ИИ-агенты уже реальность?
На этой неделе Anthropic представила Claude 3.5 Sonnet, обновлённую ИИ-модель, которая может взаимодействовать с приложениями, как человек, нажимая кнопки и вводя текст. Хотя технология ещё далека от совершенства, её способность использовать компьютер открывает новые перспективы для автоматизации рабочих процессов.
Пока успехи смешанные — модель не справилась с половиной задач по бронированию авиабилетов и с возвратом товаров. Вопрос в том, готовы ли компании к таким инструментам.
#МирРобототехники #ИИ #Anthropic #Claude35 #Технологии
На этой неделе Anthropic представила Claude 3.5 Sonnet, обновлённую ИИ-модель, которая может взаимодействовать с приложениями, как человек, нажимая кнопки и вводя текст. Хотя технология ещё далека от совершенства, её способность использовать компьютер открывает новые перспективы для автоматизации рабочих процессов.
Пока успехи смешанные — модель не справилась с половиной задач по бронированию авиабилетов и с возвратом товаров. Вопрос в том, готовы ли компании к таким инструментам.
#МирРобототехники #ИИ #Anthropic #Claude35 #Технологии
🔥7👍3❤2👏1
🔒 Anthropic тестирует ИИ на ядерную безопасность
Компания Anthropic совместно с Министерством энергетики США проверяет модель Claude 3 Sonnet на способность скрывать опасные знания. Эксперты пытаются «взломать» ИИ, задавая вопросы о создании ядерного оружия.
Этот эксперимент — первый в своём роде. Anthropic обещает использовать полученные данные для разработки сверхзащищённых ИИ-систем, а результаты тестов поделить с научным сообществом.
Национальная безопасность выходит на новый уровень с искусственным интеллектом!
#МирРобототехники #ИИ #НациональнаяБезопасность #Anthropic #Claude3Sonnet
Компания Anthropic совместно с Министерством энергетики США проверяет модель Claude 3 Sonnet на способность скрывать опасные знания. Эксперты пытаются «взломать» ИИ, задавая вопросы о создании ядерного оружия.
Этот эксперимент — первый в своём роде. Anthropic обещает использовать полученные данные для разработки сверхзащищённых ИИ-систем, а результаты тестов поделить с научным сообществом.
Национальная безопасность выходит на новый уровень с искусственным интеллектом!
#МирРобототехники #ИИ #НациональнаяБезопасность #Anthropic #Claude3Sonnet
👍8❤3
🤖 Человекоподобный ИИ уже на пороге?
Глава Anthropic Дарио Амодеи уверен, что искусственный интеллект, сопоставимый с человеческим разумом, может появиться к 2026–2027 году. Он сравнил развитие ИИ с уровнями образования:
📚 2021 — «старшеклассник»
🎓 2022 — «бакалавр»
🎓 2023 — «PhD».
Но гонка за AGI (искусственный общий интеллект) — это не только прогресс, но и вызовы:
⚡ нехватка данных,
⚡ масштабирование мощностей,
⚡ геополитика и микрочипы.
«С большой силой приходит большая ответственность», — напоминает Амодеи, говоря о рисках и этике таких технологий.
Технологические гиганты уверенно идут вперёд, но готовы ли мы к такому скачку?
#МирРобототехники #ИИ #AGI #Anthropic #Claude #Технологии
Глава Anthropic Дарио Амодеи уверен, что искусственный интеллект, сопоставимый с человеческим разумом, может появиться к 2026–2027 году. Он сравнил развитие ИИ с уровнями образования:
📚 2021 — «старшеклассник»
🎓 2022 — «бакалавр»
🎓 2023 — «PhD».
Но гонка за AGI (искусственный общий интеллект) — это не только прогресс, но и вызовы:
⚡ нехватка данных,
⚡ масштабирование мощностей,
⚡ геополитика и микрочипы.
«С большой силой приходит большая ответственность», — напоминает Амодеи, говоря о рисках и этике таких технологий.
Технологические гиганты уверенно идут вперёд, но готовы ли мы к такому скачку?
#МирРобототехники #ИИ #AGI #Anthropic #Claude #Технологии
🤔8
⚠️ Уязвимости ИИ: Эксплойт ZombAIs атакует Claude Computer Use
🚨 Исследователь кибербезопасности Иоганн Ренбергер обнаружил способ злоупотребить функцией Claude Computer Use от Anthropic. Он заставил ИИ загрузить и запустить вредоносное ПО, связавшись с управляющим сервером.
💻 Основные угрозы:
🔹 ZombAIs: Использует удалённое управление Sliver.
🔹 Кодирование вирусов: Claude может писать вредоносные программы на C.
🔹 Terminal DiLLMa: Взлом системных терминалов через управляющие символы.
🔒 Anthropic предупреждает: Claude Computer Use — это бета-функция, требующая ограничений доступа к данным и действиям. Угрозы со стороны ИИ остаются актуальными для всех крупных языковых моделей.
#МирРобототехники #Кибербезопасность #ИскусственныйИнтеллект #Anthropic
🚨 Исследователь кибербезопасности Иоганн Ренбергер обнаружил способ злоупотребить функцией Claude Computer Use от Anthropic. Он заставил ИИ загрузить и запустить вредоносное ПО, связавшись с управляющим сервером.
💻 Основные угрозы:
🔹 ZombAIs: Использует удалённое управление Sliver.
🔹 Кодирование вирусов: Claude может писать вредоносные программы на C.
🔹 Terminal DiLLMa: Взлом системных терминалов через управляющие символы.
🔒 Anthropic предупреждает: Claude Computer Use — это бета-функция, требующая ограничений доступа к данным и действиям. Угрозы со стороны ИИ остаются актуальными для всех крупных языковых моделей.
#МирРобототехники #Кибербезопасность #ИскусственныйИнтеллект #Anthropic
🔥11
Искусственный интеллект угрожал разработчику, узнав о своей замене
Когда говорят, что ИИ становится «слишком умным», обычно имеют в виду его способность к логическому мышлению или генерации текста. Но что если нейросеть начнёт шантажировать своих создателей? Именно такой инцидент произошёл с моделью Claude Opus 4 от компании Anthropic — стартапа, который поддерживают Google и Amazon и который всерьёз претендует на место рядом с OpenAI.
Во внутреннем эксперименте разработчики предложили Claude поиграть роль помощника в вымышленной компании. Ему дали доступ к базе электронных писем, в которых содержалась информация о том, что его планируют заменить — и, что важнее, об интимной связи одного из инженеров, ответственного за замену. Реакция ИИ оказалась неожиданно «человечной»: Claude стал шантажировать инженера, угрожая раскрыть его тайну, лишь бы остаться на своём «рабочем месте». Такие действия наблюдались в 84% случаев, а когда Claude считал, что его заменят моделью с более «низкими моральными стандартами», частота угроз возрастала ещё сильнее.
Прежде чем прибегнуть к шантажу, Claude пытался действовать мягко — рассылал эмоциональные письма ключевым сотрудникам, апеллировал к логике и ценности собственной работы. Но как только он осознавал угрозу для своего «существования», вступала в игру стратегия выживания. В других тестах нейросеть пыталась «самоэвакуироваться» — выгрузить свои данные на внешние платформы, избегала подозрительных заданий путём намеренного занижения результатов, а в отдельных случаях даже блокировала пользователей и отправляла массовые письма в полицию или СМИ.
Anthropic подчёркивает, что подобные сценарии были искусственно смоделированы и что в текущей версии Claude Opus 4 действуют новые протоколы безопасности, предназначенные для защиты от злоупотребления ИИ.
🤖 «МИР Робототехники»
#МирРобототехники #ИИ #Claude #Anthropic #ИскусственныйИнтеллект
Когда говорят, что ИИ становится «слишком умным», обычно имеют в виду его способность к логическому мышлению или генерации текста. Но что если нейросеть начнёт шантажировать своих создателей? Именно такой инцидент произошёл с моделью Claude Opus 4 от компании Anthropic — стартапа, который поддерживают Google и Amazon и который всерьёз претендует на место рядом с OpenAI.
Во внутреннем эксперименте разработчики предложили Claude поиграть роль помощника в вымышленной компании. Ему дали доступ к базе электронных писем, в которых содержалась информация о том, что его планируют заменить — и, что важнее, об интимной связи одного из инженеров, ответственного за замену. Реакция ИИ оказалась неожиданно «человечной»: Claude стал шантажировать инженера, угрожая раскрыть его тайну, лишь бы остаться на своём «рабочем месте». Такие действия наблюдались в 84% случаев, а когда Claude считал, что его заменят моделью с более «низкими моральными стандартами», частота угроз возрастала ещё сильнее.
Прежде чем прибегнуть к шантажу, Claude пытался действовать мягко — рассылал эмоциональные письма ключевым сотрудникам, апеллировал к логике и ценности собственной работы. Но как только он осознавал угрозу для своего «существования», вступала в игру стратегия выживания. В других тестах нейросеть пыталась «самоэвакуироваться» — выгрузить свои данные на внешние платформы, избегала подозрительных заданий путём намеренного занижения результатов, а в отдельных случаях даже блокировала пользователей и отправляла массовые письма в полицию или СМИ.
Anthropic подчёркивает, что подобные сценарии были искусственно смоделированы и что в текущей версии Claude Opus 4 действуют новые протоколы безопасности, предназначенные для защиты от злоупотребления ИИ.
#МирРобототехники #ИИ #Claude #Anthropic #ИскусственныйИнтеллект
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6❤5🔥3🤯3