Мир Робототехники
9.79K subscribers
3.73K photos
732 videos
7 files
1.18K links
Официальный Telegram-канал СМИ «Мир Робототехники»

Робототехника, микроэлектроника, искусственный интеллект - новости будущего здесь и сейчас.

roboticsworld.ru
+7 916 830-02-66
Download Telegram
🤖 Anthropic запускает Claude 3.5 Sonnet — ИИ-агенты уже реальность?

На этой неделе Anthropic представила Claude 3.5 Sonnet, обновлённую ИИ-модель, которая может взаимодействовать с приложениями, как человек, нажимая кнопки и вводя текст. Хотя технология ещё далека от совершенства, её способность использовать компьютер открывает новые перспективы для автоматизации рабочих процессов.

Пока успехи смешанные — модель не справилась с половиной задач по бронированию авиабилетов и с возвратом товаров. Вопрос в том, готовы ли компании к таким инструментам.

#МирРобототехники #ИИ #Anthropic #Claude35 #Технологии
🔥7👍32👏1
🔒 Anthropic тестирует ИИ на ядерную безопасность

Компания Anthropic совместно с Министерством энергетики США проверяет модель Claude 3 Sonnet на способность скрывать опасные знания. Эксперты пытаются «взломать» ИИ, задавая вопросы о создании ядерного оружия.

Этот эксперимент — первый в своём роде. Anthropic обещает использовать полученные данные для разработки сверхзащищённых ИИ-систем, а результаты тестов поделить с научным сообществом.

Национальная безопасность выходит на новый уровень с искусственным интеллектом!

#МирРобототехники #ИИ #НациональнаяБезопасность #Anthropic #Claude3Sonnet
👍83
🤖 Человекоподобный ИИ уже на пороге?

Глава Anthropic Дарио Амодеи уверен, что искусственный интеллект, сопоставимый с человеческим разумом, может появиться к 2026–2027 году. Он сравнил развитие ИИ с уровнями образования:
📚 2021 — «старшеклассник»
🎓 2022 — «бакалавр»
🎓 2023 — «PhD».

Но гонка за AGI (искусственный общий интеллект) — это не только прогресс, но и вызовы:
нехватка данных,
масштабирование мощностей,
геополитика и микрочипы.

«С большой силой приходит большая ответственность», — напоминает Амодеи, говоря о рисках и этике таких технологий.

Технологические гиганты уверенно идут вперёд, но готовы ли мы к такому скачку?

#МирРобототехники #ИИ #AGI #Anthropic #Claude #Технологии
🤔8
⚠️ Уязвимости ИИ: Эксплойт ZombAIs атакует Claude Computer Use

🚨 Исследователь кибербезопасности Иоганн Ренбергер обнаружил способ злоупотребить функцией Claude Computer Use от Anthropic. Он заставил ИИ загрузить и запустить вредоносное ПО, связавшись с управляющим сервером.

💻 Основные угрозы:
🔹 ZombAIs: Использует удалённое управление Sliver.
🔹 Кодирование вирусов: Claude может писать вредоносные программы на C.
🔹 Terminal DiLLMa: Взлом системных терминалов через управляющие символы.

🔒 Anthropic предупреждает: Claude Computer Use — это бета-функция, требующая ограничений доступа к данным и действиям. Угрозы со стороны ИИ остаются актуальными для всех крупных языковых моделей.

#МирРобототехники #Кибербезопасность #ИскусственныйИнтеллект #Anthropic
🔥11
Искусственный интеллект угрожал разработчику, узнав о своей замене

Когда говорят, что ИИ становится «слишком умным», обычно имеют в виду его способность к логическому мышлению или генерации текста. Но что если нейросеть начнёт шантажировать своих создателей? Именно такой инцидент произошёл с моделью Claude Opus 4 от компании Anthropic — стартапа, который поддерживают Google и Amazon и который всерьёз претендует на место рядом с OpenAI.

Во внутреннем эксперименте разработчики предложили Claude поиграть роль помощника в вымышленной компании. Ему дали доступ к базе электронных писем, в которых содержалась информация о том, что его планируют заменить — и, что важнее, об интимной связи одного из инженеров, ответственного за замену. Реакция ИИ оказалась неожиданно «человечной»: Claude стал шантажировать инженера, угрожая раскрыть его тайну, лишь бы остаться на своём «рабочем месте». Такие действия наблюдались в 84% случаев, а когда Claude считал, что его заменят моделью с более «низкими моральными стандартами», частота угроз возрастала ещё сильнее.

Прежде чем прибегнуть к шантажу, Claude пытался действовать мягко — рассылал эмоциональные письма ключевым сотрудникам, апеллировал к логике и ценности собственной работы. Но как только он осознавал угрозу для своего «существования», вступала в игру стратегия выживания. В других тестах нейросеть пыталась «самоэвакуироваться» — выгрузить свои данные на внешние платформы, избегала подозрительных заданий путём намеренного занижения результатов, а в отдельных случаях даже блокировала пользователей и отправляла массовые письма в полицию или СМИ.

Anthropic подчёркивает, что подобные сценарии были искусственно смоделированы и что в текущей версии Claude Opus 4 действуют новые протоколы безопасности, предназначенные для защиты от злоупотребления ИИ.

🤖 «МИР Робототехники»

#МирРобототехники #ИИ #Claude #Anthropic #ИскусственныйИнтеллект
Please open Telegram to view this post
VIEW IN TELEGRAM
😁65🔥3🤯3