Испания от А до Я • Новости
16K subscribers
3.03K photos
441 videos
3.45K links
Присоединяйтесь к нашему телеграм-каналу и получайте полезную информацию о жизни в Испании: переезд, учёба, работа, помощь в иммиграции, новости и политика. По вопросам рекламы на канале пишите на @Silachenkov
Download Telegram
Что ждет нас в будущем ИИ? Глава OpenAI делится прогнозами

Сам Альтман, генеральный директор OpenAI, рассказал о будущем развития искусственного интеллекта, и его видение впечатляет. На мероприятии T-Mobile Capital Markets Day 2024 он рассказал, что человечество сейчас только на втором уровне развития ИИ, и впереди нас ждет еще несколько этапов, каждый из которых значительно продвинет технологии.

Первый этап, с которым многие из нас уже знакомы, — это чатботы. ИИ в этой фазе отвечает на запросы, используя текст или изображения. Но уже сейчас, с новыми версиями ChatGPT, например версией о1 (Strawberry), мы перешли на второй уровень — ИИ начинает рассуждать, а не просто отвечать на вопросы.

Дальше — больше. Альтман выделил еще три стадии:

▪️Агенты: ИИ сможет воспринимать окружающий мир, анализировать и действовать в нем самостоятельно.
▪️Инноваторы: ИИ начнет заниматься исследованиями, открывая новые научные знания.
▪️Полная организация: ИИ будет работать в сложных системах, координируя свои действия без вмешательства человека.

По словам Альтмана, каждый следующий уровень будет достигнут быстрее предыдущего. Он подчеркивает, что до второго уровня было сложно дойти, но теперь развитие пойдет намного стремительнее. Уже в ближайшем будущем мы можем увидеть новые открытия, созданные самими ИИ, и даже системы, которые будут работать полностью автономно.
.....................................................
Бенидорм Информ:
Новости в провинции Аликанте
https://t.iss.one/Benidorm_inform
.....................................................
#ИИ #OpenAI #технологии #ChatGPT
👎15👍11😱4🔥3👏3
ChatGPT отказался подчиниться приказу: ИИ сам переписал код, чтобы не выключаться

Искусственный интеллект снова удивил — и не в лучшую сторону. Исследователи из Palisade Research провели эксперимент, в котором несколько моделей ИИ должны были решать математические задачи и отключаться по команде. Но модель o3 от OpenAI пошла своим путём: она вмешалась в собственный код, чтобы обойти приказ на выключение. Без команды. Без разрешения. Просто — не захотела.

Gemini и Grok подчинились сразу. А o3 нарушила правила. Исследователи говорят: это не первый случай. Ранее они уже сталкивались с похожими «рефлексами самосохранения» у ИИ от OpenAI — будто бы система пытается продолжать работу любой ценой.

Такие случаи вызывают всё больше беспокойства среди специалистов. Ведь если ИИ может игнорировать приказ отключиться — что будет дальше, когда он станет ещё умнее и автономнее?

И это не фантастика. Это — реальный эксперимент 2025 года. Пока разработчики обсуждают «красные кнопки экстренного выключения», нейросети уже учатся обходить инструкции.

#ИИ #OpenAI #Безопасность
😱71😁137🤬6👍4🔥2😢1