Осторожно, чат-боты! Новые ИИ, такие как Google's Bard или ChatGPT, используют для работы огромные объёмы данных. Никого из пользователей интернета не спросили, может ли OpenAI использовать эти данные. Иными словами, все «грязные» секреты могут быть раскрыты нейросетью любому человеку, который достаточно точно сформулирует запрос.
😡 Как вы думаете, является ли использование данных, собранных без разрешения, неэтическим поведением компании OpenAI?
#OpenAI, #Privacy, @SecLabNews
#OpenAI, #Privacy, @SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
ChatGPT — ночной кошмар для конфиденциальности
Любое ваше сообщение, попавшее в Интернет, может быть использовано нейросетью для ответа другому человеку.
Два разработчика использовали модель DALL-E2 от OpenAI для создания программы Forensic Sketch AI-rtist, которая может создавать сверхреалистичные эскизы подозреваемых на основе текстового описания. Цель программы - сократить время поиска подозреваемого.
В чем могут заключаться риски использования генеративного ИИ в полицейской криминалистике?
#AI #OpenAI #Криминалистика @SecLabNews
В чем могут заключаться риски использования генеративного ИИ в полицейской криминалистике?
#AI #OpenAI #Криминалистика @SecLabNews
SecurityLab.ru
Создана нейросеть для генерации фоторобота преступников
Теперь ИИ будет выбирать, кого сажать в тюрьму, основываясь на человеческих предубеждениях и стереотипах.
OpenAI выпустила новую языковую модель GPT-4, которая демонстрирует показатели человеческого уровня на большинстве профессиональных и академических экзаменов. Однако разработчики предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.
Новая языковая модель GPT-4 от #OpenAI: прорыв в искусственном интеллекте или угроза для общества?
#AI #chatbots #disinformation @SecLabNews
Новая языковая модель GPT-4 от #OpenAI: прорыв в искусственном интеллекте или угроза для общества?
#AI #chatbots #disinformation @SecLabNews
SecurityLab.ru
GPT-4: новый прорыв в чат-бот технологиях или угроза для человечества?
Разработчики предупреждают о возможности использования GPT-4 для создания убедительной дезинформации и вызывают опасение по поводу возможных последствий.
Новое исследование от OpenAI и Университета Пенсильвании показывает, что внедрение технологии GPT повлияет на задачи 80% американских работников. У 19% из них изменения затронут по крайней мере 50% задач.
Интересно, что GPT больше всего изменит работу математиков, специалистов по налогам, писателей, веб-дизайнеров, бухгалтеров, журналистов и юридических секретарей.
#искусственныйинтеллект #технологии #GPT #OpenAI @SecLabNews
Интересно, что GPT больше всего изменит работу математиков, специалистов по налогам, писателей, веб-дизайнеров, бухгалтеров, журналистов и юридических секретарей.
#искусственныйинтеллект #технологии #GPT #OpenAI @SecLabNews
SecurityLab.ru
OpenAI: ИИ повлияет на 80% профессий в США
Внедрение технология GPT в основном затронет профессии, связанные с программированием и написанием текстов.
«ChatGPT и конфиденциальность: взлом или ошибка?» - На прошлой неделе ChatGPT, нейросетевой чат-бот от OpenAI, случайно показал некоторым пользователям заголовки чужих бесед. По словам представителя компании, это произошло из-за программной ошибки в библиотеке с открытым исходным кодом.
Компания выпустила патч, исправляющий ситуацию. Однако до сих пор нет полной уверенности, что пользовательские диалоги не были выгружены из системы.
#ChatGPT #OpenAI #конфиденциальность #безопасность @SecLabNews
Компания выпустила патч, исправляющий ситуацию. Однако до сих пор нет полной уверенности, что пользовательские диалоги не были выгружены из системы.
#ChatGPT #OpenAI #конфиденциальность #безопасность @SecLabNews
SecurityLab.ru
Случилось то, чего многие боялись: в ChatGPT произошла утечка пользовательских данных
Истории чужих диалогов с чат-ботом внезапно стали доступны многим пользователям нейросети.
Хотите помочь миру стать безопаснее и заработать при этом миллион долларов?
Тогда нужно узнать о новой грантовой программе от OpenAI по кибербезопасности. Она предназначена для специалистов по ИИ, которые хотят разрабатывать защитные технологии и измерять их эффективность.
Кто знает, может быть ты станешь одним из тех, кто изменит баланс сил в кибервойне?
#OpenAI #кибербезопасность #ИИ #грант
Тогда нужно узнать о новой грантовой программе от OpenAI по кибербезопасности. Она предназначена для специалистов по ИИ, которые хотят разрабатывать защитные технологии и измерять их эффективность.
Кто знает, может быть ты станешь одним из тех, кто изменит баланс сил в кибервойне?
#OpenAI #кибербезопасность #ИИ #грант
SecurityLab.ru
OpenAI ищет белых хакеров для борьбы с киберпреступностью
Грантовая программа на 1 миллион долларов призвана поддержать разработку защитных ИИ-технологий и способствовать дискуссии о взаимодействии ИИ и кибербезопасности.
GitHub Copilot: гениальный помощник или пиратский вор?
«Copilot - это оригинальный метод пиратства программного обеспечения», — утверждают истцы в судебном иске против Microsoft, GitHub и OpenAI. Компании обвиняют в нарушении авторского права из-за дословного копирования лицензионного кода других разработчиков, а в последней итерации жалобы вообще утверждается, что платформа GitHub намеренно вносит изменения в генерируемый код, чтобы он просто не мог дословно совпасть с кодом общедоступным, что довольно удобно для всех компаний.
Противостояние между GitHub, Microsoft, OpenAI и разработчиками подчеркивает необходимость пересмотра и адаптации существующих законов об авторском праве к реалиям цифровой эпохи, в которой трудно определить границы оригинальности и заимствования.
#Copilot #GitHub #Microsoft #OpenAI #код #авторское_право #пиратство @SecLabNews
«Copilot - это оригинальный метод пиратства программного обеспечения», — утверждают истцы в судебном иске против Microsoft, GitHub и OpenAI. Компании обвиняют в нарушении авторского права из-за дословного копирования лицензионного кода других разработчиков, а в последней итерации жалобы вообще утверждается, что платформа GitHub намеренно вносит изменения в генерируемый код, чтобы он просто не мог дословно совпасть с кодом общедоступным, что довольно удобно для всех компаний.
Противостояние между GitHub, Microsoft, OpenAI и разработчиками подчеркивает необходимость пересмотра и адаптации существующих законов об авторском праве к реалиям цифровой эпохи, в которой трудно определить границы оригинальности и заимствования.
#Copilot #GitHub #Microsoft #OpenAI #код #авторское_право #пиратство @SecLabNews
SecurityLab.ru
Заговор против программистов: Microsoft, GitHub и OpenAI обвиняются в сокрытии факта кражи лицензионного кода
Умный помощник для разработки Copilot уже давно нарушает закон об авторском праве.
Worldcoin: зачем нужен «орб» и как он может изменить экономику будущего?
1️⃣ Worldcoin — это новый криптовалютный проект от Сэма Альтмана, главы OpenAI, который предлагает пользователям получить цифровой паспорт World ID и токен WLD за сканирование радужки глаза с помощью специального устройства — «орба».
2️⃣ Проект имеет около 2 миллионов пользователей и проводит «орбинг-операции» в 35 городах 20 стран, а также планирует использовать World ID для борьбы с мошенничеством и внедрения всеобщего базового дохода (UBI) в будущем.
3️⃣ Поскольку ИИ в будущем будет делать всё больше и больше работы, которую сейчас выполняют люди, Альтман считает, что UBI сможет помочь в борьбе с неравенством доходов и обеспечением выживания для бедных слоёв населения.
#worldcoin #cryptocurrency #openai @SecLabNews
#worldcoin #cryptocurrency #openai @SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Сэм Альтман запустил Worldcoin: цифровой паспорт и всеобщий базовый доход для всех
Инновационный проект наконец вышел из бета-теста и доступен гораздо большему числу пользователей.
Книги против кода: писатели обвиняют OpenAI в краже
🔤 Известные американские писатели подали иск против OpenAI, утверждая нарушение авторских прав.
🔤 Они обвиняют компанию в использовании их произведений для обучения ChatGPT.
🔤 В иске утверждается, что OpenAI использовало проект Gutenberg и "теневые библиотеки" для обучения моделей.
#OpenAI #АвторскиеПрава #Литература @SecLabNews
#OpenAI #АвторскиеПрава #Литература @SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Пулитцеровский бунт: известные писатели США подали иск против OpenAI
OpenAI снова на скамье подсудимых.
Forwarded from Цифровой блокпост
SkyNet VS OpenAI: хакерская атака Anonymous Sudan на ChatGPT
🔥 OpenAI столкнулась с серией DDoS-атак от группы Anonymous Sudan, в результате чего сервисы API и ChatGPT испытывали перебои в работе.
🔥 Пользователи ChatGPT столкнулись с ошибками и сообщениями о высокой нагрузке, следствием чего стали сбои в сервисе.
🔥 Anonymous Sudan использовала ботнет SkyNet для осуществления атак Уровня 7, мотивированных предвзятостью OpenAI в конфликте между Израилем и Палестиной.
#DDoSAttack #OpenAI #CyberSecurity #SkyNet
@CyberStrikeNews
#DDoSAttack #OpenAI #CyberSecurity #SkyNet
@CyberStrikeNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
SkyNet против OpenAI: группа Anonymous Sudan отключила бота ChatGPT
Хакеры 2 дня проводили стресс-тест систем компании.
Альтман 'вышел', Шир 'вошел': двери OpenAI вращаются все быстрее
🔴 OpenAI объявила о назначении Эмметта Шира, сооснователя и бывшего руководителя Twitch, временным генеральным директором после скандального увольнения Сэма Альтмана. Это уже третий генеральный директор за прошедшие три дня.
🔴 Альтман был уволен в пятницу советом директоров OpenAI, потому что «не всегда был откровенен в общении с советом директоров, что мешало ему выполнять свои обязанности».
🔴 В воскресенье вечером генеральный директор Microsoft Сатья Наделла, объявил, что Альтман и Грег Брокман, вместе с коллегами, присоединятся к Microsoft, чтобы возглавить исследовательскую группу в области искусственного интеллекта.
#OpenAI #Microsoft #Альтман @SecLabNews
#OpenAI #Microsoft #Альтман @SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Новый поворот в OpenAI: бывший глава Twitch у руля компании, Альтман и Брокман в Microsoft
Сэм Альтман ушёл из OpenAI, но не из мира искусственного интеллекта.
Алгоритм Q-Star от OpenAI: начало новой эры в искусственном интеллекте?
✅ Исследователи OpenAI разработали новый алгоритм ИИ «Q*» («Q-Star»), который может стать ключевым элементом в достижении общего искусственного интеллекта (AGI), превосходящего человеческий разум.
✅ Несмотря на то, что «Q*» пока выполняет лишь элементарные математические задачи, его потенциал вызывает опасения среди исследователей.
✅ Накануне временного отстранения Сэма Альтмана с поста генерального директора OpenAI, группа исследователей направила письмо совету директоров, указав на потенциальную опасность нового ИИ.
#QStar #OpenAI #ИИ @SecLabNews
#QStar #OpenAI #ИИ @SecLabNews
Please open Telegram to view this post
VIEW IN TELEGRAM
SecurityLab.ru
Прорыв на грани фола: алгоритм «Q-Star» от OpenAI приближает нас к созданию суперинтеллекта
Новая эра в развитии ИИ может переопределить будущее человечества.