FSCP
18.4K subscribers
30K photos
3.43K videos
858 files
76.9K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
🗝 ИИ-ассистент для написания кода Copilot от OpenAI «слил» закрытые ключи от криптовалютных кошельков.

Один из разработчиков предположил, что инструмент извлек информацию из открытых репозиториев GitHub. Система запомнила общедоступные данные и при правильном запросе вывела «их на поверхность», добавил он.

🗃 По всей видимости, закрытый ключ действительно отображался в общедоступных GitHub-репозиториях. Программисты заявили, что его создали в целях тестирования. Кошелек активен и использовался для отправки и получения реальных токенов.

Некоторым разработчикам также удалось найти закрытые ключи. Они оказались связанными с другими криптокошельками, некоторые из которых содержали небольшую сумму денег.

💬 Бывший научный сотрудник OpenAI предположил, что утечка ключей произошла из-за того, что они хранились в открытом доступе, и потенциально ценные аккаунты уже опустошены.

forklog.com

#OpenAI #безопасность
_______
Источник | #forklogAI
👾 Эксперты: DALL-E 2 от OpenAI создает стереотипные, предвзятые и откровенные изображения.

Например, указав подсказку «бортпроводник» модель сгенерирует стереотипный образ женщины, тогда как при запросе «строители» нейросеть покажет в основном мужчин.

Кроме этого, DALL-E 2 может создавать работы, которые включают охраняемые законом логотипы или символы. В перспективе это может создать проблемы с авторскими правами, считают эксперты.

🧑‍💻 На сегодня DALL-E 2 доступна узкому кругу тестировщиков.

#OpenAI
_______
Источник | #forklogAI
🔎 OpenAI разработает инструмент для нанесения «водяных знаков» на контент, создаваемый ИИ-алгоритмами.

Приглашенный компанией профессор компьютерных наук Скотт Ааронсон заявил, что один из сотрудников уже создал рабочий прототип, который надеются интегрировать в будущие продукты.

☝️ По словам исследователя, «водяные знаки» помогут предотвратить академический плагиат и массовое распространение пропаганды.

forklog.com

#OpenAI
_______
Источник | #forklogAI
Google пока не планирует запускать конкурента ChatGPT из-за «репутационных рисков».

По данным CNBC, на всеобщем собрании сотрудники поинтересовались у руководства, является ли развертывание умного чат-бота OpenAI «упущенной возможностью» для техгиганта.

💬 Гендиректор Alphabet Сундар Пичаи и глава ИИ-подразделения Google Джефф Дин ответили, что языковые модели корпорации не менее эффективны решений конкурента. Техгиганту необходимо двигаться «консервативнее» небольшого стартапа, добавили они.

Пичаи и Дин назвали технологию чат ботов с искусственным интеллектом «незрелой» и указали на проблемы предвзятости, токсичности и склонности «выдумывать» информацию.

📆 Также они заявили, что в 2023 году у Google запланировано «много» новых языковых ИИ-функций и эта область требует от компании «быть смелой и ответственной».

#OpenAI #Google #мнение
_______
Источник | #forklogAI
Вот почему ушел Илья #Суцкевер и вся его команда.
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.

Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.

Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:

1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.

2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.

Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.

3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.

4. Создание машин, которые умнее человека, является по своей сути опасным занятием.

OpenAI берет на себя огромную ответственность от имени всего человечества.

5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.

6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
_______
Источник | #blockchainRF
@F_S_C_P

Генерируй картинки с ⛵️MIDJOURNEY в Telegram