FSCP
17.2K subscribers
30.6K photos
3.57K videos
863 files
78.1K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
🗝 ИИ-ассистент для написания кода Copilot от OpenAI «слил» закрытые ключи от криптовалютных кошельков.

Один из разработчиков предположил, что инструмент извлек информацию из открытых репозиториев GitHub. Система запомнила общедоступные данные и при правильном запросе вывела «их на поверхность», добавил он.

🗃 По всей видимости, закрытый ключ действительно отображался в общедоступных GitHub-репозиториях. Программисты заявили, что его создали в целях тестирования. Кошелек активен и использовался для отправки и получения реальных токенов.

Некоторым разработчикам также удалось найти закрытые ключи. Они оказались связанными с другими криптокошельками, некоторые из которых содержали небольшую сумму денег.

💬 Бывший научный сотрудник OpenAI предположил, что утечка ключей произошла из-за того, что они хранились в открытом доступе, и потенциально ценные аккаунты уже опустошены.

forklog.com

#OpenAI #безопасность
_______
Источник | #forklogAI
👾 Эксперты: DALL-E 2 от OpenAI создает стереотипные, предвзятые и откровенные изображения.

Например, указав подсказку «бортпроводник» модель сгенерирует стереотипный образ женщины, тогда как при запросе «строители» нейросеть покажет в основном мужчин.

Кроме этого, DALL-E 2 может создавать работы, которые включают охраняемые законом логотипы или символы. В перспективе это может создать проблемы с авторскими правами, считают эксперты.

🧑‍💻 На сегодня DALL-E 2 доступна узкому кругу тестировщиков.

#OpenAI
_______
Источник | #forklogAI
🔎 OpenAI разработает инструмент для нанесения «водяных знаков» на контент, создаваемый ИИ-алгоритмами.

Приглашенный компанией профессор компьютерных наук Скотт Ааронсон заявил, что один из сотрудников уже создал рабочий прототип, который надеются интегрировать в будущие продукты.

☝️ По словам исследователя, «водяные знаки» помогут предотвратить академический плагиат и массовое распространение пропаганды.

forklog.com

#OpenAI
_______
Источник | #forklogAI
Google пока не планирует запускать конкурента ChatGPT из-за «репутационных рисков».

По данным CNBC, на всеобщем собрании сотрудники поинтересовались у руководства, является ли развертывание умного чат-бота OpenAI «упущенной возможностью» для техгиганта.

💬 Гендиректор Alphabet Сундар Пичаи и глава ИИ-подразделения Google Джефф Дин ответили, что языковые модели корпорации не менее эффективны решений конкурента. Техгиганту необходимо двигаться «консервативнее» небольшого стартапа, добавили они.

Пичаи и Дин назвали технологию чат ботов с искусственным интеллектом «незрелой» и указали на проблемы предвзятости, токсичности и склонности «выдумывать» информацию.

📆 Также они заявили, что в 2023 году у Google запланировано «много» новых языковых ИИ-функций и эта область требует от компании «быть смелой и ответственной».

#OpenAI #Google #мнение
_______
Источник | #forklogAI
Вот почему ушел Илья #Суцкевер и вся его команда.
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.

Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.

Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:

1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.

2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.

Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.

3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.

4. Создание машин, которые умнее человека, является по своей сути опасным занятием.

OpenAI берет на себя огромную ответственность от имени всего человечества.

5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.

6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
_______
Источник | #blockchainRF
@F_S_C_P

Генерируй картинки с ⛵️MIDJOURNEY в Telegram
🎙️ ChatGPT против СМИ: суд разрешил публичное прослушивание слушаний по иску New York Times 📰⚖️

🔔 Что случилось?
Судья Сидни Штейн разрешил публичное прослушивание онлайн устных слушаний по делу OpenAI и Microsoft против New York Times, назначенных на 14 января 2025 года, 10:30 утра (заседание пройдет в зале суда 23A).

💡 Как подключиться?
Вы можете подключиться через MS Teams (только аудио), используя:
📞 Номер: +1 646-453-4442
🔑 ID конференции: 307 619 861#
⚠️ Напоминаем: запись или ретрансляция заседания запрещены законом.

🔍 Что на повестке?
Microsoft и OpenAI подали ходатайства об отклонении ряда исков, включая:

👉 Иски New York Times по законам DMCA и местным законам штатов

👉 Иски Daily News

👉 Иски от Center for Investigative Reporting

📅 Почему это важно?
Это знаменательное событие в сфере ИИ и медиа-прав! Публичное прослушивание откроет доступ к разбирательствам, связанным с обвинениями СМИ против технологий искусственного интеллекта.

👨‍⚖️ Следим за развитием! Подключайтесь и будьте в центре обсуждений, формирующих будущее ИИ и права.

#Суд #OpenAI #Microsoft #NewYorkTimes #ИИ #МедиаПраво

_______
Источник | #enlawreport
@F_S_C_P

Стань спонсором!