Вот почему ушел Илья #Суцкевер и вся его команда.
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.
Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.
Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:
1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.
2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.
Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.
3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.
4. Создание машин, которые умнее человека, является по своей сути опасным занятием.
OpenAI берет на себя огромную ответственность от имени всего человечества.
5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.
6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
_______
Источник | #blockchainRF
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Сегодня написал пост-объяснение Ян Лейке, который возглавлял команду по безопасности AGI.
А также вышел отличный материал в Vox, написанный со слов сотрудника OpenAI. Кстати, интересный факт, когда человек увольняется из OpenAI, то его ждет неприятный сюрприз - подписание соглашения о не разглашении информации и запрете критики #OpenAI, если человек не подпишет, то потеряет весь капитал.
Капитал является частью зп - это акции, которые сотрудники уже заработали за время работы в OpenAI.
Вот, что Ян Лейке написал, собрали основное, оно же есть в статье Vox:
1. Уйти с этой работы было одним из самых трудных решений, потому что нам срочно нужно выяснить, как управлять и контролировать ИИ-системы, которые намного умнее нас.
2. Я присоединился к OpenAI, потому что считал, что она будет лучшим местом в мире для проведения этих исследований.
Однако я довольно долго не соглашался с руководством OpenAI по поводу основных приоритетов компании, пока не наступил переломный момент.
3. Последние несколько месяцев моя команда шла против ветра. Иногда у нас были проблемы с вычислительными ресурсами, и проводить это важное исследование становилось все труднее и труднее.
4. Создание машин, которые умнее человека, является по своей сути опасным занятием.
OpenAI берет на себя огромную ответственность от имени всего человечества.
5. Последние годы культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией.
6. Я считаю, что гораздо больше внимания следует потратить во время подготовки следующих моделей на безопасность, мониторинг, (супер)согласованность, конфиденциальность, влияние на общество и смежные темы.
_______
Источник | #blockchainRF
@F_S_C_P
Генерируй картинки с ⛵️MIDJOURNEY в Telegram
Vox
“I lost trust”: Why the OpenAI team in charge of safeguarding humanity imploded
Company insiders explain why safety-conscious employees are leaving.