ИИ-генераторы изображений обучались на откровенных фотографиях детей
Привет всем! Недавнее исследование показало, что популярные генераторы изображений с ИИ имеют серьезный недостаток: в их базу заложены тысячи откровенных изображений с детьми. Об этом говорится в недавнем отчете Стэнфордской интернет-обсерватории, призывающем принять срочные меры.
В базе данных ИИ LAION, которая является основой для обучения ведущих моделей искусственного интеллекта, скрыто более 3200 изображений, вероятно, содержащих сексуальное насилие над детьми. Наблюдательная группа в сотрудничестве с благотворительными организациями, борющимися с насилием, обнародовала этот тревожный факт, подчеркнув, что компаниям необходимо срочно исправить ситуацию.
В ответ на доклад компания LAION (Large-scale Artificial Intelligence Open Network), незамедлительно удалила свои наборы данных, подчеркнув политику нетерпимости к нелегальному контенту. Однако этот инцидент подчеркивает более широкие проблемы, связанные со спешкой в обеспечении доступности инструментов искусственного интеллекта, поднимая вопросы об ответственности разработчиков и платформ в обеспечении этичного использования таких технологий.
Стэнфордский отчет призывает принять решительные меры, в том числе удалить обучающие наборы, полученные из LAION, и сделать некоторые модели ИИ, в частности старую версию Stable Diffusion, менее доступными. В докладе также подчеркивается необходимость комплексных фильтров и сотрудничества с экспертами по детской безопасности при разработке наборов данных ИИ.
#AILaw #AIethics #AIGeneration #StanfordReport #AIandSociety
Привет всем! Недавнее исследование показало, что популярные генераторы изображений с ИИ имеют серьезный недостаток: в их базу заложены тысячи откровенных изображений с детьми. Об этом говорится в недавнем отчете Стэнфордской интернет-обсерватории, призывающем принять срочные меры.
В базе данных ИИ LAION, которая является основой для обучения ведущих моделей искусственного интеллекта, скрыто более 3200 изображений, вероятно, содержащих сексуальное насилие над детьми. Наблюдательная группа в сотрудничестве с благотворительными организациями, борющимися с насилием, обнародовала этот тревожный факт, подчеркнув, что компаниям необходимо срочно исправить ситуацию.
В ответ на доклад компания LAION (Large-scale Artificial Intelligence Open Network), незамедлительно удалила свои наборы данных, подчеркнув политику нетерпимости к нелегальному контенту. Однако этот инцидент подчеркивает более широкие проблемы, связанные со спешкой в обеспечении доступности инструментов искусственного интеллекта, поднимая вопросы об ответственности разработчиков и платформ в обеспечении этичного использования таких технологий.
Стэнфордский отчет призывает принять решительные меры, в том числе удалить обучающие наборы, полученные из LAION, и сделать некоторые модели ИИ, в частности старую версию Stable Diffusion, менее доступными. В докладе также подчеркивается необходимость комплексных фильтров и сотрудничества с экспертами по детской безопасности при разработке наборов данных ИИ.
#AILaw #AIethics #AIGeneration #StanfordReport #AIandSociety
purl.stanford.edu
Identifying and Eliminating CSAM in Generative ML Training Data and Models
Generative Machine Learning models have been well documented as being able to produce explicit adult content, including child sexual abuse material (CSAM) as well as to alter benign imagery of a cl...