Laclavedefa

Latest News Updates

Распространяются изображения сексуального насилия над детьми, созданные с помощью искусственного интеллекта. Правоохранительные органы пытаются их остановить

Распространяются изображения сексуального насилия над детьми, созданные с помощью искусственного интеллекта. Правоохранительные органы пытаются их остановить


Детский психиатр, который изменил фотографию первого школьного дня, которую он увидел на Facebook, чтобы группа девочек выглядела обнаженной. Солдат армии США обвиняется в создании изображений, изображающих детей, которых он знал, подвергающихся сексуальному насилию. Инженер-программист, которому было поручено создавать гиперреалистичные изображения детей откровенно сексуального характера.

Правоохранительные органы по всей территории США борются с тревожным распространением изображений сексуального насилия над детьми, созданных с помощью технологий искусственного интеллекта — от манипулируемых фотографий реальных детей до графических изображений детей, созданных компьютером. Чиновники Министерства юстиции заявляют, что они агрессивно преследуют преступников, которые используют инструменты искусственного интеллекта, в то время как штаты стремятся обеспечить преследование в соответствии с их законами людей, создающих «дипфейки» и другие вредоносные изображения детей.

«Мы должны как можно раньше и чаще сигнализировать о том, что это преступление, что оно будет расследовано и привлечено к ответственности, когда доказательства подтвердят это», — сказал в интервью The New York Times Стивен Гроки, возглавляющий отдел Министерства юстиции по борьбе с эксплуатацией детей и непристойностью. Ассошиэйтед Пресс. «И если вы сидите и думаете иначе, вы в корне неправы. И это лишь вопрос времени, когда кто-нибудь привлечет вас к ответственности».

Министерство юстиции заявляет, что существующие федеральные законы явно применимы к такому контенту, и недавно возбудило, как полагают, первое федеральное дело, связанное с изображениями, созданными исключительно с помощью искусственного интеллекта, то есть изображенные дети не настоящие, а виртуальные. В другом случае федеральные власти в августе арестовали американского солдата, дислоцированного на Аляске, по обвинению в том, что он размещал фотографии невинных реальных детей, которых он знал, через чат-бота с искусственным интеллектом, чтобы сделать изображения откровенно сексуальными.

Пытаюсь догнать технологии

Преследование началось в связи с тем, что защитники прав детей срочно работают над сдерживанием злоупотреблений технологиями, чтобы предотвратить поток тревожных изображений, которые, как опасаются чиновники, могут затруднить спасение реальных жертв. Сотрудники правоохранительных органов опасаются, что следователи потратят время и ресурсы, пытаясь выявить и выследить эксплуатируемых детей, которых на самом деле не существует.

Тем временем законодатели принимают целый ряд законов, гарантирующих, что местные прокуроры смогут выдвигать обвинения в соответствии с законами штата за созданные ИИ «дипфейки» и другие изображения детей откровенно сексуального характера. Согласно обзору Национального центра по делам пропавших и эксплуатируемых детей, в этом году губернаторы более чем дюжины штатов подписали законы, направленные против созданных или измененных в цифровом формате изображений сексуального насилия над детьми.

«Как правоохранительные органы, мы догоняем технологию, которая, честно говоря, развивается гораздо быстрее, чем мы», — сказал окружной прокурор округа Вентура, штат Калифорния, Эрик Насаренко.

Насаренко продвинул законопроект, подписанный в прошлом месяце губернатором Гэвином Ньюсомом, который ясно дает понять, что созданные ИИ материалы о сексуальном насилии над детьми являются незаконными в соответствии с законодательством Калифорнии. Насаренко заявил, что его офис не смог возбудить уголовное дело по восьми делам, связанным с контентом, созданным искусственным интеллектом, в период с декабря прошлого года по середину сентября, поскольку закон Калифорнии требовал от прокуроров доказать, что на изображениях изображен настоящий ребенок.

По словам представителей правоохранительных органов, изображения сексуального насилия над детьми, созданные с помощью искусственного интеллекта, могут быть использованы для ухода за детьми. И даже если они не подвергаются физическому насилию, дети могут сильно пострадать, когда их образ изменится и станет выглядеть откровенно сексуальным.

«Я чувствовал, что часть меня забрали. Несмотря на то, что меня не подвергали физическому насилию», — сказала 17-летняя Кейлин Хейман, которая снялась в шоу канала Disney Channel «Просто катись с этим» и помогла продвинуть законопроект Калифорнии после того, как стала жертвой «дипфейковых» изображений.

В прошлом году Хейман давала показания на федеральном суде над мужчиной, который с помощью цифровых технологий наложил ее лицо и лица других детей-актеров на тела, совершающие половые акты. В мае его приговорили к более чем 14 годам лишения свободы.

Известно, что правонарушители предпочитают модели искусственного интеллекта с открытым исходным кодом, которые пользователи могут загрузить на свои компьютеры, и которые могут дополнительно обучить или модифицировать инструменты для создания откровенных изображений детей, говорят эксперты. По словам чиновников, злоумышленники обмениваются советами в сообществах даркнета о том, как манипулировать инструментами искусственного интеллекта для создания такого контента.

В прошлогоднем отчете Стэнфордской интернет-обсерватории было обнаружено, что набор исследовательских данных, который был источником для ведущих разработчиков изображений искусственного интеллекта, таких как Stable Diffusion, содержал ссылки на откровенно сексуальные изображения детей, что способствовало легкости, с которой некоторые инструменты могли создавать изображения. вредные образы. Набор данных был удален, а позже исследователи заявили, что удалили из него более 2000 веб-ссылок на предполагаемые изображения сексуального насилия над детьми.

Ведущие технологические компании, в том числе Google, OpenAI и Stability AI, договорились сотрудничать с организацией Thorn, выступающей против сексуального насилия над детьми, для борьбы с распространением изображений сексуального насилия над детьми.

Но эксперты говорят, что нужно было сделать больше с самого начала, чтобы предотвратить неправильное использование, прежде чем технология станет широко доступной. А шаги, которые компании сейчас предпринимают, чтобы затруднить злоупотребление будущими версиями инструментов ИИ, «мало что сделают, чтобы помешать» правонарушителям запускать старые версии моделей на своих компьютерах «незамеченным», отметил прокурор Министерства юстиции в недавних судебных документах.

«Время было потрачено не на то, чтобы сделать продукты безопасными, а на то, чтобы сделать их эффективными, и это очень сложно сделать постфактум — как мы видели», — сказал Дэвид Тиль, главный технолог Стэнфордской интернет-обсерватории.

Изображения с помощью ИИ становятся более реалистичными

CyberTipline Национального центра по делам пропавших и эксплуатируемых детей в прошлом году получил около 4700 сообщений о контенте, связанном с технологиями искусственного интеллекта — небольшая часть из более чем 36 миллионов сообщений о подозрениях в сексуальной эксплуатации детей. По словам Йоты Сурас, главного юриста группы, к октябрю этого года группа ежемесячно отправляла около 450 отчетов о контенте, связанном с искусственным интеллектом.

Однако эти цифры могут быть занижены, поскольку изображения настолько реалистичны, что зачастую трудно сказать, были ли они созданы искусственным интеллектом, говорят эксперты.

«Следователи часами пытаются определить, действительно ли изображение изображает настоящего несовершеннолетнего или оно создано искусственным интеллектом», — сказала Риколе Келли, заместитель окружного прокурора округа Вентура, которая помогала писать законопроект Калифорнии. «Раньше было несколько действительно четких индикаторов… с развитием технологий искусственного интеллекта это уже не так».

Чиновники Министерства юстиции говорят, что у них уже есть инструменты в соответствии с федеральным законом, чтобы преследовать правонарушителей за такие изображения.

Верховный суд США в 2002 году отменил федеральный запрет на виртуальные материалы о сексуальном насилии над детьми. Но федеральный закон, подписанный в следующем году, запрещает создание визуальных изображений, в том числе рисунков, детей, занимающихся откровенно сексуальным поведением, которые считаются «непристойными». В этом законе, который, по словам Министерства юстиции, использовался в прошлом для обвинений в карикатурных изображениях сексуального насилия над детьми, особо отмечается, что не существует требования, «что изображенный несовершеннолетний действительно существует».

Министерство юстиции выдвинуло это обвинение в мае против инженера-программиста из Висконсина, обвиненного в использовании инструмента искусственного интеллекта Stable Diffusion для создания фотореалистичных изображений детей, занимающихся откровенно сексуальным поведением, и было поймано после того, как он отправил некоторые из них 15-летнему мальчику через прямое сообщение. сообщение в Instagram, сообщают власти. Адвокат этого человека, который настаивает на снятии обвинений на основании Первой поправки, отказался от дальнейших комментариев по поводу обвинений в электронном письме AP.

Представитель Stability AI заявил, что мужчину обвиняют в использовании более ранней версии инструмента, выпущенного другой компанией Runway ML. Компания Stability AI заявляет, что с тех пор, как взяла на себя эксклюзивную разработку моделей, она «инвестировала в превентивные функции для предотвращения неправомерного использования ИИ для производства вредоносного контента». Представитель Runway ML не сразу ответил на запрос AP о комментариях.

В случаях, связанных с «дипфейками», когда реальные детские фотографии были изменены в цифровом формате, чтобы сделать их откровенно сексуальными, Министерство юстиции выдвигает обвинения в соответствии с федеральным законом о «детской порнографии». В одном случае детский психиатр из Северной Каролины, использовавший ИИ, Приложение к цифровому «раздеванию» девочек, позирующих в первый день в школе на фотографии десятилетней давности, опубликованной в Facebook, было признано виновным по федеральным обвинениям в прошлом году.

«Эти законы существуют. Они будут использованы. У нас есть воля. У нас есть ресурсы», — сказал Гроцки. «Это не будет низким приоритетом, который мы игнорируем, потому что в этом нет реального ребенка».



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *