Forklog
2023-10-26 09:39:17

Эксперты обеспокоились ИИ-материалами с насилием над детьми

Британская компания по надзору за интернетом Internet Watch Foundation (IWF) сообщила о быстром распространении материалов с сексуальным насилием над детьми (CSAM), созданных с помощью искусственного интеллекта.  Согласно отчету исследователей, всего за один месяц на одном из даркнет-форумах обнаружено более 20 254 изображений CSAM, сгенерированных ИИ. Из них более половины нарушали положения Великобритании о защите детей и другие законы. Аналитики предупредили, что поток подобных материалов может «захлестнуть» сеть.  «Злоумышленники могут легально загрузить все необходимое для создания этих изображений, а затем сгенерировать их столько, сколько захотят в автономном режиме без возможности отслеживания. Существуют различные инструменты для улучшения и редактирования подобных материалов, пока они не будут выглядеть именно так, как хочет преступник», — подчеркнули в IWF. Большинство сгенерированных CSAM «достаточно реалистичны», заявили эксперты. Самые убедительные изображения с трудом сможет отличить даже опытный аналитик.  В IWF отметили возросшую вероятность «повторной виктимизации» известных жертв сексуального насилия. Кроме того, исследователи обнаружили множество CSAM-изображений с детьми-знаменитостями.  В отчете сказано, что новые технологии дали преступникам дополнительный способ заработка денег. «Создание и распространение руководств по ИИ CSAM в настоящее время не является нарушением законодательства, но может стать таковым. Правовой статус  используемых для генерации изображений моделей — более сложный вопрос», — говорится в документе. В сентябре организация предупредила, что группы педофилов обсуждают и обмениваются советами по созданию незаконных изображений с использованием ИИ-утилит с открытым исходным кодом, которые можно запускать локально на персональном компьютере.  В IWF призвали к международному сотрудничеству для борьбы с CSAM. Инициатива подразумевает изменение законодательства, совершенствование подготовки сотрудников правоохранительных органов и установление нормативного надзора за моделями искусственного интеллекта. Эксперты также рекомендовали разработчикам запретить использование ИИ для создания материалов о жестоком обращении с детьми, внести изменения в соответствующие языковые модели и отдать приоритет удалению подобного контента.    Проблема генерируемых нейросетями незаконных материалов уже продолжительное время обсуждается в сообществе. Ранее президент Microsoft Брэд Смит предложил использовать систему KYC, созданную по образцу финансовых учреждений, для выявления преступников, использующих ИИ для распространения дезинформации и других неправомерных действий. В июле штат Луизиана принял закон, ужесточающий наказание за продажу и хранение детской порнографии, созданной с помощью алгоритмов. За нарушение положений грозит тюремное заключение сроком от 5 до 20 лет и/или штраф в размере до $10 000. В августе Министерство юстиции США обновило «Справочник для граждан по федеральному закону о детской порнографии». В нем уточняется, что изображения детской порнографии не защищены Первой поправкой и являются незаконными. Напомним, в мае один из пионеров отрасли Джеффри Хинтон предупредил о потенциальных угрозах, связанных с ИИ. До этого экс-глава Google Эрик Шмидт заявил, что технология представляет собой «экзистенциальный риск», из-за которого многие люди могут «пострадать или погибнуть». https://forklog.com/exclusive/ai/temnaya-era-ii-pochemu-etika-iskusstvennogo-intellekta-vazhna

获取加密通讯
阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约