Администрация президента США Джо Байдена изучит вопрос о необходимости установления правил для систем искусственного интеллекта вроде ChatGPT. Об этом пишет The Wall Street Journal.
Министерство торговли США запустило сбор комментариев о том, должны ли потенциально рискованные ИИ-модели проходить процесс сертификации перед их выпуском.
«Мы знаем, что нам нужно установить некоторые ограждения, чтобы убедиться, что они используются ответственно», — сказал глава Национального управления по телекоммуникациям и информации при министерстве Алан Дэвидсон.
Сбор предложений продлится до 10 июня 2023 года. По словам Дэвидсона, комментарии помогут ведомству сформулировать рекомендации для политиков о том, как подходить к вопросам ИИ.
Он отметил, что юридический мандат его агентства включает в себя консультирование президента по технической политике, а не написание или обеспечение соблюдения правил.
Представители Microsoft поддержали решение администрации поставить под пристальное внимание разработку ИИ.
«Мы все должны приветствовать такой шаг государственной политики, чтобы получить широкую обратную связь, вдумчиво рассмотреть проблемы и действовать оперативно», — говорится в заявлении компании.
Ранее Администрация киберпространства Китая опубликовала проект правил, направленных на разработчиков генеративных ИИ-моделей. В случае принятия документа регулятор обяжет поставщиков следить за тем, чтобы их сервисы не создавали контент, угрожающий национальной безопасности.
Напомним, в марте более 1000 отраслевых экспертов призвали приостановить разработку больших языковых моделей на шесть месяцев.
Позже ряд других специалистов раскритиковали авторов письма. Их уличили в искажении научных исследований для продвижения идеи «чрезмерной силы» ИИ.
В апреле Байден назвал опасения по поводу искусственного интеллекта преждевременными. Однако он признал ответственность технологических компаний за безопасность ИИ-продуктов.