Интерактивные и композиционные дипфейки представляют собой два класса растущих угроз в области информационной безопасности. Об этом заявил главный научный сотрудник Microsoft Эрик Хорвиц.
По словам эксперта, развивающиеся возможности дискриминационных и генеративных методов ИИ приближаются к критической точке.
«Достижения предоставляют беспрецедентные инструменты, которые могут использоваться государственными и негосударственными субъектами для создания и распространения убедительной дезинформации», — написал Хорвиц.
Ученый считает, что проблема возникает из-за методологии генеративно-состязательных сетей, состоящих из двух конкурирующих элементов: генератора и дискриминатора. Первый предназначен для создания контента, а второй — оценки его качества.
Хорвиц добавил, что со временем генератор научится обманывать дискриминатор.
«С этим процессом, лежащим в основе дипфейков, ни методы распознавания образов, ни люди не смогут надежно распознать подделки», — написал он.
Эксперт подчеркнул, что до настоящего времени ИИ-подделки создавались и распространялись как разовые, автономные творения.
«Однако теперь мы можем ожидать появления новых форм убедительных дипфейков, которые выходят за рамки фиксированных одноэлементных производств», — сказал он.
Хорвиц предложил несколько способов, которые помогут подготовиться и защититься от ожидаемого роста числа подделок. Среди них:
увеличение требований к журналистике и репортажам;повышение медиаграмотности людей;введение новых протоколов аутентификации для подтверждения личности;разработка стандартов для подтверждения происхождения контента;постоянный мониторинг.
«Важно проявлять бдительность в отношении интерактивных и композиционных дипфейков», — заключил Хорвиц.
Напомним, в сентябре ученые представили метод обнаружения аудиоподделок, измеряющий различия между образцами органической и синтетической речи.
В августе хакеры использовали дипфейк для мошенничества с листингом на Binance. Злоумышленники выдали себя за CCO компании Патрика Хиллманна в серии видеозвонков с представителями криптовалютных проектов.
В июне ФБР предупредило о растущем количестве случаев использования дипфейков на онлайн-собеседованиях.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!