Forklog
2022-12-12 14:32:46

OpenAI начнет помечать генерируемый ИИ-алгоритмами текст

Инженеры OpenAI разрабатывают инструмент для нанесения «водяных знаков» на контент, создаваемый системами искусственного интеллекта. Об этом рассказал приглашенный компанией профессор компьютерных наук Скотт Ааронсон на лекции в Техасском университете в Остине. https://youtu.be/fc-cHk9yFpg По словам исследователя, сотрудник Хендрик Киршнер уже создал рабочий прототип, который надеются интегрировать в будущие продукты. «Мы хотим усложнить выдачу результатов [ИИ-алгоритмов] за человеческий труд», — сказал Ааронсон. Он добавил, что это поможет предотвратить академический плагиат и массовое распространение пропаганды. Системы вроде чат-бота ChatGPT понимают входной и выходной текст как строки «токенов», которые могут являться словами, их частями или знаками препинания.  ИИ-алгоритмы постоянно генерируют математическую функцию, называемую распределением вероятностей, для определения следующей выводимой лексемы на базе ранее выданной информации. В случае таких моделей, как ChatGPT, после создания дистрибутива сервер OpenAI в соответствии с ним выполняет работу по выборке «токенов». В этом действии есть некоторая случайность, поэтому одна и та же текстовая подсказка может привести к другому ответу. По словам Ааронсона, разрабатываемый компанией инструмент нанесения «водяных знаков» действует как «обертка» над существующими генераторами текста. Он использует криптографическую функцию, работающую на уровне сервера, для «псевдослучайного» выбора следующего «токена». При задействовании такой системы обычные пользователи увидят созданный ИИ текст без каких-либо модификаций. Однако имеющие «ключ» к криптографической функции смогут обнаружить «водяной знак». Независимые ученые и отраслевые эксперты выразили сомнения в корректности работы подобного инструмента. По их словам, так как система является серверной, она не сможет работать со всеми ИИ-генераторами текста. Также противники метода смогут «довольно легко» обойти его, уверены исследователи. Научный сотрудник Института искусственного интеллекта Аллена Джек Хессель указал на трудности незаметного снятия «отпечатков пальцев» результатов алгоритмов, поскольку каждый «токен» является дискретным выбором. Слишком очевидный идентификатор приведет к выбору странных слов, способных ухудшить «беглость» речи. Соучредитель стартапа AI21 Labs Йоав Шохам призвал создать более комплексный подход для определения источников текста, который включает дифференциальные, а не статические, «водяные знаки». Они позволят по-разному помечать отдельные части написанного. В своей лекции Ааронсон признал, что предложенная OpenAI схема сможет действовать только в мире, где все работающие в этой области компании согласятся стать ответственными игроками. Однако, по словам ученого, если лаборатория продемонстрирует работоспособность инструмента и отсутствие его влияния на качество генерируемого текста, тот способен превратиться в отраслевой стандарт. Напомним, в декабре OpenAI выпустила чат-бота ChatGPT, который умеет отвечать на вопросы, признавать ошибки, спорить и отклонять неуместные запросы. В сентябре компания представила систему распознавания речи Whisper, обеспечивающую транскрипцию на нескольких языках. В январе OpenAI выпустила новую версию GPT-3, которая производит меньше оскорбительных выражений, дезинформации и ошибок в целом. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

获取加密通讯
阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约