Forklog
2022-12-12 14:32:46

OpenAI начнет помечать генерируемый ИИ-алгоритмами текст

Инженеры OpenAI разрабатывают инструмент для нанесения «водяных знаков» на контент, создаваемый системами искусственного интеллекта. Об этом рассказал приглашенный компанией профессор компьютерных наук Скотт Ааронсон на лекции в Техасском университете в Остине. https://youtu.be/fc-cHk9yFpg По словам исследователя, сотрудник Хендрик Киршнер уже создал рабочий прототип, который надеются интегрировать в будущие продукты. «Мы хотим усложнить выдачу результатов [ИИ-алгоритмов] за человеческий труд», — сказал Ааронсон. Он добавил, что это поможет предотвратить академический плагиат и массовое распространение пропаганды. Системы вроде чат-бота ChatGPT понимают входной и выходной текст как строки «токенов», которые могут являться словами, их частями или знаками препинания.  ИИ-алгоритмы постоянно генерируют математическую функцию, называемую распределением вероятностей, для определения следующей выводимой лексемы на базе ранее выданной информации. В случае таких моделей, как ChatGPT, после создания дистрибутива сервер OpenAI в соответствии с ним выполняет работу по выборке «токенов». В этом действии есть некоторая случайность, поэтому одна и та же текстовая подсказка может привести к другому ответу. По словам Ааронсона, разрабатываемый компанией инструмент нанесения «водяных знаков» действует как «обертка» над существующими генераторами текста. Он использует криптографическую функцию, работающую на уровне сервера, для «псевдослучайного» выбора следующего «токена». При задействовании такой системы обычные пользователи увидят созданный ИИ текст без каких-либо модификаций. Однако имеющие «ключ» к криптографической функции смогут обнаружить «водяной знак». Независимые ученые и отраслевые эксперты выразили сомнения в корректности работы подобного инструмента. По их словам, так как система является серверной, она не сможет работать со всеми ИИ-генераторами текста. Также противники метода смогут «довольно легко» обойти его, уверены исследователи. Научный сотрудник Института искусственного интеллекта Аллена Джек Хессель указал на трудности незаметного снятия «отпечатков пальцев» результатов алгоритмов, поскольку каждый «токен» является дискретным выбором. Слишком очевидный идентификатор приведет к выбору странных слов, способных ухудшить «беглость» речи. Соучредитель стартапа AI21 Labs Йоав Шохам призвал создать более комплексный подход для определения источников текста, который включает дифференциальные, а не статические, «водяные знаки». Они позволят по-разному помечать отдельные части написанного. В своей лекции Ааронсон признал, что предложенная OpenAI схема сможет действовать только в мире, где все работающие в этой области компании согласятся стать ответственными игроками. Однако, по словам ученого, если лаборатория продемонстрирует работоспособность инструмента и отсутствие его влияния на качество генерируемого текста, тот способен превратиться в отраслевой стандарт. Напомним, в декабре OpenAI выпустила чат-бота ChatGPT, который умеет отвечать на вопросы, признавать ошибки, спорить и отклонять неуместные запросы. В сентябре компания представила систему распознавания речи Whisper, обеспечивающую транскрипцию на нескольких языках. В январе OpenAI выпустила новую версию GPT-3, которая производит меньше оскорбительных выражений, дезинформации и ошибок в целом. Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!

Crypto 뉴스 레터 받기
면책 조항 읽기 : 본 웹 사이트, 하이퍼 링크 사이트, 관련 응용 프로그램, 포럼, 블로그, 소셜 미디어 계정 및 기타 플랫폼 (이하 "사이트")에 제공된 모든 콘텐츠는 제 3 자 출처에서 구입 한 일반적인 정보 용입니다. 우리는 정확성과 업데이트 성을 포함하여 우리의 콘텐츠와 관련하여 어떠한 종류의 보증도하지 않습니다. 우리가 제공하는 컨텐츠의 어떤 부분도 금융 조언, 법률 자문 또는 기타 용도에 대한 귀하의 특정 신뢰를위한 다른 형태의 조언을 구성하지 않습니다. 당사 콘텐츠의 사용 또는 의존은 전적으로 귀하의 책임과 재량에 달려 있습니다. 당신은 그들에게 의존하기 전에 우리 자신의 연구를 수행하고, 검토하고, 분석하고, 검증해야합니다. 거래는 큰 손실로 이어질 수있는 매우 위험한 활동이므로 결정을 내리기 전에 재무 고문에게 문의하십시오. 본 사이트의 어떠한 콘텐츠도 모집 또는 제공을 목적으로하지 않습니다.