Forklog
2022-06-16 10:54:14

Эксперты усомнились в «зарождении разума» у алгоритма Google

Ряд экспертов в области искусственного интеллекта подвергли сомнению заявления инженера компании Google Блейка Лемуана о наличии «разума» у алгоритма LaMDA. Об этом пишет Bloomberg. По словам профессора компьютерной лингвистики Вашингтонского университета Эмили Бендер, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами. «Проблема в том, что чем больше эта технология продается как искусственный интеллект — не говоря уже о чем-то разумном — тем больше людей готовы довериться ИИ-системам», — считает она. В качестве примера Бендер привела программы по найму и оценки успеваемости студентов, которые могут содержать предрассудки в зависимости от используемого набора данных для обучения алгоритма. По ее словам, если допустить наличие разума в подобных системах, ИИ-разработчики могут дистанцироваться от прямой ответственности за любые недостатки или предубеждения в ПО:  «Фирма может сказать: “О, программа допустила ошибку”. Но нет, это ваша компания создала ПО. Это вы несете ответственность за ошибку. А дискурс о “разуме” является вредной практикой». Генеральный директор стартапа AI Nara Logics Яна Эггерс заявила, что LaMDA может имитировать восприятие или чувства из данных обучения, которые ему предоставили: «[Алгоритм] специально разработан так, чтобы казалось, что он понимает». По словам исследователя Калифорнийского университета в Санта-Круз Макса Кремински, архитектура модели «просто не обладает некоторыми ключевыми возможностями человеческого сознания». Он добавил, если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, так как «веса развернутой нейросети заморожены». Также алгоритм не может «думать» в фоновом режиме, считает ученый. Профессор Технологического института Джорджии Марк Ридл сказал, что системы ИИ не осознают влияния своих ответов или поведения на общество. В этом и заключается уязвимость технологии, считает он. «Система ИИ может не быть токсичной или предвзятой, однако она не понимает, что в некоторых обстоятельствах говорить о самоубийстве или насилии неуместно», — сказал Ридл. Ранее Лемуан в одном из интервью рассказал, что обнаружил признаки «разума» у системы искусственного интеллекта LaMDA.  Вскоре компания опровергла утверждения своего сотрудника и отправила его в оплачиваемый отпуск. Напомним, в мае 2021 года Google представила разговорную модель LaMDA. В мае 2022 года на конференции I/O компания анонсировала приложение AI Test Kitchen с LaMDA 2. Подписывайтесь на ForkLog AI в TikTok!

Get Crypto Newsletter
Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.