Forklog
2022-06-16 10:54:14

Эксперты усомнились в «зарождении разума» у алгоритма Google

Ряд экспертов в области искусственного интеллекта подвергли сомнению заявления инженера компании Google Блейка Лемуана о наличии «разума» у алгоритма LaMDA. Об этом пишет Bloomberg. По словам профессора компьютерной лингвистики Вашингтонского университета Эмили Бендер, принятие подобных утверждений крупными компаниями может снять с них ответственность за решения, принимаемые алгоритмами. «Проблема в том, что чем больше эта технология продается как искусственный интеллект — не говоря уже о чем-то разумном — тем больше людей готовы довериться ИИ-системам», — считает она. В качестве примера Бендер привела программы по найму и оценки успеваемости студентов, которые могут содержать предрассудки в зависимости от используемого набора данных для обучения алгоритма. По ее словам, если допустить наличие разума в подобных системах, ИИ-разработчики могут дистанцироваться от прямой ответственности за любые недостатки или предубеждения в ПО:  «Фирма может сказать: “О, программа допустила ошибку”. Но нет, это ваша компания создала ПО. Это вы несете ответственность за ошибку. А дискурс о “разуме” является вредной практикой». Генеральный директор стартапа AI Nara Logics Яна Эггерс заявила, что LaMDA может имитировать восприятие или чувства из данных обучения, которые ему предоставили: «[Алгоритм] специально разработан так, чтобы казалось, что он понимает». По словам исследователя Калифорнийского университета в Санта-Круз Макса Кремински, архитектура модели «просто не обладает некоторыми ключевыми возможностями человеческого сознания». Он добавил, если LaMDA похожа на другие большие языковые модели, она не может формировать новые знания при взаимодействии с пользователями, так как «веса развернутой нейросети заморожены». Также алгоритм не может «думать» в фоновом режиме, считает ученый. Профессор Технологического института Джорджии Марк Ридл сказал, что системы ИИ не осознают влияния своих ответов или поведения на общество. В этом и заключается уязвимость технологии, считает он. «Система ИИ может не быть токсичной или предвзятой, однако она не понимает, что в некоторых обстоятельствах говорить о самоубийстве или насилии неуместно», — сказал Ридл. Ранее Лемуан в одном из интервью рассказал, что обнаружил признаки «разума» у системы искусственного интеллекта LaMDA.  Вскоре компания опровергла утверждения своего сотрудника и отправила его в оплачиваемый отпуск. Напомним, в мае 2021 года Google представила разговорную модель LaMDA. В мае 2022 года на конференции I/O компания анонсировала приложение AI Test Kitchen с LaMDA 2. Подписывайтесь на ForkLog AI в TikTok!

Crypto Haber Bülteni Al
Feragatnameyi okuyun : Burada sunulan tüm içerikler web sitemiz, köprülü siteler, ilgili uygulamalar, forumlar, bloglar, sosyal medya hesapları ve diğer platformlar (“Site”), sadece üçüncü taraf kaynaklardan temin edilen genel bilgileriniz içindir. İçeriğimizle ilgili olarak, doğruluk ve güncellenmişlik dahil ancak bunlarla sınırlı olmamak üzere, hiçbir şekilde hiçbir garanti vermemekteyiz. Sağladığımız içeriğin hiçbir kısmı, herhangi bir amaç için özel bir güvene yönelik mali tavsiye, hukuki danışmanlık veya başka herhangi bir tavsiye formunu oluşturmaz. İçeriğimize herhangi bir kullanım veya güven, yalnızca kendi risk ve takdir yetkinizdedir. İçeriğinizi incelemeden önce kendi araştırmanızı yürütmeli, incelemeli, analiz etmeli ve doğrulamalısınız. Ticaret büyük kayıplara yol açabilecek yüksek riskli bir faaliyettir, bu nedenle herhangi bir karar vermeden önce mali danışmanınıza danışın. Sitemizde hiçbir içerik bir teklif veya teklif anlamına gelmez