Forklog
2023-05-30 11:14:00

Эксперты сравнили будущий ИИ с пандемиями и ядерными войнами

Лидеры отрасли предупредили, что искусственный интеллект может представлять собой «экзистенциальную угрозу» человечеству. Его нужно рассматривать как глобальный риск наравне с пандемиями и ядерными войнами, считают эксперты. Открытое письмо длиной 22 слова некоммерческой исследовательской организации Center for AI Safety подписали более 350 руководителей, ученых и инженеров, работающих в области ИИ. Согласно заявлению, отраслевые эксперты, журналисты, политики и общественность все чаще обсуждают широкий спектр важных и неотложных рисков, связанных с технологией. «Иногда трудно выразить озабоченность касательно некоторых наиболее серьезных угроз передового ИИ. Письмо поможет преодолеть это препятствие и открыть дискуссию», — говорится в заявлении. Среди подписантов CEO трех ведущих компаний в области искусственного интеллекта: Сэм Альтман (OpenAI), Демис Хассабис (Google DeepMind) и Дарио Амодеи (Anthropic). К ним присоединились «крестные отцы ИИ» Джеффри Хинтон и Йошуа Бенджио. Письмо также подписал вице-президент Meta и ведущий ИИ-специалист компании Ян ЛеКун. Напомним, в марте более 1000 экспертов в области искусственного интеллекта призвали на шесть месяцев приостановить обучение языковых моделей мощнее GPT-4. Позже другие ИИ-специалисты раскритиковали эту идею.

获取加密通讯
阅读免责声明 : 此处提供的所有内容我们的网站,超链接网站,相关应用程序,论坛,博客,社交媒体帐户和其他平台(“网站”)仅供您提供一般信息,从第三方采购。 我们不对与我们的内容有任何形式的保证,包括但不限于准确性和更新性。 我们提供的内容中没有任何内容构成财务建议,法律建议或任何其他形式的建议,以满足您对任何目的的特定依赖。 任何使用或依赖我们的内容完全由您自行承担风险和自由裁量权。 在依赖它们之前,您应该进行自己的研究,审查,分析和验证我们的内容。 交易是一项高风险的活动,可能导致重大损失,因此请在做出任何决定之前咨询您的财务顾问。 我们网站上的任何内容均不构成招揽或要约