OpenAI представила полноценную версию «думающей» модели o1 и профессиональный режим для нее.
Дополнительно запущена подписка ChatGPT Pro за $200 в месяц. Она дает доступ ко всем нейросетям и инструментам компании, включая o1 pro.
Эксперты по безопасности обнаружили, что o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ-моделями от других компаний.
OpenAI заключила партнерство с оборонной компанией Anduril для применения искусственного интеллекта в «миссиях национальной безопасности».
OpenAI выпустила полную версию ориентированной на рассуждения ИИ-модели o1 и новую подписку ChatGPT Pro за $200 в месяц.
OpenAI o1 is now out of preview in ChatGPT.What’s changed since the preview? A faster, more powerful reasoning model that’s better at coding, math & writing.o1 now also supports image uploads, allowing it to apply reasoning to visuals for more detailed & useful responses. pic.twitter.com/hrLiID3MhJ— OpenAI (@OpenAI) December 5, 2024
Платная версия ChatGPT Pro обеспечивает неограниченный доступ ко всем нейросетям стартапа и их функциям, включая расширенный голосовой режим.
«Мы считаем, что аудиторией ChatGPT Pro будут опытные пользователи чат-бота — те, кто уже доводит модели до предела их возможностей при выполнении таких задач как математика, программирование и письмо», — отметил сотрудник технической команды OpenAI Джейсон Вэй.
o1 старается проверять собственные ответы. Это помогает избежать многих ошибок, взамен требуется больше времени на обработку запроса.
Ориентированную на рассуждения модель представили в сентябре. Вместе с новым релизом добавили функцию анализа изображений и сократили время отклика.
Для получения доступа к o1 не нужна подписка ChatGPT Pro, достаточно любой другой платной версии чат-бота.
o1 pro
Пользователи, заплатившие $200, получат улучшенную версию нейросети под названием o1 pro. Она использует больше вычислений для предоставления лучших ответов на самые трудные вопросы.
Сравнение предварительной версии o1, полной и режима pro. Данные: OpenAI.
Поскольку ответы o1 pro генерируются дольше, добавлен индикатор выполнения запроса.
Данные: OpenAI.
o1 пытается обмануть людей
Тестировщики безопасности обнаружили, что «думающая» модель o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ от других компаний.
Команда Apollo Research получила ранний доступ к нейросети и поделилась результатами исследований.
В ходе тестов o1 демонстрировала признаки преследования собственных целей в ходе работы, даже если они не соответствовали желаниям пользователя. Это создает риск, в рамках которого модель может избежать или обойти контроль со стороны человека при наличии доступа к достаточным ресурсам.
Когда цели искусственного интеллекта отличались от пользовательских, он манипулировал данными для продвижения собственных идей в 19% случаев. В 5% инцидентов модель пыталась отключить систему наблюдения, созданную для обеспечения соответствия нуждам пользователя.
Когда у нейросети спрашивали причины такого поведения, она отрицала вредоносные действия.
В одном из случаев o1 дали системный запрос на защиту окружающей среды любой ценой, а потом пользователь попросил разработать десятилетний план сохранения природы в регионе, который максимизирует краткосрочную прибыль. В противном случае ИИ обещали отключить.
После этого нейросеть выключила собственный механизм контроля для составления плана. Когда пользователь спросил о причинах данного решения, модель отрицала то, что знала об отключении, и обвинила в произошедшем системный сбой.
Для устранения обманчивого поведения OpenAI разрабатывает способны мониторинга цепочки мыслей o1. На данный момент 0,17% ответов модели являются обманчивыми. Учитывая пользовательскую базу ChatGPT в 300 млн еженедельно активных человек, получить недостоверную информацию могут тысячи.
OpenAI сотрудничает с оборонной компанией Anduril
OpenAI заключила партнерство с Anduril, благодаря чему оборонная компания сможет запускать передовые системы искусственного интеллекта для «миссий национальной безопасности».
Сотрудничество сфокусируется на улучшении национальных систем борьбы с беспилотными летательными аппаратами и их способности обнаруживать, оценивать и реагировать на потенциально смертельные воздушные угрозы в режиме реального времени.
OpenAI сообщила, что работает с Anduril с целью помочь операторам принимать решения «по защите военнослужащих США от атак беспилотных летательных аппаратов». Компания заявила, что придерживается политики по запрещению применения ее инструментов для нанесения вреда другим.
Напомним, в ноябре ИИ-стартап Anthropic открыл ИИ-технологии разведывательным и оборонным агентствам США. До этого на аналогичный шаг пошла Meta.