Forklog
2023-03-15 10:01:24

OpenAI представила мультимодальную модель GPT-4

Компания OpenAI представила большую мультимодальную модель GPT-4. Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg— OpenAI (@OpenAI) March 14, 2023 Согласно анонсу, GPT-4 может решать «сложные проблемы с большей точностью благодаря своим более широким общим знаниям и возможностям». По словам разработчиков, модель может по запросу пользователя принимать ту или иную роль. Например, ее можно попросить стать юристом или репетитором. В таком случае GPT-4 будет точнее обрабатывать запросы, связанные с конкретной областью знаний. В демонстрационном видео президент OpenAI Грег Брокман показал, как можно научить сервис быстро отвечать на вопросы, связанные с налогообложением. «Эта модель так хороша в ментальной арифметике. Она обладает широкими и гибкими возможностями», — сказал он. В OpenAI добавили, что по сравнению с GPT-3.5 новый алгоритм надежнее, креативнее и способен обрабатывать тонкие инструкции. По сравнению с предшественником GPT-4 генерирует значительно более объемнее тексты: 25 000 слов против 3000. Лимит слов, установленный в ChatGPT и GPT-4. Данные: OpenAI. В отдельном видео говорится, что модель обладает рядом возможностей, которых не было у предыдущей версии технологии, включая способность «рассуждать» на основе изображений, загруженных пользователями. GPT-4 описывает, что видит на картинке. Данные: OpenAI. «GPT-4 — это большая мультимодальная модель, которая, хотя и менее функциональна, чем люди во многих реальных сценариях, демонстрирует производительность на уровне человека в различных профессиональных и академических тестах», — говорится в анонсе. По словам сотрудника OpenAI Андрея Карпати, обработка изображений означает, что ИИ может «видеть». 🎉 GPT-4 is out!!- 📈 it is incredible- 👀 it is multimodal (can see) - 😮 it is on trend w.r.t. scaling laws- 🔥 it is deployed on ChatGPT Plus: https://t.co/WptpLYHSCO- 📺 watch the developer demo livestream at 1pm: https://t.co/drEkxQMC9H https://t.co/WUYzwyxOqa— Andrej Karpathy (@karpathy) March 14, 2023 Помимо этого, OpenAI выпустила научную работу о GPT-4. Однако разработчики решили не разглашать подробности о размере модели, ходе ее обучения и используемых в рамках этого процесса данных. Технология доступна подписчикам ChatGPT Plus с некоторыми ограничениями. Компания также открыла список ожидания для желающих воспользоваться API новой модели. OpenAI сообщила, что уже сотрудничает с некоторыми компаниями над интеграцией алгоритма в их приложения, в том числе с Duolingo, Stripe и Khan Academy. Приложение Duolingo с интегрированным GPT-4. Данные: Duolingo. После анонса Microsoft подтвердила слухи, что новый Bing работает на оптимизированной для поиска версии GPT-4. Напомним, в ноябре 2022 года OpenAI представила ChatGPT. За два месяца сервис стал самым быстрорастущим в истории, достигнув 100 млн активных пользователей. В феврале 2023 года Microsoft выпустила обновленный поисковик Bing на базе ChatGPT. В марте число активных пользователей сервиса превысило 100 млн.

Crypto 뉴스 레터 받기
면책 조항 읽기 : 본 웹 사이트, 하이퍼 링크 사이트, 관련 응용 프로그램, 포럼, 블로그, 소셜 미디어 계정 및 기타 플랫폼 (이하 "사이트")에 제공된 모든 콘텐츠는 제 3 자 출처에서 구입 한 일반적인 정보 용입니다. 우리는 정확성과 업데이트 성을 포함하여 우리의 콘텐츠와 관련하여 어떠한 종류의 보증도하지 않습니다. 우리가 제공하는 컨텐츠의 어떤 부분도 금융 조언, 법률 자문 또는 기타 용도에 대한 귀하의 특정 신뢰를위한 다른 형태의 조언을 구성하지 않습니다. 당사 콘텐츠의 사용 또는 의존은 전적으로 귀하의 책임과 재량에 달려 있습니다. 당신은 그들에게 의존하기 전에 우리 자신의 연구를 수행하고, 검토하고, 분석하고, 검증해야합니다. 거래는 큰 손실로 이어질 수있는 매우 위험한 활동이므로 결정을 내리기 전에 재무 고문에게 문의하십시오. 본 사이트의 어떠한 콘텐츠도 모집 또는 제공을 목적으로하지 않습니다.