OpenAI выпустила новую мощную модель ИИ для распознавания изображений и текста, GPT-4, которую компания называет «последней вехой в своих усилиях по расширению масштабов глубокого обучения».
GPT-4 сегодня доступен платным пользователям OpenAI через ChatGPT Plus (с ограничением использования), и разработчики могут зарегистрироваться в списке ожидания для доступа к API.
Цена составляет 0,03 доллара США за 1000 токенов «подсказки» (около 750 слов) и 0,06 доллара США за 1000 токенов «завершения» (опять же, около 750 слов).
Как оказалось, GPT-4 прятался у всех на виду. Сегодня Microsoft подтвердила , что Bing Chat , технология чат-ботов, разработанная совместно с OpenAI, работает на GPT-4.
GPT-4 может генерировать текст и принимать входные изображения и текст — улучшение по сравнению с GPT-3.5 , его предшественником, который принимал только текст — и работает на «человеческом уровне» в различных профессиональных и академических тестах. Например, GPT-4 сдает смоделированный экзамен на адвоката с оценкой около 10% лучших участников теста.
«В обычном разговоре разница между GPT-3.5 и GPT-4 может быть едва уловимой», — написал OpenAI в блоге, анонсирующем GPT-4. «Разница проявляется, когда сложность задачи достигает достаточного порога — GPT-4 более надежен, креативен и способен обрабатывать гораздо более тонкие инструкции, чем GPT-3.5».
Без сомнения, одним из наиболее интересных аспектов GPT-4 является его способность понимать изображения так же, как и текст. GPT-4 может подписывать и даже интерпретировать относительно сложные изображения, например, идентифицировать адаптер кабеля Lightning по изображению подключенного iPhone.
Однако даже с системными сообщениями и другими обновлениями OpenAI признает, что GPT-4 далек от совершенства. Он по-прежнему «галлюцинирует» факты и делает ошибки в рассуждениях, иногда с большой уверенностью. В одном примере, приведенном OpenAI, GPT-4 описал Элвиса Пресли как «сына актера» — очевидная ошибка.
«GPT-4, как правило, не знает о событиях, которые произошли после отключения подавляющего большинства его данных (сентябрь 2021 года), и не учится на своем опыте», — пишет OpenAI. «Иногда он может совершать простые логические ошибки, которые, кажется, не соответствуют компетентности во многих областях, или быть слишком легковерными, принимая очевидные ложные утверждения от пользователя. И иногда он может потерпеть неудачу при решении сложных проблем так же, как это делают люди, например, при внесении уязвимостей в код, который он создает».
Однако OpenAI отмечает, что он внес улучшения в определенные области; Например, GPT-4 с меньшей вероятностью откажет в запросах о том, как синтезировать опасные химические вещества. Компания заявляет, что GPT-4 в целом на 82% реже отвечает на запросы о «запрещенном» контенте по сравнению с GPT-3.5 и отвечает на деликатные запросы — например, медицинские советы и все, что касается членовредительства — в соответствии с политиками OpenAI 29. % чаще.