Novidade foi anunciada em conferência de desenvolvedores em novembro passado (Nicolas Economou/NurPhoto/Getty Images)
Redação Exame
Publicado em 10 de abril de 2024 às 10h44.
A OpenAI acaba de fazer uma grande melhoria em sua API - interface de programação de aplicativos - para seu poderoso modelo de linguagem (LLM) GPT-4 Turbo.
O GPT-4 Turbo com Visão pode analisar imagens e fornecer respostas textuais a perguntas sobre elas. Ele incorpora o processamento de linguagem natural e a compreensão visual. A OpenAi anunciou em contas no X as novidades sobre o modelo GPT-4 Turbo.
GPT-4 Turbo with Vision is now generally available in the API. Vision requests can now also use JSON mode and function calling.https://t.co/cbvJjij3uL
Below are some great ways developers are building with vision. Drop yours in a reply 🧵
— OpenAI Developers (@OpenAIDevs) April 9, 2024
A ferramenta foi divulgada ao público pela primeira vez na conferência de desenvolvedores em novembro do ano passado.
De acordo com o site VentureBeat, as solicitações para usar os recursos de reconhecimento e análise do GPT-4 agora podem ser feitas por meio do formato de texto JSON que os desenvolvedores podem usar para automatizar ações em seus aplicativos conectados, como "enviar um e-mail, postar algo on-line, fazer uma compra etc.", embora a OpenAI observe em sua página da API que: "É altamente recomendável criar fluxos de confirmação do usuário antes de realizar ações que afetem usuários".
Embora o GPT-4 Turbo tenha caído nos testes de benchmark em relação a outros modelos mais recentes, como o Claude 3 Opus, da Anthropic, e o Command R+, da Cohere, sem contar o Gemini, do Google, a iniciativa de levar o GPT-4 com Visão a mais clientes corporativos pode ajudar a tornar os modelos da OpenaAI opções mais atraentes num momento de franca expansão dos modelos de linguagem da IA.