A Microsoft acredita que pode corrigir alucinações de IA

Por que confiar em nós
Principais conclusões

-A Microsoft anunciou uma prévia de seu novo recurso de “Correção” no recurso de detecção de embasamento do Azure AI Content Safety. -Ele foi projetado para detectar e corrigir alucinações em tempo real antes que os usuários as vejam. -Se funcionar, isso poderá garantir que os resultados da IA generativa estejam livres de alucinações.

O novo recurso de Correção da Microsoft pode garantir uma saída livre de alucinações dos modelos de IA generativa, o que é uma pretensão bastante grande.

O recurso, que está em modo de visualização até o momento, permitirá que o recurso de detecção de embasamento do Azure AI Content Safety corrija alucinações e imprecisões na saída da IA.

A detecção de embasamento já pode detectar conteúdo alucinado ou sem embasamento na saída da IA, como respostas de LLMs como o ChatGPT.

Ainda assim, até o momento, ela não conseguiu corrigir o conteúdo, mas apenas redigi-lo. O conteúdo redigido ou bloqueado geralmente leva a resultados de IA que não são fáceis de serem compreendidos pelos usuários.

Esse novo recurso de correção promete maior confiabilidade e precisão no conteúdo gerado pela IA, se funcionar.

O Correction avalia o resultado da IA em busca de alucinações e as corrige

Para usar o Correction, o aplicativo de IA generativa deve se conectar a documentos de base. Esses documentos fornecem evidências para validar as informações fornecidas na saída. O desenvolvedor do aplicativo deve habilitar o recurso. Veja como ele funciona:

  • Quando o recurso detecta uma frase não fundamentada – uma frase para a qual não há evidência de apoio nos documentos de fundamentação – ele aciona uma solicitação de correção para o modelo de IA generativo.
  • O LLM avalia a frase não fundamentada em relação ao documento de fundamentação e, se a frase não contiver nenhuma informação do documento, ela poderá ser filtrada.
  • Se houver conteúdo proveniente do documento de base, mas ele for impreciso, o modelo reescreverá a frase não fundamentada para que ela seja precisa e se alinhe ao documento de base.

Em teoria, isso significa que devemos poder confiar no que o resultado da IA nos diz como fato, ou pelo menos como algo factual com base nos dados fornecidos.

O objetivo da Microsoft é ter um futuro sem alucinações com a IA generativa

As alucinações na IA generativa são conteúdos gerados que não têm suporte em dados de base e são particularmente predominantes em LLMs como ChatGPT e Gemini, que são conhecidos por produzir resultados enganosos ou imprecisos com frequência.

A Microsoft diz que seu recurso de correção é um importante passo à frente, por vários motivos.

Com a preocupação generalizada com as alucinações, setores de alto risco, como o da medicina, têm demorado a adotar a implantação da IA generativa. Isso pode mudar se a Microsoft realmente conseguir corrigir as alucinações da IA.

De acordo com a Microsoft, a correção também permitirá que as empresas implantem chatbots com confiança para o público, com a certeza de que eles não fornecerão informações imprecisas.

Teremos que esperar para ver o desempenho do recurso antes de decidir se as alucinações da IA realmente poderão se tornar uma coisa do passado.

Paula Beaton
Tech Journalist
Paula Beaton
Jornalista de Tecnologia

Paula Beaton é uma jornalista freelancer de tecnologia na Techopedia que escreveu para publicações como Digital Trends, Android Authority, Android Central, Online Tech Tips e Xbox Advisor. Ela também aprecia um bom jogo com história (especialmente se zumbis estiverem envolvidos).