O novo recurso de Correção da Microsoft pode garantir uma saída livre de alucinações dos modelos de IA generativa, o que é uma pretensão bastante grande.
O recurso, que está em modo de visualização até o momento, permitirá que o recurso de detecção de embasamento do Azure AI Content Safety corrija alucinações e imprecisões na saída da IA.
A detecção de embasamento já pode detectar conteúdo alucinado ou sem embasamento na saída da IA, como respostas de LLMs como o ChatGPT.
Ainda assim, até o momento, ela não conseguiu corrigir o conteúdo, mas apenas redigi-lo. O conteúdo redigido ou bloqueado geralmente leva a resultados de IA que não são fáceis de serem compreendidos pelos usuários.
Esse novo recurso de correção promete maior confiabilidade e precisão no conteúdo gerado pela IA, se funcionar.
O Correction avalia o resultado da IA em busca de alucinações e as corrige
Para usar o Correction, o aplicativo de IA generativa deve se conectar a documentos de base. Esses documentos fornecem evidências para validar as informações fornecidas na saída. O desenvolvedor do aplicativo deve habilitar o recurso. Veja como ele funciona:
Em teoria, isso significa que devemos poder confiar no que o resultado da IA nos diz como fato, ou pelo menos como algo factual com base nos dados fornecidos.
O objetivo da Microsoft é ter um futuro sem alucinações com a IA generativa
As alucinações na IA generativa são conteúdos gerados que não têm suporte em dados de base e são particularmente predominantes em LLMs como ChatGPT e Gemini, que são conhecidos por produzir resultados enganosos ou imprecisos com frequência.
A Microsoft diz que seu recurso de correção é um importante passo à frente, por vários motivos.
Com a preocupação generalizada com as alucinações, setores de alto risco, como o da medicina, têm demorado a adotar a implantação da IA generativa. Isso pode mudar se a Microsoft realmente conseguir corrigir as alucinações da IA.
De acordo com a Microsoft, a correção também permitirá que as empresas implantem chatbots com confiança para o público, com a certeza de que eles não fornecerão informações imprecisas.
Teremos que esperar para ver o desempenho do recurso antes de decidir se as alucinações da IA realmente poderão se tornar uma coisa do passado.