Alucinações, a maior falha da inteligência artificial: como evitar que o ChatGPT, Gemini e Meta AI respondam com erros

-

ESTIMA-SE QUE ENTRE 3% E 27% DAS RESPOSTAS DOS CHATBOTS ESTÃO ERRADAS. SIGUIENDO UNA SERIE DE CONSEJOS, EL MARGEN DE ERROR SE PUEDE REDUCIR AL MÍNIMO

Los chatbots de  (IA) generativa não são infalíveis: cometem erros que muchas veces van más allá de proporcionar información falsa. Los especialistas concluyen que estos sistemas están programados de una manera que puede llevarlos a .

La IA Generativa llegó para quedarse en la vida diaria de las personas y las compañías, tanto que en el mundo fintech ya fue valorada en 1,12 billones de dólares en 2023. El rápido crecimiento de sus tasas sugiere que llegará a los 4,37 billones de dólares para 2027, según un reporte de Market.us.

Como toda herramienta en plena evolución y crecimiento, la IA también tendrá que enfrentarse a diferentes barreiras y problemas.

O QUE SÃO AS ALUCINAÇÕES DA INTELIGÊNCIA ARTIFICIAL

Especialistas em algoritmos classificam os resultados incorretos ou enganosos gerados pelos modelos de IA – ChatGPT, Llama ou Gemini – como “alucinações”. Essas falhas podem ser causadas por vários fatores, como dados de treinamento insuficientes, suposições incorretas ou dados fornecidos usados ​​para treinar o modelo.

As alucinações são um problema sério para os sistemas de IA usados ​​para tomar decisões importantes, como diagnósticos médicos ou negociações financeiras.

Os modelos são treinados com dados e aprendem a fazer previsões procurando padrões. No entanto, a precisão destas previsões depende geralmente da qualidade e integridade da informação de formação. Se estiverem incompletos, tendenciosos ou

Em casos de defeitos, o modelo de IA pode aprender padrões incorretos, levando a previsões imprecisas ou alucinações.

Por exemplo, um modelo de IA treinado com imagens médicas pode aprender a identificar células cancerígenas. No entanto, se não houver imagem de tecido saudável nesse conjunto de dados, o modelo de IA poderá prever incorretamente que o tecido saudável é câncer.

“Os modelos são treinados com grandes (muito grandes) volumes de informações, e a partir daí aprendem padrões e associações com essas informações que ainda podem ser insuficientes, obsoletas ou inconsistentes, e como não têm ‘entendimento’, não sabem realmente o que dizem”, explica Pablo Velan, CTO e sócio da N5, empresa de software especializada no setor financeiro.

Segundo análises da startup Vectara, a taxa de alucinação dos chatbots varia entre 3% e 27%.

Dados de treinamento ruins são apenas um dos motivos pelos quais podem ocorrer alucinações com IA. Outro fator que pode contribuir é a falta de embasamento adequado.

Um modelo de IA pode ter dificuldade em compreender com precisão o conhecimento do mundo real, as propriedades físicas ou as informações factuais. Esta falta de fundamentação pode fazer com que o modelo gere resultados que, embora pareçam plausíveis, são na verdade incorretos, irrelevantes ou sem sentido.

Nessa linha, o gestor detalha que ao se deparar com questões ambíguas ou sem contexto suficiente, entra em jogo a capacidade de interpolação e extrapolação da IA ​​para responder e fará generalizações ou suposições incorretas.

Esta situação pode não ser uma preocupação para quem utiliza as ferramentas por mera diversão. No entanto, pode causar grandes problemas para empresas onde decisões precisas são cruciais.

Da mesma forma, Velan reflete se existe uma “cura” e destaca que existem algoritmos que evitam este tipo de erros por não estarem conectados à Internet, pois são treinados em fontes fechadas de informação, por isso são treinados apenas com dados de uma entidade específica.

Por outro lado, os especialistas da IBM identificaram que os modelos de IA poderiam tomar certas medidas para reduzir estas falsas percepções e fazer com que os sistemas funcionassem de forma optimizada.

DICAS PARA EVITAR ALUCINAÇÕES NA INTELIGÊNCIA ARTIFICIAL

Defina o propósito do modelo de IA

Explicar como o modelo de IA será usado (bem como as limitações no uso do modelo) ajudará a reduzir as alucinações. Para tal, uma equipa ou organização deve estabelecer as responsabilidades e limitações do sistema de IA escolhido; Isso ajudará o sistema a concluir as tarefas com mais eficiência e minimizar resultados irrelevantes e “alucinatórios”.

Use modelos de dados

Os modelos de dados fornecem às equipes um formato predefinido, aumentando a probabilidade de um modelo de IA gerar resultados que se enquadrem nas diretrizes prescritas. Confiar nesta solução garante a consistência dos resultados e reduz a probabilidade de o modelo produzir resultados errados.

Limitar respostas

Os modelos de IA muitas vezes confundem a mente porque não possuem restrições que limitem os resultados possíveis. Para evitar esse problema e melhorar a consistência geral e a precisão dos seus resultados, defina limites para seus modelos de IA usando ferramentas de filtragem ou limites probabilísticos claros.

Teste e refine continuamente o sistema

Para evitar alucinações, é essencial testar rigorosamente o modelo de IA antes de utilizá-lo, bem como avaliá-lo continuamente. Esses processos melhoram o desempenho geral do sistema e permitem que os usuários ajustem ou treinem novamente o modelo à medida que os dados envelhecem e evoluem.

Confie na supervisão humana

Garantir que uma pessoa valide e revise os resultados da IA ​​é uma última medida de contenção para evitar alucinações. Sua participação garante que, caso a IA surte, alguém estará disponível para filtrá-la e corrigi-la.

Um revisor humano também pode oferecer experiência no assunto, melhorando sua capacidade de avaliar a precisão e a relevância do conteúdo de IA para uma determinada tarefa.

compartilhar artigo

Conteúdo recente

Categorias populares