Para melhorar a IA devemos ajudá-la com suas alucinações

-

O setor financeiro se pergunta como solucionar um dos problemas mais comuns nos algoritmos generativos que ajudam seus usuários no dia a dia.

Por Pablo Velan, CTO e sócio da N5.

Os modelos de inteligência artificial generativa cometem um erro que para a comunidade das pessoas pode passar totalmente desapercebido, e para os especialistas têm um nome: quando a herramienta oferece respostas erradas, imprecisas ou até completamente inventadas, decimos que tuvo uma alucinação.

A razão deste mal deve-se ao fato de que os algoritmos são treinados com grandes (muito grandes) volumes de informação, e então aprendemos clientes e associações com aquela informação que pode ser insuficiente, obsoleta ou inconsistente, e dado que não há “compreensão”. ”, realmente não sabe o que está dizendo.

Antes de perguntas ambíguas ou se o contexto for suficiente, a capacidade de interpolação e extrapolação da IA ​​para responder dentro do jogo, e haverá generalizações ou suposições incorretas. Isso não pode ser uma preocupação para aqueles que usam as ferramentas como mera diversão. No entanto, pode gerar grandes problemas para as empresas, onde as decisões precisas são cruciais.

Estas alucinaciones pueden manifestarse en forma de texto, imágenes o videos generados por la IA.

Apenas para citar um exemplo concreto (e que usamos quando falamos sobre o tema com colegas), imaginamos que queremos avaliar qual é o sucessor de nosso banco mais próximo. Nos colocamos em contato com a IA da entidade, lemos perguntas e a resposta que arroja é algo assim: “Pablo, as sucursais bancárias mais próximas a seu filho X, H e Z”, mas em vez de enumerar as de seu banco, inscreva-se na competência. Esta cena, que pode parecer uma fantasia como algo real, uma análise da startup Vectra informa que a taxa de lucro dos Chatbots oscilou de 3% até 27%.

Seguramente a esta altura se perguntará se existe uma “cura” ou um tratamento para prevenir este mal que afeta as inteligências artificiais e a resposta rotunda é sim, se existir. Um deles (e questione o mais importante) é conectar os modelos à Internet e entregá-los em fontes de informação cerradas, alimentando-os apenas com dados do banco ou fintech em questão.

É possível um produto em grande escala sem alucinações?

A IA Generativa foi para quedar na vida diária das pessoas e das empresas, tanto que no mundo fintech ela foi valorizada em 1,12 bilhões de dólares em 2023: além disso, o rápido crescimento de suas tarefas sugeridas que serão levadas aos 4 .37 bilhões de dólares para 2027, de acordo com um relatório da Market.us. Esta é a razão pela qual o setor financeiro se planta como pode gerar as alucinações da IA ​​​​nos produtos.

Desde a equipe que nos gusta hablar através da experiência e isso foi o que fizemos quando nos comprometemos a criar a primeira geração de IAs exclusivas para o setor financeiro. Esta aventura nos alentou a descobrir o que outra forma existe para evitar as alucinações em sua prefeitura.

OpenAI, a organização além do GPT, trabalhou em métodos para evitar alucinações em seus modelos. Isso inclui avaliações humanas para evitar dados errados, mensagens e difusão de notícias falsas.

Foi assim que iteramos várias vezes até determinarmos um modelo distribuído para qualquer trabalho com vários IA em conjunto. Nos apoiamos em um processo de retroalimentação validando entrada, processamento e saída de cada consulta dos usuários, e também nos esforçamos para que nossa ferramenta responda com informações precisas, próprias, totalmente isoladas de informações de terceiros com uma taxa de sucesso muito elevada.

A IA se apresenta como uma solução que completa uma mudança de paradigma em nossas vidas, mas como toda tecnologia tem suas limitações e deverá seguir evoluindo para superar suas barreiras e imperfeições. Felizmente, os especialistas tecnológicos estão atentos e listados para dar resposta a quaisquer obstáculos que apareçam no caminho.

compartilhar artigo

Conteúdo recente

Categorias populares