A IA está mudando o mundo; mas nesses estágios iniciais, o faz com o risco permanente de que nem sempre seja para o bem.

Gisela Colombo *
A inteligência artificial tem mostrado imenso potencial para transformar indústrias, otimizar processos e criar novas oportunidades. No entanto, também cometeu erros graves: muitos modelos de IA (como redes neurais profundas) são caixas pretas. Isso significa que não é fácil entender por que eles tomam certas decisões. Isso é especialmente verdadeiro em algumas áreas, como medicina, finanças ou justiça.
Alguns bancos usam modelos de IA para avaliar pedidos de crédito. Houve casos em que pessoas com excelente histórico de crédito foram rejeitadas, e nem o banco nem o cliente conseguiram entender o porquê, porque o modelo não pôde ser explicado claramente.
Outro dos erros mais comuns é que, ao coletar informações, ele coleta questões que incluem preconceitos ou comportamentos sociais que foram superados na visão oficial contemporânea de nossa cultura, que nem sempre foram erradicados e definitivamente ainda estão latentes em nossas sociedades.
Por esse motivo, a discriminação racial ou de gênero em sistemas de contratação de mão de obra, reconhecimento facial ou decisões judiciais é um dos produtos indesejáveis da IA.
Às vezes, por outro lado, o contexto determina que a imprudência humana não consegue evitar o perigo. Dessa forma, a IA não pode operar à vontade e isso gera consequências dolorosas. De fato, em 2018, um carro do Uber atropelou fatalmente uma mulher no Arizona. A IA reconheceu o pedestre como uma “bicicleta” e não acionou o freio. O sistema foi desativado em modo de emergência e não reagiu a tempo. O mesmo pode acontecer com a saúde, o transporte ou a defesa.
Nos últimos tempos, tem-se falado muito em “Deepfakes”, formas de desinformação produzidas por essa nova tecnologia. As IAs generativas são perfeitamente capazes de criar imagens, áudios e vídeos falsos incrivelmente realistas. O perigo é que eles não são usados apenas para recreação, mas constituem uma ferramenta para manipular a opinião pública, gerar notícias falsas e até mesmo se aventurar no roubo de identidade. Nos próximos anos, todos os países terão que gerar respostas judiciais rigorosas para evitar esse perigo que o universo da comunicação de massa enfrenta.
Um exemplo dessa mecânica é o vídeo falso de Zelensky que foi lançado em 2022, onde o presidente ucraniano Volodymir Zelensky apareceu pedindo que suas tropas se rendessem definitivamente. O material foi rapidamente desacreditado, porém, gerou confusão e demonstrou o poder dessas tecnologias para manipular em larga escala. O diagnóstico médico incorreto devido ao treinamento inadequado do modelo é outra versão séria do fracasso.
Alucinações.
Entre os erros cometidos pela IA estão aqueles que foram chamados de “Alucinações”, um grupo de realidades que misteriosamente afirma o raciocínio artificial. Pode dar citações ou referências falsas, inventar fatos históricos ou dados científicos.
Há um caso emblemático que não faz mais lógico: um advogado americano usou IA para ajudá-lo a redigir um documento judicial. O modelo gerou referências jurídicas inventadas. O juiz considerou que as intimações não existiam e sancionou o advogado por apresentar informações falsas.
Embora essa tecnologia facilite muito a aquisição de conhecimento e a intervenção preventiva, alguns regimes autoritários a utilizam por meio de uma série de imposições que conflitam com a ética e os direitos humanos. É o caso da China. Lá, ele foi usado para vigilância em massa de minorias, como os uigures. Câmeras com reconhecimento facial, geolocalização e análise comportamental são combinadas para controlar e restringir movimentos, sem processo legal transparente.
O deslocamento de empregos também seria contemplado nos possíveis efeitos dos erros de IA. O exemplo clássico desse tipo de inconveniente é o que ocorreu no Japão: as empresas japonesas de mangá e animação começaram a usar geradores de arte de IA para tarefas que antes eram feitas por ilustradores humanos. Muitos artistas freelancers perderam comissões porque as IAs podiam fazer um trabalho “aceitável” muito mais rápido e barato.
Diante desse panorama complexo, a responsabilidade, o julgamento e a abordagem humana tornam-se essenciais.
Num evento que juntou grandes empresas de sistemas, tivemos a oportunidade de consultar uma voz autorizada, que se posicionou como uma figura-chave na construção de uma IA ética e eficaz. O CEO e fundador da N5 se expressou nestes termos: -É importante oferecer IA transparente e explicável, para que cada decisão possa ser compreendida e auditada. Porque a IA não substitui o homem, mas é para ele como um braço mecânico foi e é na indústria automotiva: um instrumento para acelerar, otimizar e diminuir custos ao fazer a mesma tarefa.
Para fazer isso, treinamos modelos com dados bem selecionados, reduzindo o risco de viés. Às vezes, até evitamos pesquisas de dados além do próprio banco de dados de cada empresa que contrata nossas soluções. Isso preserva dados confiáveis preservados e, além disso, garante muito mais a segurança de nossos clientes.
Em suma, desenvolvemos soluções que cumprem as normas éticas e regulamentares internacionais.
Porque a inovação não é suficiente. Você tem que fazer isso direito…
Em um mundo onde a IA pode ser uma solução e um problema, os líderes dizem que a inovação também pode ser responsável, transparente e profundamente humana.
– A chave não é apenas usar a inteligência artificial, mas usar a inteligência com responsabilidade.