Alucinaciones de IA

-

¿Qué son las alucinaciones que produce la Inteligencia Artificial? Son errores inexplicables en las respuestas que ofrece esta nueva tecnología.

Por Gisela Colombo.

Las crecientes preocupaciones respecto a estas fallas que arroja la inteligencia artificial van acelerándose y comienzan a ser los principales males que deben batallar los especialistas. 

A pesar de que estamos más cerca de resolverlos, porque aumentamos diariamente su registro,no obstante, quizá no sea tan fácil ni inmediata la solución. 

No se trata solo de inocuas fallas de raciocinio o pequeños errores de lógica artificial. Las alucinaciones de la IA pueden tener graves efectos en los usuarios. Reprobar un examen sería el menor de los conflictos. Supongamos que un puente sobre el río Tamesis dependa de la capacidad de un sistema inteligente para detectar varias señales y determinar su apertura con el objeto de que una nave pueda navegar un tramo del río. Supongamos también que el barco espera que se abra y la IA que lo dirige no interpretara bien los datos. ¿Qué pasaría?

Observado desde una perspectiva liviana, un error en la ejecución de IA sería un imponderable menor, una especie de obstáculo que no puede dañar la relevancia de una tecnología como ésta. Sin embargo, la IA no es solo un instrumento para agilizar procesos o facilitar tareas. Atañe, en muchos casos, a cuestiones mucho más medulares.

Un modelo de IA puede predecir eventosque no habrán de ocurrir, pero probablemente arrastren a muchos a una toma de decisiones del todo errónea.¿Sus efectos? Imposible de cuantificar. Un modelo de IA que se usa para detectar fraudes puede marcar una transacción como fraudulenta cuando no lo es. ¿Los efectos? Incalculables. La reciente utilización de la IA para diagnosticar enfermedades podría, con un simple error, generar pérdidas irreversibles.

La pregunta es, entonces, ¿qué es lo que falla en estas respuestas tecnológicas? Es, por el momento, misterioso. Como es misterioso el funcionamiento de la inteligencia humana.

Algunos misterios de la psiquis humana también eluden las causas unívocas. Entre los fenómenos de la experiencia que la ciencia no acierta en explicar definitivamente, como sería el caso del «deja vu», existe otro que ha generado popularmente mucho interés. Es lo que en el lenguaje coloquial se ha nombrado como «efecto Mandela» y consiste en una falsa verdad que se impone a gran escala, y de modo inexplicable. 

El nombre del fenómeno responde a uno de los casos más emblemáticos que se suscitó a nivel global: la muerte en prisión de Nelson Mandela. Este hecho jamás ocurrió, sin embargo, un número muy alto de gente manifiesta estar convencida de que ése fue efectivamente el final del activista. Los motivos, por los cuales errores semejantes se tornan verdad para muchos, constituyen el genuino enigma que atrae y desconcierta. 

Pero el «efecto Mandela» no es el único en su especie. Fenómenos similares suelen suscitarse con más fuerza incluso, en el ámbito de las artes. ¿Acaso olvidamos que la imagen de Hamlet, el protagonista de la obra del mismo nombre escrita por William Shakespeare, con la calavera de Yorik en sus manos mientras pronuncia aquel soliloquio ejemplar de «Ser o no ser/ ésa es la cuestión…» nunca ocurrió? No obstante, la síntesis simbólica que hace la cultura espontáneamente reúne el parlamento que habla del sinsentido de la vida con una escena cuyo objeto central refiere un contenido metafórico similar. Yorik era una especie de bufón del rey Hamlet, padre del protagonista, cuyos restos halla en el cementerio. La osamenta desata en él la reflexión sobre la caducidad de la vida, a partir de la figura del clown. Nunca deja de ser la referencia al cómico. Pero en lo inconsciente ambas escenas se fusionan. Quizá un publicista, un productor teatral, un diseñador o un artista que tuviera a su cargo los afiches de la obra, pudieron haberlo propuesto. Pero si mucha gente lo concibió del mismo modo es porque el creador de la fusión caló hondo y dio con un hecho percibido como verdadero. 

En «Casablanca», la tradición oral supone una frase que nunca se dice en la película: «Tócala de nuevo, Sam». Tal vez el mismo fenómeno ocurra en proponer el comentario más emblemático de Sherlock Holmes como «Elemental, Watson», jamás pronunciado en los textos originales. Lo mismo que sucede con «Ladran, Sancho, señal de que cabalgamos» puesto en boca de un Quijote que se independizó de Cervantes, quien nunca escribió esa frase. El parlamento parece provenir de Goethe: ‘en busca de fortuna y de placeres/ más siempre atrás nos ladran’; o de un proverbio de origen turco, que luego Rubén Darío adaptaría. Pero del Quijote, ni noticias. 

Si creencias erróneas nunca comprobadas se han contagiado universalmente como en el «efecto Mandela», ¿cómo habremos de eludir que suceda lo mismo con las concepciones del mundo futuro? 

Expertos sobre el asunto de la IA se han pronunciado al respecto. 

Julián Colombo, CEO y fundador de una empresa líder en software para bancos y aseguradoras, ha resalta «la necesidad de implementar revisiones humanas para los datos críticos». Eso significaría que junto a la IA que alza el puente del Tamesis estarán ojos humanos observando que los datos sean corroborables en la realidad y que las decisiones de la tecnología tengan en cuenta las leyes de la física tradicional. Por ejemplo, «que la materia es impenetrable». 

Esta medida será el mejor seguro contra negligencias. La firma que dirige, efectivamente, está implementando dos asistentes de IA, llamados Alfred —aludiendo al mayordomo de Batman—y PEP— en honor del director técnico futbolístico al que muchos atribuyen la excelencia de Lionel Messi. Ambas inteligencias están destinadas a auxiliar a quien será el «Comandante de IA», un cargo irrevocablemente humano. 

Colombo incluso introduce la relevancia de las respuestas sensibles, más hijas de la intuición y la emoción, que de la lógica. Esto, lejos de complicar las cosas, puede concederle al sujeto humano «aumentar la precisión, especialmente en áreas como riesgo y cumplimiento».

Los resultados parecen ser alentadores. De un espectro que va del 3 % al 27% de alucinaciones, según afirmaVectara, con las medidas recomendadasse reduce significativamente. 

¿Desaparece el factor alucinación? No parece creíble. Quizá porque quien ha pensado la IAsigue creyendo que Mandela murió en la cárcel. 

La inteligencia artificial funciona gracias a datos recabados a gran escala que provienen de operaciones humanas. Es la suma de todo lo ya experimentado, aunque categorizado de acuerdo con lo más habitual y lo más conveniente. Si es así, no debiera llamar la atención de ninguno de nosotros el hecho de que la IA produzca alucinaciones también.

Compartir artículo

Contenido reciente

Categorías populares