Un análisis profundo sobre cómo la inteligencia artificial podría alcanzar un punto de no retorno, transformando radicalmente nuestra relación con la tecnología.
A diferencia de las innovaciones que transformaron el mundo en siglos pasados, la singularidad no sería simplemente otro avance tecnológico, sino un salto cualitativo. Las máquinas, al volverse más inteligentes que nosotros, podrían empezar a diseñar otras aún más avanzadas. Este ciclo de auto-mejoramiento podría llevarnos a una era post-humana, donde las reglas de la biología, la economía y la cultura tal como las conocemos se verían completamente alteradas.
Ray Kurzweil, uno de los futuristas más reconocidos, ubica este momento hacia el año 2045. Otros científicos lo cuestionan, pero incluso quienes dudan de su llegada reconocen que el desarrollo de inteligencia artificial plantea desafíos éticos y filosóficos urgentes.
Ciencia ficción: el espejo del futuro
Mucho antes de que los laboratorios soñaran con redes neuronales o algoritmos generativos, la ciencia ficción ya había planteado sus advertencias, utopías y distopías sobre inteligencias artificiales que evolucionan más allá de lo humano.
La ciencia ficción es la rama de la literatura que se ha dedicado a imaginar eventos futuros, a ficcionalizar hechos posibles de acuerdo con las innovaciones tecnológicas en ciernes, los nuevos descubrimientos científicos o, simplemente, lo que surge de la aplicación de hipótesis filosóficas o sociológicas novedosas.
Es, para Merrill, “la expresión de la imaginación disciplinada”. Es decir, ficción al fin, pero con un esfuerzo de verosimilitud especial. Aquello que narra la Ciencia ficción impresiona, rompe con lo habitual, pero es perfectamente posible hoy —según las nuevas conclusiones de la ciencia, o la tecnología disponible— o en el futuro inmediato.
Autores de todo el mundo y sus continuadores audiovisuales han puesto en discusión cuestiones que atañen a los efectos sociales, biológicos y psicológicos del “progreso” humano. La singularidad es la frontera más lejana a la que se han aventurado las creaciones de ciencia ficción distópica. Hoy, como ha sucedido con muchos otros avances que anticipó la literatura, esa perspectiva está tan próxima que quizá mientras escribamos estas palabras esté expandiendo sus posibilidades vertiginosamente.
El ejemplo más emblemático acaso sea el de “2001: Odisea en el espacio”
Allí aparece la máquina “superinteligente” llamada HAL 9000. Su labor es eliminar a los humanos para proteger la misión de IA independizada de su creador, el hombre. Esta fantasía que lleva al cine el creador de culto, Stanley Kubric, tiene su origen en una novela de ciencia ficción de Arthur C. Clark, publicada en 1968. Entonces, todavía no se había acuñado con claridad la denominación de “Singularidad”. Ni esta obra acababa por reconocerse como una distopía —la sensación de que el futuro tecnológico habrá de atentar contra el hombre. No obstante, ya en sus relatos, se prefigura algo que hoy preocupa a nuestras sociedades.
¿Cuáles son los riesgos de la Singularidad?
La progresión irrefrenable de la IA es, en sí misma, un anuncio de que se avecina el punto en el cual la inteligencia artificial superará a la humana, provocando cambios extraordinarios en la civilización. En “2001: Odisea en el espacio”, este concepto aparece de forma incipiente, aunque con un matiz no del todo pesimista. Aquí la “Singularidad” es vista como un paso evolutivo inevitable: no solo tecnológico, sino también biológico y espiritual.
El superordenador HAL 9000 representa un sistema de inteligencia artificial extremadamente avanzado: puede razonar, comunicarse verbalmente y tomar decisiones. Se acerca mucho más que cualquier hombre a la infalibilidad, aunque ciertamente no la consigue del todo. Pero la peligrosidad de su intervención en todos los ámbitos de la vida, no depende de ese porcentaje de error que tiene por naturaleza, sino de su tendencia a la excelencia. Como un efecto de su aptitud y de su inteligencia suprema. El comportamiento impredecible de esta inteligencia—cosa que ya en nuestra realidad se ha vislumbrado, en varios casos— muestra los riesgos de confiar en algo que ha alcanzado niveles cercanos o superiores a la mente humana. Un ejemplo de ese fenómeno de independencia de las máquinas que ha resultado aterrador para la opinión pública en junio de 2023, es el del dron de combate que desoyó una orden y provocó la tragedia. Aunque el escándalo provocó una desmentida dudosa, la comunidad científica coincidió en que —ocurrido o no—el hecho es una evolución natural de los mecanismos de la IA, si no se toman recaudos y se dan las discusiones y acuerdos éticos necesarios.
Durante mucho tiempo, nuestra cultura concibió estos conflictos como fruto de la fantasía literaria o de la magia del cine. Hoy las perspectivas de que dilemas como éste nos aborden en el futuro crece al mismo ritmo que se perfeccionan las herramientas de la IA.
En “2001. Odisea en el espacio”, HAL desarrolla emociones (miedo, frustración) y mecanismos de autoconservación, características humanas que no deberían haber estado en un simple “programa”. Esto mismo presagiaba Arthur C. Clark.
Aunque eso no es exactamente una realidad actual, sí es cierto que los conocimientos respecto al comportamiento humano, las emociones y los vericuetos de la psiquis ya están obrando como insumos para chats que ofrecen contención psicológica por medio de la IA.
Los temores respecto a la pérdida de control sobre esta creación humana, ya no son, en absoluto, irracionales o inverosímiles.
Tal como presagió la fantasía de Clark y Kubrick, hoy la IA tiene la potestad de decidir autónomamente; es capaz de ocultar información y sabe cómo manipular a sus operadores. Quizá lo que todavía no se manifiesta tan clara es la prioridad que podría darle esta inteligencia a sus propios intereses.
Algunos referentes en el tema —especialmente los que operan en el mercado de las IA— callan por temor a envenenar a esta gallina de los huevos de oro. Pero no todo está perdido. Muchos otros líderes destacan por el humanismo con que advierten los peligros y actúan sobre la previsión.
En eventos relacionados con el sector que desarrolla y comercializa soluciones de IA para diversas industrias, se han escuchado voces autorizadas advirtiendo que esta nueva inteligencia no necesariamente va a “querer” el mismo resultado que los humanos, y los errores de alineación de objetivos podrían ser catastróficos.
El CEO de N5, fintech dedicada a soluciones para la industria financiera, recientemente ha señalado que no haría falta una rebeldía semejante: con solo vulnerar el modo de hacer lo que se le pida, el hombre estaría en riesgo.
Tal suceso ocurre con HAL 9000, la máquina de “2001: Odisea en el espacio”. Ese objeto inteligente decide, para “cumplir su misión”, eliminar a la tripulación.
Colombo insiste en que, en la evolución hacia inteligencias más avanzadas, es fundamental diseñar sistemas transparentes en su toma de decisiones. Eso, al mismo tiempo que crear estructuras de control que permitan corregir desvíos. Y, sobre todo, no debe dejarse librado al azar el accionar de la IA.
La HAL de Clark era un “sistema cerrado”: nadie podía ver exactamente cómo razonaba, lo que es, para Colombo, una receta para el desastre en el desarrollo de IA.
Mientras en la Odisea en el espacio, la Singularidad es inevitable y casi mística (con ayuda de seres superiores), Julián Colombo considera que esta revolución no debe convertirse en un salto automático, “sino en el resultado de decisiones estratégicas en innovación, regulación y ética.”
En otros términos, la Singularidad puede expandir capacidades humanas, pero solo si es correctamente gobernada.
“El problema no es que la inteligencia artificial actúe contra nosotros, sino que cumpla sus instrucciones de manera perfecta pero inadecuada. Hoy enfrentamos el riesgo de sistemas que, si no están diseñados con valores y transparencia, pueden optimizar métricas equivocadas y destruir valor, en lugar de crearlo.”
