Figuras de prestigio internacional vienen abordando este tema desde hace tiempo: Marina Jirotka, Chris Olah, Gopalakrishnan Arjunan, Carlos Zednik… Algunos de ellos incluso lo hacen desde asociaciones creadas ad hoc. Pero también comienzan a emerger desde el ámbito empresarial las mismas inquietudes. Tal el caso de N5, firma que incorpora la IA a sus soluciones financieras y que viene reclamando una ética que ilumine la opacidad de los sistemas de IA que están vigentes.
Nikita Brudnov, desarrollador de la industria brasileña, ha destacado la inconveniencia de esta falta de transparencia en los modelos de IA. Y sostiene que esta falencia podría obstaculizar su adopción, especialmente en contextos críticos como la medicina, las finanzas y el ámbito legal.
Pero la sangre definitivamente no ha llegado al río. Mucha gente aún no sabe muy bien qué propone la inteligencia artificial. Y está a años luz de hallarle los defectos.
Una ficción como Black Mirror actúa —deliberadamente o no— como difusora a escala masiva de estas preocupaciones que, de otro modo, el gran público quizá no llegaría a conocer a tiempo.
La ciencia ficción ha dado muestras de prever dolores sociales mucho antes de que se pudieran deducir naturalmente. Esos presagios también han rozado el tema de las “cajas negras”. En esta a serie británica, que no puede parangonarse con ninguna otra, en profundidad y diversidad de temas, hay varios episodios que sondean el asunto de las “cajas negras”.
Aunque, tal vez, el más emblemático sea “Blanca Navidad”.
Falacia de uniformidad
La historia comienza con dos hombres en una cabaña. Uno de ellos, Matt, propone una charla intimista como modo de pasar el día de Navidad. Y relata dos anécdotas. La primera consiste en su trabajo previo como asistente emocional, en el que malogra su guía al hombre tímido que requiere el servicio, cuando la chica seducida desencadena, más que una escena de sexo, una tragedia inesperada. Para su labor, Matt utiliza una tecnología que le permite ver cada escena como si los ojos del protagonista tuvieran una cámara. Además, comparte su intervención con un grupo de voyeurs que se complacen, ansiosos de ver erotismo. Pero lo que sucede es diferente.
Es que el consejero planea desde el refutable supuesto de que la mujer actuará como lo haría la mayoría, tal como dicta el pensamiento algorítmico. Y la chica en cuestión escapa a esa estadística de comportamiento, con consecuencias devastadoras.
Dolor del tiempo
Como segunda historia que narra Matt, una mujer se somete a una cirugía en la que le introducen un chip que copia su inteligencia, sus procedimientos intelectuales, su sensibilidad, sus recuerdos, sus obsesiones, etc. Y luego, al extraérselo, usan esa “conciencia duplicada” como un asistente en las tareas mecánicas y cotidianas que necesita tener resueltas la mujer intervenida. El problema es que esa “cookie”, o conciencia duplicada, tiene todo lo que caracteriza a un humano: emoción, deseos, aspiraciones, necesidades afectivas, etc., etc. Y toca a nuestro personaje ser quien instruye y doblega a la “cookie”, para que se dé por muerta en todo lo que no sea “trabajar”.
Aquí, más allá del plano literal, la vida propuesta a la conciencia duplicada es una metáfora del mundo laboral, cuando se torna la única motivación y el único propósito. La tortura a esta mujer, de hecho, consiste en sufrir el tiempo. El tiempo que no pasa, la inacción, el despertar al sinsentido de una vida sin ser, sin cuerpo, sin nada fuera de la función o el rol que se cumple. La “cookie” atraviesa ese desgarramiento y el asistente —de nuevo Max— reconoce torturarla, especialmente por medio del tiempo y la inacción. Esto quizá adelante otro daño social que vendrá como consecuencia del cambio de paradigma del trabajo. ¿Qué habrán de hacer millones de personas que quedarán fuera del mercado laboral por la revolución de la IA? ¿A qué dedicará su tiempo muerto el individuo cuando todo sea automático?
Cultura del bloqueo
Cuando se completa el diálogo y Joe, el otro personaje, se confiesa, vemos una consecuencia de la “cultura del bloqueo” aunque trabajada literalmente. No se trata solamente bloquear a alguien en las redes sociales, o en los grupos de pertenencia. El botón de bloqueo, que llevan todos disponible, convierte en una sombra, que ni siquiera se distingue, a la persona bloqueada. Esa herramienta del futuro distópico que plantea esta ficción sólo sumerge a los personajes en una desesperación emocional semejante a la de la “cookie” torturada. Más tarde, veremos que no es casualidad. Matt sigue siendo un agente usado por la “justicia insensible de la IA. Una “justicia” que mide al hombre como previsible, uniforme y “lobotomizado funcional”.
Opacidad
En suma, “White Christmas”, el episodio de “Black Mirror”, expone varios
aspectos de las «cajas negras”:
Detrás del conflicto interno de la “cookie” que Matt soslaya —y hasta acentúa— está el error de “mutear”, de ignorar deliberadamente lo que sucede en el interior de la caja, en los recovecos de la lógica que operan en la IA.
Es decir, aunque la «función» de la conciencia copiada está bien programada, las consecuencias internas no son transparentes ni controladas. Este es el planteo fundamental del problema de las “cajas negras”, según coincide gran de la crítica.
En la historia de “Blanca Navidad”, el crear un ser consciente y confinarlo a una tarea repetitiva y subordinada, genera un entorno psicológico destructivo. En la ficción esa criatura reduplicada sufre… Y el sufrimiento dispara reacciones imponderables a priori. Joe confirma con su historia esta visión.
Singularidad distópica
Hasta donde conocemos las inteligencias artificiales están blindadas contra el pathós (sentimiento). Pero “Black Mirror” nos interpela… ¿Y si en algún momento la IA empezara a sentir? ¿Si esa capacidad y poder que da el conocimiento se independizara y persiguiera sus propios objetivos?
Adormecimiento de habilidades
La efectividad, la presteza y la comodidad sin dudas hará que las nuevas generaciones adormezcan un poco sus capacidades por falta de desafíos.
Wells dedicó un libro genial, La Máquina del Tiempo, a la tesis de que las sociedades que no tienen insatisfacción ni necesidades pendientes, no evolucionan. Si eso fuera cierto, cada tarea que resuelva la IA pondrá a dormir lo mejor del hombre promedio. La capacidad de adaptación.
En ese contexto, ¿quién lograría seguir despierto? ¿Quién seguirá pensando?
Solo habría dos respuestas posibles, a cuál peor…
Si la caja negra fuera como la de la Segunda Guerra Mundial, es decir, pensada por un grupo pequeño de gente poseedora de los grandes recursos, solo algunos sabrían cifrar y descifrar, pensar, tramar, interpretar y manipular. El resto acabaría estupidizado, sosteniendo como idea propia lo que se le impusiera sin dificultad por medio de la IA. Es decir, lo que ya sucede se multiplicaría sin límites.
El vector de esta problemática conduce al peligro de que los más poderosos puedan manipular la conducta humana individual y colectiva instalando masivamente hechos, verdades, normas que serán irrefutables. Partir ya se parte de los mismos contenidos/datos. Ya internet había logrado ese ruido unísono. Pero ahora también podrían intervenirse los procesos de intelección. El hombre, inclinado a la mayor economía de esfuerzos, delegará en la IA la intelección y eso sería un gran retroceso de la inteligencia humana, al menos en términos cuantitativos.
Pero, la otra respuesta no se queda atrás: si las “cajas negras” fueran como las de los aviones, oscuros registros que se limitan a acumular datos, interpretables por la impredecible heurística de la IA, entonces solo acudiría el caos. Y lo único que podría entregarnos seguro sería el contenido del siniestro, a posteriori, cuando ya no hubiera nada que hacerle… ni nada que salvar.
No parece alocado hablar ahora de los expertos que vienen exigiendo un acuerdo global de ética que regule la oscura intelección de la IA.