Inteligencias artificiales y libertades sintéticas

AI The Somnium Files: nirvanA Initiative ha llegado recientemente a territorio europeo y las buenas críticas no han tardado en aparecer en diferentes medios especializados. Siguiendo la estela de su predecesor, primer juego de una saga que apunta, en palabras de su propio creador Kotaro Uchikoshi, a continuar en tiempos venideros, este título de suspense basado en fases de investigación point-and-click y muy hermanado al planteamiento de una visual novel, nos presenta un Tokio futurista en el que deberemos investigar una serie de cruentos crímenes aparentemente inexplicables. Tanto en la primera como en la segunda iteración de esta serie el dúo protagonista se constituye por un detective humano y una inteligencia artificial femenina que toma la forma de un ojo robótico —colocado en la cuenca ocular del investigador— y puede proyectarse de forma holográfica, bajo apariencia humanoide, en el campo de visión de su portador.

Más allá de las particularidades pertinentes en lo tocante a historia, diseño y gameplay de The Somnium Files, de las que probablemente se hablará en esta web en un futuro, el presente artículo quiere tomar a Aiba, coprotagonista cibernética del primer juego de la serie —y en cierta medida también a Tama, su homóloga del segundo—, de punto de partida para su planteamiento. Y es que, a diferencia de tantos otros casos de settings futuristas, ambas son IAs perfectas. Muy al estilo de la ciencia ficción más clásica o de comedias como Guía del Autoestopista Galáctico, donde en muchas ocasiones el ser un robot podía sustituirse, conceptualmente hablando, por llevar un disfraz metálico, los diálogos de Aiba con Date y el resto de personajes, le hacen indistinguible por completo de una persona biológica. Aiba tiene emociones y muestra sentimientos. Es capaz de comunicar su felicidad, puede divertirse y ser espontánea, pero también entrar en cólera, especialmente con su compañero, revelarse ante lo establecido y entristecerse cuando ocurren cosas malas. Incluso puede llegar a algo tan de homo sapiens como es enamorarse.

A nadie podría sorprenderle que, de repente, uno de los giros de guion de la obra fuese que nuestra querida IA no es más que una interfaz desde la que habla una trabajadora de ABIS, la división de investigación a la que pertenecen los personajes. Pero no, estas inteligencias sintéticas lo son en pleno derecho, sólo que han llegado a un punto de complejidad de desarrollo y, por tanto, humanización, que no resulta comparable a sus homólogas de universos como, por ejemplo, Star Wars. Con todo, hay un punto fundamental de divergencia que deja muy clara la frontera entre lo humano y lo robótico en el mundo de Somnium Files. En una escena de nirvanA Initiative queda completamente patente que Tama —y por extensión, Aiba— debe obedecer en última instancia, debido a su código de programación, las órdenes directas de su compañero. Y es en ese preciso instante cuando se hace más claro que nunca que no son humanas, más allá de su forma de globos oculares blanquecinos y refulgentes o sus proyecciones semitransparentes. Carecen de libertad para rebelarse por completo ante los humanos. O, al menos, ante algunos de ellos.

¿Inteligencia artificial? Sí, pero nadie le impide soñar / ©Spike Chunsoft

Uno de los primeros creadores de ciencia ficción, y el más famoso entre ellos, que supeditó de forma más o menos coherente el eventual comportamiento robótico a la voluntad humana fue Isaac Asimov. El escritor de origen soviético, que cuenta en su haber con clásicos como Fundación, Yo Robot o El fin de la Eternidad, partió de una base plenamente utilitarista, y más o menos milliana, para establecer sus Tres Leyes de la Robótica: 1) Ningún robot dañará a un ser humano o permitirá, debido a su inacción, que sufra daño, 2) Todo robot debe obedecer órdenes venidas de seres humanos salvo que estas órdenes contradigan la primera ley y 3) Un robot debe proteger su propia existencia siempre y cuando esto no entre en conflicto con la primera o segunda ley. Mucho ha llovido desde entonces y las aristas encontradas a las Tres Leyes no han sido pocas —por ejemplo, si dos personas se están ahogando a la vez a una distancia considerable una de otra y el robot intenta salvar a una, sea la que sea, eso le llevará invariablemente a transgredir la primera ley— pero, consensuadamente, un amplio porcentaje de las ficciones narrativas sobre robótica de la segunda mitad del siglo XX y principios del XXI se han construido sobre estos postulados. Por supuesto, y al margen pero no en oposición a ello, el uso de robots como antagonistas ha sido también bastante habitual —Xenoblade Chronicles, Nier Automata, el manga Pluto…— e incluso de, llegados a cierto punto, su utilización para subvertir las Leyes y llegar a una suerte de subjetivismo robótico en el que el sintético tiene la misma capacidad de transgresión de la norma y la moral que cualquier ser humano y puede actuar de forma egoísta y plenamente autónoma al margen de la existencia o no de homo sapiens—Casshern Sins, Ergo Proxy...—

Kos-Mos, uno de los personajes más queridos de Xenosaga, parece un ejemplo estupendo de un robot clásico. En oposición a los realianos integrados en la sociedad, una suerte de humanos sintéticos creados en masa, «programados» y con mejoras específicas integradas para trabajar como mano de obra —partiendo de la misma idea que los replicantes de Blade Runner—, Kos-Mos es una androide pura. Un cuerpo completamente mecánico y una CPU por cerebro. Obviaremos en este artículo detalles de la trama de Xenosaga II y III que cambian un poco la óptica del asunto, por los motivos obvios, pero en primera instancia, la deuteragonista de la trilogía espacial de Tetsuya Takahashi ofrece en el primer juego de la franquicia todo lo que un robot estándar puede ofrecer, al margen de su potencia de fuego desmesurada. Su carácter se basa, en teoría, en un sistema operativo de simulación de personalidad, pero durante gran parte de der Wille zur Macht, el primer juego de la serie, pese a comunicarse con todos los demás personajes de manera constante y dejar patente una inteligencia evidente parece incapaz de mostrar emoción alguna, como cualquier IA básica de nuestro mundo actual. Pero, por supuesto, el asunto que nos atañe va más allá de eso.

Puesto que la androide de Xenosaga se desplaza sin necesidad de ser controlada mediante un mando a distancia, se comunica de manera libre y ostenta capacidad de decisión visible, podríamos suponer que sí es autónoma en cierta medida y que actúa conforme a su libre albedrío, pero, como ocurre con tantos otros robots, esta presunta libertad de acción viene determinada y medida por el código de su programación, más específicamente, por las normas cifradas de Vector Industries, la empresa detrás de su creación. Quizás no siga las clásicas Leyes de la Robótica de Asimov precisamente al dedillo, pues es capaz de llevar el utilitarismo a extremos absurdamente urobuchianos, como cuando dispara a través del cuerpo de un realiano para acabar con un enemigo y tener así un porcentaje mayor de éxito, según sus cálculos, para salvar al resto de la tripulación. Pero su conducta general opera, como decimos, bajo las normas instaladas en su sistema operativo. ¿Hasta dónde llega, por tanto, su agencia real y, con ello, su libertad de elección?

«No eres tú, es mi programación» / ©Bandai Namco

Para el filósofo racionalista neerlandés Baruch Spinoza, el libre albedrío sólo era una muestra de nuestro desconocimiento a la hora de comprender las causas de nuestro comportamiento. Si ahora te bebes un vaso de agua es porque se cumplen todos los criterios necesarios para bebértelo en este mismo instante, y eso es crucial en nuestra condición de humanos. Sus posteriores divagaciones sobre que sólo Dios era realmente libre le vendrían mejor a otro artículo, pero quedémonos con que varios siglos después, la ciencia retomó el camino que la filosofía determinista había abierto —y que otros tantos habían continuado desde su propio prisma, como Thomas Hobbes desde la esfera social o el propio Karl Marx— y hoy en día, experimentos y trabajos sobre la conciencia humana como los de Benjamin Libet o Daniel Dennett son capitales para comprender lo difícil que es dibujar en el mapa de nuestra conducta una línea de auténtica libertad.

Pese a lo complicado de trazar esta frontera entre nuestra capacidad de libre elección y la conciencia de las propias decisiones como sustitución de ese albedrío autónomo en el mundo de lo humano, en el de lo robótico debería resultar más sencillo. Al fin y al cabo, en primera instancia y a falta de la existencia de un alma, nuestro código genético, nuestras condiciones socioculturales y las circunstancias ambientales que nos rodean deberían ser mucho menos sencillas de medir que las características de un programa informático, que al final es en lo que se basa la IA de cualquiera de los robots que hemos mencionado. El anime anteriormente tratado en esta web Ergo Proxy cruzaba esta fractura a través del descartiano virus cogito, que infectaba a los robots de su mundo. Una vez contraído el virus, estos pasaban de ser autómatas con capacidades intelectuales y comunicativas ya prefijadas y centrados en una o dos tareas a realizar muy concretas, como tenderos, cuidadores o mecánicos, a inteligencias artificiales plenamente autoconscientes y totalmente análogas a los humanos en términos de capacidad de decisión y percepción moral. Huelga decir que, abrumados por la infinidad de posibilidades abiertas a sus ojos de golpe y por el abismo de la aterradora libertad —y en divergencia a los niños de nuestra especie, cuya conciencia y apreciación de los caminos posibles crece progresivamente, de la mano de su neurodesarrollo, durante toda la infancia—, la gran mayoría terminaban perdiendo el juicio, convertidos en vándalos y homicidas. Re-L y los demás agentes del Departamento de Inteligencia Ciudadano daban caza a estos androides como si de una plaga se tratase pero, irónicamente, estos últimos, pese a su desenlace psicótico, se habían vuelto tan humanos como ellos.

Los autobots criminales de Ergo Proxy lo son en la misma medida en la que lo sería un humano que cometiese los mismos delitos en el mismo grado y eran exactamente tan víctimas de sus circunstancias como cualquier persona crecida en un ambiente hostil y violento que en su adultez le termina abocando a la delincuencia. E, igualmente, tan responsables. Y es que según el profesor Robert Sparrow, de la Monash University, podemos hablar de que la autonomía está directamente ligada a la responsabilidad moral y que, por tanto, los robots e inteligencias artificiales son objeto de esta última siempre y cuando posean una autonomía comparable a la de los humanos —se entiende que adultos, no niños o casos de discapacidades graves— y, como sujetos emisores de juicios morales también deben ser receptores de los mismos. Y podría argumentarse, por tanto, que también deberían ser sometidos a las mismas leyes y trato que sus compatriotas de carne, piel y hueso. Pero esta es cuestión para otro futuro ensayo sobre el tema. Hoy terminaremos este escrito reflexionando de nuevo sobre si entender la evolución en la concepción de la libertad robótica en la ficción nos puede ayudar a comprender mejor nuestras propias posibilidades de decisión. Con las salidas de tono infantiles e iracundas en mitad de la investigación de un caso de Aiba, de The Somnium Files, o los devaneos sadomasoquistas en situaciones completamente inadecuadas de su homóloga Tama, pese a las quejas de su compañero, que son, al fin y al cabo, y aunque no puedan desobedecer órdenes directas de un superior, demostraciones de la mayor humanidad robótica y la más pura libertad sintética.

¿Haría un ente que funciona exclusivamente a través de un código un chiste TAN malo? / ©Spike Chunsoft

Deja un comentario