
Las Tres Leyes de la Robótica de Isaac Asimov son famosas en el universo de la ciencia ficción y gozan de gran reconocimiento en la esfera de la Inteligencia Artificial (IA) y la robótica, subrayando la complejidad inherente en la creación de un sistema confiable y sin fallas.
Para entender cabalmente su relevancia, debemos comenzar por explorar la genialidad de Isaac Asimov, el renowndo autor de ciencia ficción que pensó estas normas. Siguiendo esto, necesitamos reflexionar sobre cómo estas leyes pueden ser aplicadas y evolucionar para salvaguardar a la humanidad.
Isaac Asimov – La génesis de una lumbrera
Isaac Asimov, nacido en Rusia el 2 de enero de 1920, emigró a los Estados Unidos a la tierna edad de tres años. Creció en Brooklyn, Nueva York, y culminó sus estudios en la Universidad de Columbia en 1939. Fue distinguido por su prolífica capacidad para escribir sobre ciencia y ciencia ficción. Durante su trayectoria, escribió y/o editó más de 500 libros.
Asimov se nutrió significativamente del genio de algunos de los escritores más emblemáticos del género de ciencia ficción. Inició su carrera en el Philadelphia Navy Yard, donde conoció a dos de sus compañeros de trabajo, quienes posteriormente se destacarían como dos de los escritores de ciencia ficción más respetados en la historia de la ficción especulativa: L. Sprague de Camp y Robert A. Heinlein.
L. Sprague de Camp es un autor laureado que escribió más de 100 libros y fue una figura fundamental de la ciencia ficción durante las décadas de 1930 y 1940. Entre sus más afamadas obras podemos mencionar «Darkness Fall» (1939), «The Wheels of If» (1940), «A Gun for Dinosaur» (1956), «Aristotle and the Gun» (1958) y «La gloria que era …” (1960).
Robert A. Heinlein fue uno de los escritores de ciencia ficción más admirados durante el pico de su carrera. Junto con Isaac Asimov y Arthur C. Clarke, conformó el grupo designado como los «Tres Grandes» en la literatura de ciencia ficción. Los títulos más populares de Robert A. Heinlein incluyen «Farnham’s Freehold» (1964) y «Sail beyond the Sunset” (1987). La moderna generación de lectores probablemente lo reconozca más por la adaptación cinematográfica de su novela “Starship Troopers” (1959).
Influenciado por estos dos gigantes de la literatura futurista, Asimov decidió comenzar su notable carrera como escritor. De igual forma, era altamente estimado en la comunidad científica y se le solía invitar a brindar charlas sobre ciencia.
Las tres leyes de la robótica
Issac Asimov fue el precursor en introducir el término «Robótica« en un cuento titulado ‘¡Mentiroso!’ que se publicó en el año 1941.
Poco después, con la publicación de su cuento de 1942 “Runaround”, dio a conocer al mundo sus tres leyes de la robótica. Las leyes son:
1. Un robot no debe perjudicar a un ser humano o, mediante la inacción, permitir que un ser humano resulte dañado.
2. Un robot debe seguir las instrucciones proporcionadas por los humanos, a menos que tales órdenes entren en conflicto con la Primera Ley.
3. Un robot tiene la obligación de proteger su propia existencia mientras tal protección no contradiga la Prima o la Segunda Ley.
Estas reglas se diseñaron para generar intrigantes giros en la trama, y Asimov elaboró una serie de 37 cuentos de ciencia ficción y seis novelas en las que se involucraban los robots positrónicos.
Una de estas compilaciones de cuentos, titulada «Yo, Robot», fue posteriormente llevada al cine en el 2004. La filmación «Yo, Robot», estelarizada por Will Smith, se desarrolla en un distópico año 2035 y muestra la existencia de robots altamente inteligentes que responden a servicios públicos bajo las tres leyes de la robótica. La película, al igual que las historias, ofrece una pronta analogía de cómo la programación puede descontrolarse y cómo programar algún tipo de IA sofisticada conlleva un elevado riesgo.
La realidad actual ha logrado superar lo que antes considerábamos ciencia ficción, estamos en la fase de diseñar una IA que, en algunos aspectos, es más avanzada de lo que Issac Asimov podría haber concebido, al mismo tiempo que es más limitada.
Las tres leyes de la Robótica son frecuentemente mencionadas en las conversaciones acerca de la Inteligencia Artificial General (AGI por sus siglas en inglés). Haremos un breve recorrido sobre qué es AGI y cómo las tres leyes de la robótica deben evolucionar para prevenir futuros problemas.
Inteligencia Artificial General (AGI)
Actualmente, la mayoría de las IA con las que interactuamos en el día a día se pueden categorizar como «IA angosta». Este tipo de IA es muy específica y limitada en su alcance. Por ejemplo, un coche autónomo puede navegar por las calles, pero debido a su alcance «angosto» no podría desempeñar fácilmente otras tareas. Otra muestra de IA limitada sería un sistema de reconocimiento de imágenes que pueda identificar y etiquetar de manera eficiente imágenes en una base de datos, pero no podría adaptarse con facilidad a otra tarea.
La Inteligencia Artificial General, o como se le conoce comúnmente «AGI», es una IA que tiene la habilidad de aprender, adaptarse, pivotear y operar de manera eficiente en la realidad tal y como lo hacen los humanos. Este tipo de inteligencia no tiene restricciones en su alcance, puede enfrentar cualquier situación y aprender a manejar desafíos de la vida real.
Vale la pena destacar que, aunque la IA está avanzando a paso acelerado, todavía no hemos alcanzado la AGI. Existen discrepancias sobre cuándo alcanzaremos la AGI, cada experto tiene una predicción diferente en cuanto al cronograma. De manera personal, estoy de acuerdo con Ray Kurzweil, inventor, futurista y autor de «La singularidad está cerca», que estima que habremos conseguido la AGI para el 2029.
Con esta línea de tiempo del 2029 como cuenta regresiva, tenemos la responsabilidad de aprender a codificar un tipo de guía de reglas en la IA, que no sólo sea similar a las tres leyes, sino que sea más avanzada y capaz de prevenir conflictos entre los humanos y los robots en el mundo real.
Leyes contemporáneas de la robótica
Aunque las tres leyes de la robótica fueron revolucionarias para la literatura, son significativamente insuficientes para ser programadas de manera seria en un robot. Después de todo, este era la premisa detrás de los cuentos y las novelas. Los conflictos que se generaban entre las tres leyes, o al menos la interpretación de estas, provocaban que los robots colapsaran, se rebelaran contra los humanos u otros pilares de la trama.
El principal problema de las leyes actuales consiste en que la programación ética de obedecer siempre a las instrucciones humanas y de protegerse siempre puede llegar a ser contradictoria. Al final del día, ¿puede un robot defenderse de un dueño que es abusivo con él?
¿Cómo debemos programar un mecanismo de seguridad infalible? ¿Cómo le ordenamos a un robot que debe apagarse sin importar las consecuencias? ¿Qué sucede si un robot está en medio de proteger a una mujer de sufrir abusos por parte de su esposo? ¿Debería el robot apagarse automáticamente si el esposo abusivo se lo ordena?
¿Quién debería tener autoridad para instruir a los robots? Con las armas autónomas capaces de identificar y apuntar a enemigos en cualquier parte del mundo, ¿debería el robot poder rechazar una orden para eliminar a un objetivo si éste es identificado como un niño?
En otras palabras, si el robot es propiedad de una persona con tendencias psicopáticas y está siendo controlado por ella, ¿puede el robot rechazar órdenes que sean inmorales? Los cuestionamientos son interminables y las respuestas son tan difíciles de obtener que no pueden ser resueltas por un único individuo. Por eso, organizaciones como El futuro de la vida, son fundamentales para iniciar estos debates éticos, antes de que alcancemos la auténtica AGI.
LEE MÁS ARTÍCULOS SOBRE: Noticias de IA.
LEE LA ENTRADA ANTERIOR: La Adopción de IA en Salud Representa una Oportunidad en 2 ETFs.