Search

Por Camilo Serna, subdirector de la Campaña Colombiana Contra Minas

Jonás, un dulce cachorro Basset Hound, llegó en el 2011 a la vida que compartimos mi esposa y yo. Con él llegaron montones de pelos que caían al piso después de cada sacudida, algo que angustia a cualquiera y, en especial, a alguien fanático de la limpieza como lo soy yo.

Fue así como comenzó la búsqueda de una solución que, por supuesto, no involucraba sacar de la ecuación a Jonás, el cual ya hacía parte de la familia.

La búsqueda fue relativamente corta, ya que la oferta de robots que hacen el aseo de una casa era bastante amplia, de modo que la decisión se basó más en los costos y utilidades. De esa manera también llegó Roomba a hacerle compañía al perro y, de paso, a liberarnos del estrés que sus pelos nos traían.

Roomba es el producto más popular de la compañía estadounidense Irobot,  acumulando el 18% de las ventas globales de aspiradoras. El objetivo inicial de la compañía, creada en 1990 por Colin Angle, Helen Greiner y Rodney Brooks, exalmunos del Instituto Tecnológico de Massachusetts, era crear robots de uso militar. Sin embargo, sus soluciones para el hogar y la industria la llevaron a liderar la nueva industria de la robótica de consumo masivo.

Como la mayoría de los ingenieros de la robótica actual, su inspiración para crear Roomba fue el robot MSE-6 de la serie DROIDS de la Guerra de las Galaxias, un pequeño robot negro que ayudaba a los visitantes de la estrella de la muerte a encontrar el camino, sorteando todo tipo de obstáculos.

Hoy Roomba ocupa un lugar destacado en mi casa. El modelo que tengo es muy básico, oprimo limpiar y “ella” traza un recorrido comenzando un complejo ejercicio de limpieza. Normalmente su recorrido es diferente cada vez que se enciende, ya que se ubica donde hay más suciedad dedicando mayor tiempo a  transitar esas zonas.

Foto Roomba
Foto Roomba

A pesar de que este robot no tiene forma humana y parece más un platillo que se mueve por el piso sorteando los obstáculos propios de una casa (muebles, zapatos, lámparas, etc), las instrucciones de inicio sugieren que sea bautizado con un nombre para darle características humanas, lo que culturalmente se conoce como antropomorfismo.

Con el pasar del tiempo nos hemos dado cuenta que Roomba va estableciendo la “ética” de la limpieza de nuestra casa, va a donde quiere. A veces nos parece que no toma la decisión correcta porque comienza por la sala cuando el cuarto está más sucio, pero al final “ella” termina limpiándolo todo y cuando finaliza busca la zona de parqueo para recargar sus baterías. Además, el control que tenemos sobre su trabajo se reduce al encendido, por más que quiera llevarla a limpiar un lugar que yo creo que está más sucio, ella decide lo que sus sistemas consideran que es lo que debe hacer. Al final, un ser humano no tiene el control sobre su trabajo.

Es claro que, como sucede con la aspiradora Roomba, cada día estamos más cerca de tener robots que tomen sus propias decisiones en labores cotidianas, haciendo más fácil nuestra vida. El Google Car, que pronto nos llevará por las carreteras sin preocuparnos por el camino, o los drones de Amazon, que cargarán paquetes de compras a nuestras casas, constituyen algunos avances ya en desarrollo o uso.

Pero ¿qué es un robot?

La inteligencia artificial, concepto basado en el aprendizaje que obtiene un sistema computarizado de las características del ambiente para tomar decisiones que lleven a cumplir un determinado objetivo, combinado con entidades mecánicas que pueden mover o manipular objetos y a sí mismas, se constituyen en lo que llamamos robots. El grado de independencia para desarrollar la labor para la que ha sido programado o construido determinan su complejidad.

El desarrollo tecnológico nos ha llevado desde el transistor hasta los circuitos integrados, de estos a los microprocesadores que permiten tomar señales del entorno a través de sensores (de temperatura, posición, humedad, distancia, etc.) e incluso de las personas (identificación facial y biometría), y con ello transformar unos y ceros (lenguaje binario digital) en acciones y decisiones.

Es así como un sistema puede enfrentarse a un obstáculo y sortearlo o identificar la zona en la que se acumula más suciedad e ir hacia ella para limpiarla (como en el caso de nuestra aspiradora). Es decir, toma por sí solo una decisión y establece una ética en su comportamiento (es bueno ir de frente y no de lado, es bueno limpiar aquí y no allá).

¿Y que pasa si le damos armas a un robot?

Foto Stop Killer Robots
Foto Stop Killer Robots

La lógica que rige la humanidad, y lo juzgo por la historia, es a desarrollar armas que permitan matar de la manera más sencilla y no causen daño a quien las utilice. Si esta lógica la llevamos a la robótica, es muy sencillo el resultado final: tener artefactos que suplanten a los humanos en la acción de matar, combatir o neutralizar un determinado enemigo.

Desde la existencia de la ciencia-ficción, el imaginario de campos de batalla donde maquinas reemplacen la labor de un soldado en la guerra es constante, haciendo evidente la ventaja de evitar la muerte de un ser humano cuando una maquina pueda reemplazarlo en un combate o enfrentamiento con otro, que quizás también sea otra maquina.

El perfeccionamiento de los sistemas de sensores han acercado poco a poco a la industria de la robótica militar a este “sueño”.  Se habla de sistemas que detecten tanques y neutralicen tanques de guerra, drones que ataquen bases militares cuando detecten que allí se encuentra un enemigo o, mejor aún, acaben con células terroristas antes de presentarse una confrontación.

Todo suena muy bien, entonces ¿cuál sería el problema?

El problema es el mismo que se presenta con Roomba cuando decide que va a limpiar un lugar que para “ella” esta más sucio que otro, así yo como usuario crea otra cosa. Su lógica de programación y su aprendizaje del entorno la llevan a un lugar que yo no puedo determinar y solo puedo saber si logró su función por los resultados, sin control sobre el proceso.

Esto en términos de un robot con autonomía para matar se traduce en que “él” decide si dispara, a quién dispara y en qué momento lo hace. A pesar de que el programador haya determinado los medios de combate y el objetivo.

Esto quiere decir que un robot con autonomía para matar debería diferenciar un combatiente de una persona no combatiente, un adulto de un niño, un soldado herido de uno que no lo está, un amigo de un enemigo, entre muchas otras variables de lo que llamamos el Derecho Internacional Humanitario o, sencillamente, las leyes de la guerra.

Si bien el desarrollo de los sensores de identificación del entorno y las personas es muy avanzado, las decisiones de matar, o no, sobrepasan cualquier sistema de programación, ya que se relacionan con lo que los humanos llamamos la conciencia, el sentido común y el corazón. Elementos que definitivamente nunca tendrá una maquina, así la adoptemos como parte de la familia o le demos características humanas, como sucede en el sentido más básico con nuestra Roomba.

En la ética humana lo bueno y lo malo es relativo a factores determinados por la cultura y la sociedad. Incluso cambia con el tiempo y el lugar, es decir, lo que es bueno hoy no lo era necesariamente ayer, y lo que es malo en un sitio no lo es en otro. Ese entendimiento no es posible trasladarlo a una maquina, que debe ejecutar una instrucción: “Matar al enemigo”.

Si dejamos a la máquina que aprenda quién es el enemigo con parámetros de bondad y maldad en un determinado momento y espacio (por ejemplo, el enemigo son las personas trigueñas de ojos azules, con huellas dactilares y caras determinadas, que además se reúnen vestidos de verde, que hagan gestos agresivos – por ejemplo que arruguen las cejas, entrecierren los ojos, muestren los dientes- y porten armas), el robot ejecutará la acción de búsqueda de este tipo de seres humanos con una gran precisión. Si, además, le programamos ciertas leyes de la guerra (no matar al desarmado, al niño, a los que portan una cruz roja o a los que usan armas de determinado tipo o forma, etc.) el robot podría diferenciar y aprender que solo mata al trigueño de ojos azules, mal encarado que este portando armas.

Pero en la ejecución de estas tareas un robot autónomo aprende (es el principio de la inteligencia artificial), es decir, combina instrucciones para lograr de mejor manera su objetivo (en el ejemplo podría ser eliminar personas agresivas que no lleven el símbolo de la cruz roja, que no sean niños, y que usen armas de determinado tipo). Es así como un ser humano con las características del enemigo antes descrito o que sencillamente viole sus reglas (use armas de determinado tipo o no use la cruz roja), así sea un “amigo”, puede ser un objetivo de la máquina. Y, sin la posibilidad de intervención humana, la maquina se puede volver en contra de su mismo programador.

Foto Terminator
Foto Terminator

¿Y qué se esta haciendo para evitar este panorama traído de la ciencia-ficción?

El 17 de abril del año 2015, expertos sobre sistemas robóticos, legislación internacional, derechos humanos y derecho internacional humanitario se reunieron en la sede de las Naciones Unidas en Ginebra para contarle a los Estados parte de la Convención sobre Ciertas Armas Convencionales (CCAC), las implicaciones de entregarle a una máquina la decisión de matar, o no, a una persona.

Asimismo, se discutieron los avances que en la robótica y en la inteligencia artificial se están dando en el mundo, en especial, en el desarrollo de armas que permitan prescindir de los humanos en el campo de batalla.

Seguramente para muchos representantes de gobiernos y estands esta reunión trajo más dudas que claridades. Como siempre, son la industria y el dinero los que desequilibran las decisiones humanitarias. Sin embargo, discutir el tema y plantear posibles soluciones ya es un gran avance.

El paso siguiente se debe dar en noviembre, en la reunión de las altas partes contratantes de la Convención. Allí se debe comenzar a discutir un posible instrumento legal que regule o prohíba el desarrollo de armas autónomas que puedan causar la muerte a una persona.

Cuáles son las características técnicas de estos sistemas o robots, qué se quiere decir con control humano significativo, cuáles son las implicaciones sobre los derechos humanos y el derecho internacional humanitario, cuál es la perspectiva de seguridad y estrategia, entre otras, son las dudas a resolver.

Al final, Roomba solo es un pequeño instrumento que sirve para hacernos más fácil la vida, pero su sistema puede llegar a modificarse para acabarla.

Es público, incluso por su página web, que entre otras empresas robóticas, Irobot, tiene su división militar. Ojalá que los desarrollos que allí se estén haciendo sean para humanizar el campo de batalla, por ejemplo, robots desminadores, de reconocimiento, de rescate, … Esperemos que no sean los robots asesinos.

Stop Killer Robots
Stop Killer Robots

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *