Las diez noticias clave de la jornada

Cerco a los robots asesinos

La ONU estudiará si deben prohibirse las armas autónomas que ya desarrollan los ejércitos más poderosos del mundo

Jesús Falcón

Domingo, 25 de diciembre 2016, 09:08

Isaac Asimov lo dejó escrito en 1942:

Publicidad

1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Sus célebres leyes de la robótica, aplicadas en toda su extensa obra de ciencia ficción, no son nada prácticas para el principal agente desarrollador de tecnología: la industria armamentística. O dicho de otra manera, lo que el hombre puede llegar a concebir difícilmente lo pararán los principios éticos, al menos a priori. La historia y sus guerras están ahí para demostrarlo. También internet y su origen militar.

¿Ha avanzado tanto la tecnología para que sea necesario hablar de este tema? Parece que sí. La ONU ya se lo está tomando en serio y ya hay un debate abierto en su seno para desarrollarlo a lo largo de 2017. Diecinueve países ya han exigido una prohibición global de los robots asesinos, incluyendo Argentina, Perú, Pakistán, Cuba y Egipto. Ninguna gran potencia, aunque en un año el número de defensores de esta postura al menos han crecido desde los cinco que lo hacían en 2015.

Ninguna gran potencia entre esos 19, embarcados en el camino contrario. El caso es que los célebres drones de guerra llevan engrosando las filas de ejércitos de todo el mundo casi dos décadas y es de suponer que han ido evolucionando. De lo que se sabe, algunos ya son capaces de repostar en pleno vuelo autónomamente, mientras otros localizan objetivos previamente programados. Por el momento preguntan a un humano antes de tomar la última decisión, la de disparar, pero ¿hasta cuándo? La última generación de tanques rusos dispone ya de armas en su torreta que no preguntan. Y si las grandes compañías de todo el mundo están en la carrera por conseguir coches sin conductor no tardará mucho en haber tanques autónomos también.

Publicidad

Este dilema ya preocupa a mucha gente y varias ONGs están impulsando el debate en todo el mundo. Esta semana Human Rights Watch hacía público que ha mantenido conversaciones sobre este tema durante la Convención Internacional sobre Armas Convencionales, celebrada en Ginebra con representantes de 123 países. La principal decisión ha sido la creación de un grupo de expertos que reflexionará en los próximos meses sobre la utilización de robots en los ejércitos. Esta ONG forma parte de la campaña Stop Killer Robots, iniciada en 2013 y a la que ya se han sumado 60 organizaciones de todo el mundo.

¿Deberíamos permitir los robots soldado?

Argumentos de quienes están a favor:

Son más objetivos y tienen menos errores. Pueden ir a por un objetivo concreto y solo a por él, reduciendo daños colaterales

Publicidad

No tienen ataques de pánico o ansiedad, no tendrán momentos de inseguridad ni sed de venganza

Las bajas propias no serían humanos, sino máquinas

A nivel económico, en un futuro pueden ser más baratos. Se calcula que hoy en día cada soldado estadounidense desplazado en una zona de conflicto bélico cuesta 850.000 dólares al año

Estos robots serían armas de gran precisión, por lo tanto no hay motivo para no desarrollarlas

Argumentos en contra y dudas:

¿Serán capaces de discernir situaciones de duda o peligro para terceros o población civil? Los programadores tendrían que afinar mucho, por ejemplo, para que sepan respetar una tregua o evaluar daños colaterales

Publicidad

¿Podrán distinguir a civiles de enemigos camuflados? ¿Interpretar sus intenciones?

Si resultan más baratos que los humanos, los gobiernos podrían embarcarse con más facilidad en conflictos armados. No tendrían tantos temores a las protestas ciudadanas, además

En caso de cometer crímenes de guerra, ¿de quién es la culpa? No es un tema menor ya que se dificulta la disuasión de estos actos criminales y la compensación a las víctimas

Los robots vulnerarían las leyes humanitarias y deberían equipararse a las armas químicas o biológicas y, por lo tanto, prohibirse

Publicidad

La tecnología difícilmente se va a detener en el campo militar, donde el dinero para investigación es casi infinito. Está por ver si los civiles lo podremos parar. Tampoco hay mucho tiempo. Expertos como Ray Kurzweil, director de ingeniería de Google, vaticinan que la inteligencia de los robots igualará a la de los humanos en 2029. ¿Demostraremos antes ser más listos? Más nos vale si creemos a Elon Musk. El célebre inventor, visionario y millonario fundador de PayPal o Tesla avisa: La inteligencia artificial es nuestra mayor amenaza existencial potencialmente más peligrosa que las armas nucleares.

Este contenido es exclusivo para suscriptores

Suscríbete los 2 primeros meses gratis

Publicidad