X

La buena información es más valiosa que nunca | Suscríbete a infoLibre por sólo 1 los primeros 15 días

Buscador de la Hemeroteca
Regístrate
INICIAR SESIÓN
¿Olvidaste tu contraseña?
infolibre Periodismo libre e independiente
Secciones
¿Sabías que...?

Una treintena de países se plantan ante el avance de los 'robots asesinos'

  • Las armas autónomas plantean un reto moral que la comunidad internacional tendrá que enfrentar en los próximos años.
  • Mientras que algunos estados apuestan por no poner barreras, otros quieren regulación: “Que siempre decidan los humanos”

Publicada el 13/11/2020 a las 06:00

El control humano de las máquinas

Para todos los detractores de los 'robots asesinos' es importante tener en cuenta la dimensión moral del asunto.

Samuel Martínez

Un robot no hará daño a la Humanidad o, por inacción, permitirá que la Humanidad sufra algún daño”. Es la ley cero de la robótica que el escritor Isaac Asimov incluyó en su libro Robots e Imperio. El volumen salió publicado en 1985 y, por aquel entonces, el gran público lo percibió como lo que era, ciencia ficción. Sin embargo, en 2020 los robots asesinos, es decir, aquellos que pueden llegar a “hacer daño a la humanidad”, ya preocupan a las instituciones internacionales y se proyectan como uno de los grandes problemas morales del futuro, toda vez que países como EEUU, Rusia o Corea del Norte avanzan de forma incansable en la construcción de armas autónomas en base a la inteligencia artificial. En la otra orilla se encuentran otros como Argentina, Chile, Austria o Brasil, que consideran prioritario frenar el avance de un armamento que tendrá, según la ONG Human Right Watch, “la capacidad de detectar, seleccionar y atacar objetivos, sin ningún tipo de intervención humana”. Ese es el futuro y, a juzgar por las prisas de la ONU y el Parlamento Europeo para incentivar su regulación, es más próximo de lo que cabría esperar.

El control humano de las máquinas es el quid de la cuestión y el punto de conflicto entre los países que apuestan por una prohibición sin ambages, los que la rechazan y los que, como España, están entre medio. Antonio Guterres, secretario general de la ONU, declaró ante los líderes mundiales en la Asamblea General de las Naciones Unidas que es “moralmente repugnante y políticamente despreciable” que exista la posibilidad de que las máquinas tengan en poder de arrebatar la vida a una persona. En esa línea, el Parlamento Europeo aprobó en 2018 —con 566 votos a favor, 47 en contra y 76 abstenciones— una resolución para limitar el uso, la producción y el desarrollo de cualquier arma capaz de matar sin necesidad de control humano. Para todos los detractores de los ‘robots asesinos’ es importante tener en cuenta la dimensión moral del asunto. ¿Quién va a tomar la responsabilidad de la muerte de civiles a manos de una máquina? Esa es una de las preguntas que se lanzan en la ‘Campaign to Stop Killer Robots’ (Campaña para frenar a los robots asesinos), una alianza de varios actores internacionales que luchan por el cese en la fabricación de ‘robots asesinos’. Por otro lado, insisten en el papel de la misericordia en las guerras. “Si un arma está programada para matar a un soldado según una serie de inputs… ¿Qué pasa si ese soldado se rinde?”. Mientras que el ser humano es capaz de mostrar compasión, una máquina seguiría la orden para la que ha sido programada.

Por eso la mayoría de los estados que participan en el Convenio sobre Ciertas Armas Convencionales (CCW por sus siglas en inglés) coinciden en que es necesaria una regulación que asegure que siempre habrá un humano al mando. Entre esos países está España que, si bien no se encuentra en el grupo de los 30 que piden directamente la prohibición de los ‘robots asesinos’, sí que advierte de la necesidad de que la toma de decisiones venga siempre de la mano de las personas, con sus sentimientos, sus reflejos y su capacidad de adaptación al medio y al cambio de las circunstancias. No obstante, los contrarios a la prohibición —sobre todo países como Estados Unidos, Rusia, Corea del Norte o Francia, muy interesados en la inversión en inteligencia artificial para armamento (según Human Right Watch)— también tienen sus argumentos morales. Fundamentalmente, arguyen que una guerra donde las armas fueran autónomas evitaría que un gran número de soldados muriera en el campo de batalla, habida cuenta de que podrían ser los propios robots los que se enfrentasen unos con otros.

Hackeo y problemas con el derecho internacional

“El derecho internacional se creó para las personas, no para las máquinas”. Son palabras de Bonnie Docherty, investigadora sobre armas en Human Right Watch. La ONG es uno de los actores más concienciados con la prohibición de las armas autónomas y por eso exige “la adopción de un nuevo tratado internacional”, puesto que se trata del único modo eficaz de “impedir que se deleguen a las máquinas decisiones de vida o muerte”. Por otra parte, la organización también apunta al problema del hackeo, que, según explicita en varios informes, podría aparecer con relativa facilidad, toda vez que “pequeñas modificaciones en las entradas de datos pueden engañar [a las máquinas] de una forma que ningún humano se dejaría engañar”. Todo ello son cuestiones que han saltado de las páginas de los libros y se han colado en la actividad política internacional. Muchos de los países con capacidad investigadora y armamentística se niegan a que la comunidad ponga palos en las ruedas al avance tecnológico, mientras que los demás ven con recelo un horizonte con máquinas con capacidad para razonar y decidir. Se trata, a fin de cuentas, de un dilema moral... aunque con una implicación absolutamente práctica: quién (o qué) tiene la legitimidad de matar.

Más contenidos sobre este tema




5 Comentarios
  • Jose Velasco Jose Velasco 14/11/20 09:49

    ¿dilema moral en armas militares?. Venga ya. Yo prefiero las bombas inteligentes, siempre que entendamos que bomba inteligente es aquella que no explota.

    Responder

    Denunciar comentario

    0

    0

  • 74camilo 74camilo 14/11/20 00:23

    Las guerras no serán este robots y humanos, seguirán siendo entre pobres y ricos.O entre pobres y más pobres, pero siempre habrá un listo que de haga aún más rico.

    Responder

    Denunciar comentario

    0

    6

  • Ambon Ambon 13/11/20 16:52

    los que están a favor dicen que al final la guerra sería entre robots y que no morirían humanos. Yo propongo que seamos mas antiguos y que cuando haya una guerra los líderes de las facciones se enfrente personalmente y se maten entre ellos.

    La guerra es una actividad donde se matan muchas gentes que no se conocen entre si para defender los intereses de unos pocos que si se conocen y no se matan entre si

    Responder

    Denunciar comentario

    0

    15

  • zeycus zeycus 13/11/20 12:42

    Mal documentado. Asimov introdujo sus Tres Leyes nada menos que en 1942, en una historia corta titulada "Runaround". Está en "Yo Robot".

    Responder

    Denunciar comentario

    0

    4

  • Canija Canija 13/11/20 08:24

    Por qué en vez de plantear que no existan robots asesinos en las guerras, no nos planteamos directamente que no haya guerras las cuales únicamente sirven para producir mucho dolor, Muertos,hambrunas, destrucción.....y que algunos pocos, que por supuesto no pisan los campos de batalla,  consigan pingües beneficios 

    Responder

    Denunciar comentario

    0

    16

 
Opinión