Enlaces para accesibilidad

Científicos piden prohibir los robots militares


Los robots soldados no solo son una amenaza en las películas sino también la vida real, dicen los científicos.
Los robots soldados no solo son una amenaza en las películas sino también la vida real, dicen los científicos.

La creación de armas inteligentes significaría una tercera revolución militar comparable a lo que en su momento significó la invención de la pólvora y las armas nucleares.

Centenares de investigadores y científicos en el campo de la inteligencia artificial (IA), incluyendo al astrónomo Stephen Hawking y al emprendedor Elon Musk, han advertido la necesidad de prohibir robots militares que según ellos, podrían hacer más fáciles y factibles las guerras.

En una carta abierta publicada en Buenos Aires con motivo de la Conferencia Internacional sobre Inteligencia Artificial, los signatarios dicen que los robots soldados son una posibilidad para “dentro unos años y no décadas”.

Afirman que la creación de armas así significaría una tercera revolución militar comparable a lo que en su momento significó la invención de la pólvora y las armas nucleares, hitos que empeoraron las amenazas a la paz a nivel mundial.

“Muchos argumentos se han hecho a favor y en contra de las armas autónomas, por ejemplo, que reemplazar a los soldados humanos con máquinas sería bueno porque reducirían las bajas, pero malo porque rebajaría el umbral para comenzar una guerra”, dicen en la carta.

Además señalan que si cualquier potencia decide avanzar en el desarrollo de las armas inteligentes, es inevitable una carrera armamentista en las que el final obvio es que “las armas autónomas se convertirían en los [rifles] Kalashnikov del futuro”.

“Sería solo cuestión de tiempo que aparecieran en los mercados negros y en las manos de terroristas, dictadores… serían ideal para tareas como asesinatos, desestabilización de naciones, sometimiento de poblaciones y asesinatos selectivos”, agregan.

Los firmantes apuntan que la inteligencia artificial “tiene el gran potencial de beneficiar a la humanidad de muchas maneras y la meta debería ser esa”.

“Comenzar una carrera armamentista con armas inteligentes es una mala idea y debe ser prevenida por una prohibición a las armas autónomas que no estén bajo el control significativo de los humanos”, termina la carta.

Síganos en redes sociales

XS
SM
MD
LG