jueves, 30 de julio de 2015

Alertan sobre carrera de armas que usan inteligencia artificial

 Cientos de personalidades, como Noam  Chomsky y Stephen Hawking, firman carta.

 En manos de cualquier potencia militar el  punto final de ese avance tecnológico se  convertirá en las AK-47 del mañana,  advierten.

 A diferencia de las nucleares, la producción  de robots asesinos no requiere materia  prima costosa, lo que permitirá su  fabricación en masa, destacan. 

Científicos y expertos en tecnología, como Stephen Hawking y el cofundador de Apple Steve Wozniak, alertaron el martes sobre una carrera global de armas que emplean inteligencia artificial.

En una carta abierta firmada por cientos de personas, los expertos alegan que si cualquier potencia militar importante sigue adelante con el desarrollo de armas autónomas, una carrera armamentista global es prácticamente inevitable, y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikov (AK-47) del mañana.

Los firmantes incluyen al lingüista Noam Chomsky, profesor emérito del Instituto Tecnológico de Massachusetts; Elon Musk, director general de Tesla Motors, y Demis Hassabis, fundador de Google DeepMind.

Algunos expertos son partidarios de los llamados robots asesinos, y opinan que su uso en el campo de batalla podría salvar vidas. Esos dispositivos aún no están en operación y faltan años para que lo estén.

Sin embargo, los científicos advirtieron que, a diferencia de las armas nucleares, éstos no requerirán materia prima costosa o difícil de obtener, lo cual permitirá su fabricación en masa.

Será cuestión de tiempo para que aparezcan en el mercado negro y en manos de terroristas, dictadores que quieren incrementar el control de su población, caudillos que desean perpetrar limpieza étnica, etcétera, dice la carta.

Por eso creemos que una carrera armamentista militar con inteligencia artificial no beneficiaría a la humanidad, concluye la misiva.

Hay muchas maneras en que la inteligencia artificial puede volver el campo de batalla más seguro para los seres humanos, en particular los civiles, sin crear nuevas herramientas para matar gente.

Son muchos los argumentos pronunciados en favor y en contra de las armas autónomas, que se definen como aquellas capaces de seleccionar de manera independiente los objetivos y atacarlos. Entre éstas no se incluyen los drones militares por control remoto.

Sustituir soldados por máquinas puede suponer menos víctimas mortales, pero también reduce el umbral que hay que cruzar para entrar en batalla, señala el texto, emitido mediante el instituto Future Life.

Emprender una carrera armamentista militar basada en la inteligencia artificial es una mala idea que debería evitarse mediante una prohibición de las armas autónomas más allá del control humano, añade la misiva.


Los firmantes incluyen a otras personalidades reconocidas del mundo académico y el ámbito empresarial que estudian la inteligencia artificial, la idea de que los sistemas computarizados pueden realizar tareas que requieren inteligencia humana, como traducción de idiomas o percepción visual. También se sumaron filósofos, historiadores, sociólogos, genetistas y otros profesionales.