Cientos de personalidades, como Noam Chomsky y Stephen
Hawking, firman carta.
En manos de cualquier potencia militar el punto final de ese avance tecnológico se convertirá en las AK-47 del mañana, advierten.
A diferencia de las nucleares, la producción de robots
asesinos no requiere materia prima costosa, lo que permitirá su fabricación en masa, destacan.
Científicos y expertos en tecnología, como Stephen Hawking y el cofundador de Apple Steve Wozniak, alertaron el martes sobre una carrera global de armas que emplean inteligencia artificial.
En una carta abierta firmada por cientos de personas,
los expertos alegan que si cualquier potencia militar importante sigue adelante
con el desarrollo de armas autónomas, una carrera armamentista global es
prácticamente inevitable, y el punto final de esta trayectoria tecnológica es
obvio: las armas autónomas se convertirán en los Kalashnikov (AK-47) del
mañana.
Los firmantes incluyen al lingüista Noam Chomsky,
profesor emérito del Instituto Tecnológico de Massachusetts; Elon Musk,
director general de Tesla Motors, y Demis Hassabis, fundador de Google
DeepMind.
Algunos expertos son partidarios de los llamados robots
asesinos, y opinan que su uso en el campo de batalla podría salvar vidas.
Esos dispositivos aún no están en operación y faltan años para que lo estén.
Sin embargo, los científicos advirtieron que, a
diferencia de las armas nucleares, éstos no requerirán materia prima costosa o
difícil de obtener, lo cual permitirá su fabricación en masa.
Será cuestión de tiempo para que aparezcan en el
mercado negro y en manos de terroristas, dictadores que quieren incrementar el
control de su población, caudillos que desean perpetrar limpieza étnica,
etcétera, dice la carta.
Por eso creemos que una carrera armamentista militar
con inteligencia artificial no beneficiaría a la humanidad, concluye la misiva.
Hay muchas maneras en que la inteligencia artificial
puede volver el campo de batalla más seguro para los seres humanos, en
particular los civiles, sin crear nuevas herramientas para matar gente.
Son muchos los argumentos pronunciados en favor y en
contra de las armas autónomas, que se definen como aquellas capaces de seleccionar
de manera independiente los objetivos y atacarlos. Entre éstas no se incluyen
los drones militares por control remoto.
Sustituir soldados por máquinas puede suponer menos
víctimas mortales, pero también reduce el umbral que hay que cruzar para entrar
en batalla, señala el texto, emitido mediante el instituto Future Life.
Emprender una carrera armamentista militar basada en la
inteligencia artificial es una mala idea que debería evitarse mediante una
prohibición de las armas autónomas más allá del control humano, añade la
misiva.
Los firmantes incluyen a otras personalidades
reconocidas del mundo académico y el ámbito empresarial que estudian la
inteligencia artificial, la idea de que los sistemas computarizados pueden
realizar tareas que requieren inteligencia humana, como traducción de idiomas o
percepción visual. También se sumaron filósofos, historiadores, sociólogos,
genetistas y otros profesionales.