Amazon,
Microsoft e Intel se encuentran entre las principales compañías tecnológicas
que ponen en riesgo al mundo a través del desarrollo de robots asesinos, según
un informe que encuestó a los principales actores del sector sobre su postura
sobre las armas letales autónomas.
La ONG
holandesa Pax clasificó a 50 empresas según tres criterios: si estaban
desarrollando tecnología que pudiera ser relevante para la IA mortal, si
estaban trabajando en proyectos militares relacionados y si se habían
comprometido a abstenerse de contribuir en el futuro.
"¿Por qué
las compañías como Microsoft y Amazon no niegan que actualmente están
desarrollando estas armas altamente controvertidas, que podrían decidir matar a
personas sin participación humana directa?" dijo Frank Slijper, autor
principal del informe publicado esta semana.
![]() |
Gentilesa de Pixabay |
El uso de la IA
para permitir que los sistemas de armas seleccionen y ataquen objetivos de
forma autónoma ha provocado debates éticos en los últimos años, y los críticos
advierten que pondrían en peligro la seguridad internacional y anunciarían una
tercera revolución en la guerra después de la pólvora y la bomba atómica.
Un panel de
expertos gubernamentales debatió las opciones de política con respecto a las
armas autónomas letales en una reunión de la Convención de las Naciones Unidas
sobre Ciertas Armas Convencionales en Ginebra el miércoles.
Google, que el
año pasado publicó los principios rectores que evitan el uso de la IA en
sistemas de armas, se encontraba entre las siete compañías que participaron en
"mejores prácticas" en el análisis que abarcó 12 países, al igual que
Softbank de Japón, mejor conocido por su robot humanoide Pepper.
![]() |
Gentilesa de Pixabay |
Veintidós
compañías eran de "mediana preocupación", mientras que 21 cayeron en
una categoría de "alta preocupación", en particular Amazon y
Microsoft, quienes están haciendo una oferta por un contrato del Pentágono de $
10 mil millones para proporcionar la infraestructura de nube para el ejército
de los EE. UU.
Otros en el
grupo de "alta preocupación" incluyen Palantir, una compañía con
raíces en una organización de capital de riesgo respaldada por la CIA que
recibió un contrato de $ 800 millones para desarrollar un sistema de
inteligencia artificial "que puede ayudar a los soldados a analizar una
zona de combate en tiempo real".
"Las armas
autónomas se convertirán inevitablemente en armas escalables de destrucción
masiva, porque si el humano no está al tanto, entonces una sola persona puede
lanzar un millón de armas o cien millones de armas", Stuart Russell,
profesor de informática en la Universidad de California. , Berkeley dijo a la
AFP el miércoles.
![]() |
Gentilesa de Pixabay |
"El hecho
es que las corporaciones van a desarrollar armas autónomas, y en términos de
una campaña para evitar que las armas autónomas se generalicen, pueden
desempeñar un papel muy importante", agregó.
El desarrollo
de la IA para fines militares ha desencadenado debates y protestas dentro de la
industria: el año pasado Google se negó a renovar un contrato del Pentágono
llamado Proyecto Maven, que utilizaba el aprendizaje automático para distinguir
personas y objetos en videos de drones.
También dejó de
funcionar para la Infraestructura de Defensa Empresarial Conjunta (JEDI), el
contrato en la nube que Amazon y Microsoft esperan obtener.
El informe
señaló que los empleados de Microsoft también habían expresado su oposición a
un contrato del Ejército de EE. UU. Para un casco de realidad aumentada,
HoloLens, que apunta a "aumentar la letalidad" en el campo de
batalla.
Cómo se verían
Según Russell,
"todo lo que actualmente es un arma, la gente está trabajando en versiones
autónomas, ya sean tanques, aviones de combate o submarinos".
La Arpía de
Israel es un dron autónomo que ya existe, "merodea" en un área
objetivo y selecciona sitios para golpear.
Más
preocupantes aún son las nuevas categorías de armas autónomas que aún no
existen, que podrían incluir mini drones armados como los que aparecen en el
cortometraje de 2017 "Slaughterbots".
"Con ese
tipo de arma, podría enviar un millón de ellos en un contenedor o avión de
carga, por lo que tienen la capacidad destructiva de una bomba nuclear pero
dejan atrás todos los edificios", dijo Russell.
![]() |
Gentilesa de Pixabay |
Al usar la
tecnología de reconocimiento facial, los drones podrían "eliminar a un
grupo étnico o un género, o usar la información de las redes sociales podría
eliminar a todas las personas con una visión política".
En abril, la
Unión Europea publicó pautas sobre cómo las empresas y los gobiernos deberían
desarrollar la IA, incluida la necesidad de supervisión humana, trabajando para
el bienestar social y ambiental de manera no discriminatoria y respetando la
privacidad.
Russell
argumentó que era esencial dar el siguiente paso en forma de una prohibición
internacional de la IA letal, que podría resumirse como "las máquinas que
pueden decidir matar humanos no se desarrollarán, desplegarán ni
utilizarán".
FUENTE : THE JAKARTAPOST