Amazon, Microsoft e Intel, estan poniendo el mundo en riesgo de una IA asesina': estudio


Amazon, Microsoft e Intel se encuentran entre las principales compañías tecnológicas que ponen en riesgo al mundo a través del desarrollo de robots asesinos, según un informe que encuestó a los principales actores del sector sobre su postura sobre las armas letales autónomas.

La ONG holandesa Pax clasificó a 50 empresas según tres criterios: si estaban desarrollando tecnología que pudiera ser relevante para la IA mortal, si estaban trabajando en proyectos militares relacionados y si se habían comprometido a abstenerse de contribuir en el futuro.
"¿Por qué las compañías como Microsoft y Amazon no niegan que actualmente están desarrollando estas armas altamente controvertidas, que podrían decidir matar a personas sin participación humana directa?" dijo Frank Slijper, autor principal del informe publicado esta semana.
Gentilesa de Pixabay
El uso de la IA para permitir que los sistemas de armas seleccionen y ataquen objetivos de forma autónoma ha provocado debates éticos en los últimos años, y los críticos advierten que pondrían en peligro la seguridad internacional y anunciarían una tercera revolución en la guerra después de la pólvora y la bomba atómica.
Un panel de expertos gubernamentales debatió las opciones de política con respecto a las armas autónomas letales en una reunión de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales en Ginebra el miércoles. 
Google, que el año pasado publicó los principios rectores que evitan el uso de la IA en sistemas de armas, se encontraba entre las siete compañías que participaron en "mejores prácticas" en el análisis que abarcó 12 países, al igual que Softbank de Japón, mejor conocido por su robot humanoide Pepper.
Gentilesa de Pixabay
Veintidós compañías eran de "mediana preocupación", mientras que 21 cayeron en una categoría de "alta preocupación", en particular Amazon y Microsoft, quienes están haciendo una oferta por un contrato del Pentágono de $ 10 mil millones para proporcionar la infraestructura de nube para el ejército de los EE. UU.
Otros en el grupo de "alta preocupación" incluyen Palantir, una compañía con raíces en una organización de capital de riesgo respaldada por la CIA que recibió un contrato de $ 800 millones para desarrollar un sistema de inteligencia artificial "que puede ayudar a los soldados a analizar una zona de combate en tiempo real".
"Las armas autónomas se convertirán inevitablemente en armas escalables de destrucción masiva, porque si el humano no está al tanto, entonces una sola persona puede lanzar un millón de armas o cien millones de armas", Stuart Russell, profesor de informática en la Universidad de California. , Berkeley dijo a la AFP el miércoles.
Gentilesa de Pixabay
"El hecho es que las corporaciones van a desarrollar armas autónomas, y en términos de una campaña para evitar que las armas autónomas se generalicen, pueden desempeñar un papel muy importante", agregó.
El desarrollo de la IA para fines militares ha desencadenado debates y protestas dentro de la industria: el año pasado Google se negó a renovar un contrato del Pentágono llamado Proyecto Maven, que utilizaba el aprendizaje automático para distinguir personas y objetos en videos de drones.
También dejó de funcionar para la Infraestructura de Defensa Empresarial Conjunta (JEDI), el contrato en la nube que Amazon y Microsoft esperan obtener.
El informe señaló que los empleados de Microsoft también habían expresado su oposición a un contrato del Ejército de EE. UU. Para un casco de realidad aumentada, HoloLens, que apunta a "aumentar la letalidad" en el campo de batalla.
Cómo se verían 
Según Russell, "todo lo que actualmente es un arma, la gente está trabajando en versiones autónomas, ya sean tanques, aviones de combate o submarinos".
La Arpía de Israel es un dron autónomo que ya existe, "merodea" en un área objetivo y selecciona sitios para golpear.
Más preocupantes aún son las nuevas categorías de armas autónomas que aún no existen, que podrían incluir mini drones armados como los que aparecen en el cortometraje de 2017 "Slaughterbots".
"Con ese tipo de arma, podría enviar un millón de ellos en un contenedor o avión de carga, por lo que tienen la capacidad destructiva de una bomba nuclear pero dejan atrás todos los edificios", dijo Russell.
Gentilesa de Pixabay
Al usar la tecnología de reconocimiento facial, los drones podrían "eliminar a un grupo étnico o un género, o usar la información de las redes sociales podría eliminar a todas las personas con una visión política".
En abril, la Unión Europea publicó pautas sobre cómo las empresas y los gobiernos deberían desarrollar la IA, incluida la necesidad de supervisión humana, trabajando para el bienestar social y ambiental de manera no discriminatoria y respetando la privacidad.
Russell argumentó que era esencial dar el siguiente paso en forma de una prohibición internacional de la IA letal, que podría resumirse como "las máquinas que pueden decidir matar humanos no se desarrollarán, desplegarán ni utilizarán".
FUENTE : THE JAKARTAPOST

Compartir en Google Plus

Periodista: huellas de jujuy

Trabajamos por una sociedad mas informada y comunicada con un profundo compromiso con la realidad informativa de la provincia de Jujuy, el país y el mundo.

0 comentarios:

Publicar un comentario