No le importa el dolor humano a computadoras de guerra

Inteligencia artificial despreocupada

🔍 Un artículo publicado en abril por el medio de comunicación israelí Local Call (y su versión en inglés, +972 Magazine) alega que el ejército israelí ha establecido un programa de asesinatos en masa de un tamaño sin precedentes, que combina la selección de objetivos algorítmicos con una alta tolerancia a las muertes y lesiones de transeúntes.

🎯🤖 Un sistema llamado Lavender rastrea a casi todas las personas en Gaza, combinando una amplia gama de datos de inteligencia para determinar la probabilidad de que alguien sea un combatiente de Hamas u otro grupo militante palestino. Sin embargo, el IDF ha establecido un límite de error del 10%, lo que significa que muchas veces se llevan a cabo ataques aéreos basados en información errónea.

🚨📰 Este nuevo proceso ha sido revelado por una investigación de _Local Call_ y _+972 Magazine_, y ha generado preocupación por la violación de las leyes internacionales humanitarias.

🚨Además, muestra cómo Israel ha ampliado su práctica de asesinatos selectivos, que se ha vuelto institucionalizada desde la Segunda Intifada. Este informe es un llamado de atención sobre el uso de la inteligencia artificial en conflictos armados y sus consecuencias para la población civil.

¿Piensas que debe haber un pronunciamiento oficial de organismos internacionales sobre esto?

Fuente: Foreign Policy

# Israel #IDF #InteligenciaArtificial #DerechosHumanos

0 Shares:
You May Also Like
Ver Más

Los 25 países sin agua

🌍 Hay 25 países que que utilizan más del 80% de su suministro renovable de agua para riego,…