viernes 19 de abril de 2024

¡ALGORITMO CON MARGEN DE ERROR! Jefe de ONU «profundamente preocupado» por informes de que Israel usa IA en Gaza

Dos medios de comunicación israelíes acusaron a Israel de utilizar inteligencia artificial (IA) para identificar y atacar objetivos en Gaza, causando un gran número de víctimas civiles, unas afirmaciones que llevaron al secretario general de la ONU a manifestar el viernes su «profunda preocupación«.

«Estoy profundamente preocupado por las informaciones según las cuales la campaña de bombardeos del ejército israelí incluye la inteligencia artificial como herramienta para identificar objetivos, en particular en zonas residenciales densamente pobladas, lo que provoca un elevado número de víctimas civiles«, declaró Antonio Guterres a la prensa.

«Ninguna parte de las decisiones de vida o muerte que tienen un impacto en familias enteras debería delegarse al frío cálculo de los algoritmos«, insistió.

La investigación, publicada por +972 Magazine y Local Call, y recogida por varios medios estadounidenses esta semana, describe la existencia de un programa del ejército israelí llamado «Lavender» que utiliza inteligencia artificial para identificar objetivos en Gaza, con un cierto margen de error.

Según ambos medios independientes, que cuentan entre sus fuentes a seis «oficiales de inteligencia israelíes«, el programa «desempeñó un papel central» durante las primeras semanas de los bombardeos israelíes en la Franja de Gaza.

Los militares, según ellos, «trataron las producciones de la máquina de inteligencia artificial ‘como si fuera una decisión humana’«.

Según dos de las fuentes citadas, el ejército decidió también que por cada miembro «joven» de Hamás detectado por «Lavender» estaba «permitido» matar, como víctimas colaterales, a 15 a 20 civiles.

La proporción aumentó a 100 civiles por cada comandante del movimiento islamista palestino.

«Contrariamente a las acusaciones, el ejército israelí no utiliza un sistema de inteligencia artificial para identificar a los operadores terroristas ni para intentar predecir quién es un terrorista«, respondió el viernes el ejército israelí a preguntas de la AFP, admitiendo simplemente la existencia de una «base de datos«.

Israel está llevando a cabo una amplia operación militar en la Franja de Gaza desde el ataque sin precedentes del 7 de octubre conducido por comandos de Hamás, que se saldó con la muerte de 1.170 personas del lado israelí, en su mayoría civiles, según un recuento de la AFP basado en cifras oficiales de Tel Aviv.

Según un último informe del viernes del Ministerio de Salud de la Franja de Gaza, la intensa campaña de bombardeos sobre el territorio palestino, seguida de una ofensiva terrestre del ejército israelí, dejó 33.091 muertos, en su mayoría civiles.

«Apocalíptico»

«Llevo años advirtiendo sobre los peligros de convertir la inteligencia artificial en armas y reducir el papel esencial de la intervención humana«, subrayó Guterres.

«La IA debe utilizarse como una fuerza para el bien, en beneficio del mundo, y no contribuir a la guerra a nivel industrial«, añadió.

Israel no oculta que trabaja en herramientas de inteligencia artificial en su ejército, que reivindica a su vez haber librado la «primera guerra de IA» durante once días en mayo de 2021 en Gaza.

El entonces jefe de gabinete israelí, Aviv Kochavi, declaró el año pasado al sitio de noticias de su país Ynet que la IA había permitido generar «100 nuevos objetivos cada día«, frente a «50» por año en la Franja de Gaza «en el pasado«.

Según un blog en el sitio web del ejército israelí, más de 12.000 objetivos fueron identificados en 27 días utilizando una tecnología llamada Gospel.

Un funcionario citado de forma anónima dijo que esta herramienta seleccionaba objetivos «para ataques precisos a infraestructuras asociadas con Hamás, infligiendo daños significativos al enemigo, causando el menor daño posible a quienes no estaban involucrados«.

Sin embargo, un exoficial de inteligencia israelí, que también habló bajo condición de anonimato, dijo a la revista +972 en noviembre que esta tecnología se estaba transformando en «una fábrica de asesinatos en masa«.

Interrogado por la AFP, Alessandro Accorsi, experto de la organización de resolución de conflictos Crisis Group, consideró la información «muy preocupante«.

«Es apocalíptico. Está claro que el sistema puede alucinar, que el grado de control humano es bajo«, señaló. «Hay miles de preguntas en torno a esto, obviamente, qué tan moral es usarlo, pero no es sorprendente«.

Para Johann Soufi, abogado internacional y exdirector de la oficina jurídica de la UNRWA (la agencia de la ONU para los refugiados palestinos) en Gaza, estos métodos «violan todos los principios cardinales del derecho internacional humanitario«, incluida la distinción entre combatientes y civiles, la precaución y proporcionalidad.

«Constituyen indiscutiblemente crímenes de guerra«, denunció en X, y planteó la posibilidad de que se esté ante «crímenes de lesa humanidad» y una «voluntad de atacar de manera sistemática y generalizada a la población civil gazatí«.

NAM – AFP


Síguenos en nuestras redes sociales para que tengas toda la ¡INFORMACIÓN AL INSTANTE!

Visite nuestro sitio web:
https://noticiaalminuto.com/

X:
https://noticiaalminuto.com/twitter

Instagram:
https://noticiaalminuto.com/instagram

Telegram:
https://noticiaalminuto.com/telegram

Grupo de WhatsApp:
https://noticiaalminuto.com/whatsapp