Diario Red
Menu
Menu
Diario Red

Mamoun Wazwaz / Xinhua News / ContactoPhoto

Las armas utilizadas para matar en Gaza, noticia en los medios de comunicación españoles

Los sistemas punteros de Israel son noticia mientras matan a miles de palestinos


“Lavender, la inteligencia artificial de Israel que decide a quién se bombardea en Gaza”. Así titulaba El País una pieza acerca del sistema creado por las Fuerzas Armadas de Israel.

Tal y como detallan desde el diario, Lavender es un programa de Inteligencia Artificial (IA) que ha desarrollado el ejército israelí para poder matar a objetivos de forma automática. El País señala que este es un proceso que siempre se ha hecho de forma manual para “verificar que un objetivo merece serlo”.

Este sistema ha llegado a ser empleado para más de 15.000 asesinatos entre el 7 de octubre y el 24 de noviembre de 2023, según recoge dos periódicos israelís: +972 Magazine y Local Call.

La pieza sigue explicando que esta práctica genera “controversia” debido a la “frialdad con la que los mandos militares responsables de dar luz verde o no a las sugerencias del sistema Lavender gestionan la muerte de personas como meras estadísticas”.

Es decir, que la “controversia” gira en torno a la “frialdad” de la utilización de dicha IA con el fin de que los militares den el visto bueno para matar más rápido y no, simplemente, a la propia práctica de “gestión de muertes”, sugerida o no por el sistema.

Pero además, la pieza también señala que Lavender “está diseñada para atacar en el domicilio del objetivo y de noche, lo que aumenta las probabilidades de que este esté en casa, pero también de que mueran con él sus familiares y vecinos”, por lo que “entra dentro de los parámetros aceptables que por cada alto cargo de Hamás o de la Yihad Islámica muera un centenar de civiles en el bombardeo”.

El País añade que “nunca antes había trascendido que nadie automatizara una tarea tan sensible como la selección de objetivos militares humanos, tarea en la que un falso positivo puede significar la muerte de inocentes”.

Respecto a esto, la pieza agrega que “como todos los sistemas de IA, Lavender no deja de ser un modelo probabilístico. Trabaja con estimaciones y, por tanto, comete fallos. Al menos el 10% de los individuos marcados como objetivo no lo eran, según fuentes oficiales citadas en el reportaje. Ese margen de error, sumado a las muertes colaterales aceptadas por el ejército (hasta 300 civiles en un solo bombardeo el 17 de octubre para acabar con un comandante de Hamás), arroja un saldo de miles de palestinos, la mayoría mujeres y niños, asesinados por indicación del software sin tener vinculación alguna con las milicias”.

Con esto se muestra a Lavender como una IA utilizada para poder acabar con los miembros vinculados a Hamás, pero que, sin embargo, está matando a miles de civiles, en un genocidio sobre la población palestina que, como se señala, deja ya más de 33.000 muertes. Tal y como menciona El País, no se ha relevado “que parámetros se usan para determinar si un sujeto tiene o no relación con Hamás o Yihad Islámica”.

Recientemente, otro medio español, 20 minutos, también se hacía eco de las armas de Israel: “Israel inventa el ‘Arbel’, un rifle que dispara automáticamente cuando detecta el blanco y multiplica por tres la letalidad”.

En dicha noticia se explica con todo lujo de detalles el rifle utilizado por las tropas israelíes que dispara automáticamente cuando hay blanco, además de ser tres veces más letal, con mayor precisión, lo que a su vez se traduce en una mayor “capacidad de supervivencia del tirador”.

Respecto a esto, 20 minutos recoge la explicación del fabricante, asegurando que “El ‘Arbel’ optimiza la supervivencia del operador compensando el impacto del esfuerzo físico y mental, tales como fatiga y estrés”, girando la efectividad del arma no solo en la letalidad para matar, sino en la garantía de que aquel que apriete el gatillo lo hará de forma más segura.


Madrid –

Nada de esto sería posible sin tu ayuda

Y únete a nuestros canales de Telegram y Whatsapp para recibir las últimas noticias

Compartir

Editorial

  • Repita conmigo: los jueces no hacen política

    No hay jueces que admitan a trámite denuncias sin pruebas firmes, no hay jueces que abran investigaciones prospectivas, no hay jueces que bordeen la prevaricación. Como los periodistas, los policías y Felipe VI, los jueces son árbitros ecuánimes de la vida pública

Opinión