por Rodrigo Bernardo Ortega
14 Mayo 2024
del Sitio Web
LaOtraOpinion
también recibido Vía Email el
02 Junio 2024
Puede considerarse el estallido de la Primera Guerra Mundial como el
verdadero inicio del siglo XX, y con ella la forma como toda la
humanidad ve la guerra.
Hasta entonces, la guerra era vista como un
esfuerzo patriótico y romántico; donde el resultado de la batalla
dependía en gran parte de,
la valentía, la intrepidez, la capacidad
de sacrificio, es decir, del heroísmo...
Con la llegada de la Gran Guerra llegaron también los avances de la
Revolución Industrial al campo de batalla.
Por un lado, la
mecanización del armamento (tanques, artillería pesada, aviones de
combate, armas químicas) convirtieron a las praderas de ejércitos a
caballo e infantería con bayonetas, en páramos yermos pululantes de
trincheras y lotes minados, donde sin aparente sentido alguno, se
sacrificaba a la generación europea mediante la indiferente nueva
tecnología.
También, gracias a los avances en comunicaciones, los
soldados en el frente pudieron saltarse a los aparatos de propaganda
de los países enfrentados y compartir los horrores con sus familias,
lo cual derivó en el primer movimiento a gran escala contra la
guerra.
De igual manera, la humanidad entera es hoy testigo del probable
genocidio del pueblo gazatí, sin filtros ni censores, a través de
las redes sociales, y al igual que en la Primera Guerra Mundial,
todos podemos ver como la tecnología es puesta al servicio de la
barbarie.
La revista israelí "+972 Magazine" publicó
un extenso exposé, a principios de
abril 2024, donde revela cómo las Fuerzas de Defensa de Israel han
utilizado los avances recientes en el campo de la Inteligencia
Artificial (IA) para hacer más eficiente el uso de sus bombas:
'Lavender'
(lavanda en español)...
El sistema, explicado brevemente, consta de
una base de datos que recopila información (geolocalización, redes
sociales) de más de dos millones de gazatíes, y asigna un puntaje de
1 a 100 a cada persona, que corresponde a la probabilidad de que
dicha persona pertenezca a Hamas o sea colaboracionista de esa
organización.
Lo aterrador aquí es que es un mero sistema
estadístico, y en ningún caso se hace una verificación "humana" que
los resultados del sistema correspondan con la realidad.
El modelo
se alimenta de información proxy que es susceptible a error:
porque
tu teléfono celular esté cerca del lugar donde se sospecha hay una
reunión del grupo terrorista no implica necesariamente que hagas
parte de él...
Con este sistema se han marcado desde el 7 de octubre
de 2023 ya más de 37.000 palestinos como probables miembros de Hamás
sin ningún debido proceso.
Reportaje original
de la revista Israelí +972
Como si no fuera suficientemente abyecta la actuación del ejército
israelí, 'Lavender' se combina con otra herramienta ominosamente
llamada 'Where is Daddy?' (¿Dónde está papito?).
El sistema hace un
cálculo de cuantos "daños colaterales" (o sea civiles inocentes) son
permisibles de acuerdo al rango del sospechoso: entre 15 y 20 para
militantes rasos, y hasta 300 para los de alto rango, pero con un
margen de error de hasta 10%.
Y esta ignominia no acaba allí...
Los
detalles son cada vez más repugnantes, el programa informático
recomienda usar bombas "tontas" (propensas a ser más destructivas e
imprecisas) para ahorrar dinero, y los ataques a ser llevados a cabo
durante la noche, en los hogares de los presuntos combatientes: de
ahí el nombre.
Por un lado,
-
los combatientes que descansan en sus
casas se consideran Hors de Combat, y según la Convención de Ginebra
de 1949 considerados personas protegidas
-
pero con el agravante que
el ataque acabará con la vida de la familia del sindicado y de todos
los vecinos, recordemos que Gaza es una de las zonas urbanas más
densas del planeta
-
todo es una auténtica carnicería y se torna con
un cariz doblemente criminal, pues se calcula que pasan menos de 20
segundos entre que el programa recomienda un ataque y este es
autorizado...
La filósofa Hanna Arendt, en su libro
Eichmann en Jerusalén,
introduce el concepto de la banalidad del mal...:
nos muestra como el
régimen nazi llevaba a cabo de manera cotidiana los peores crímenes
de los que se tenga noticia, de manera industrial, con procesos y
técnicas afines a una línea de producción, y con un ejército de
funcionarios que resolvía los problemas logísticos al cometer un
genocidio.
Eichmann, no disparó nunca el gatillo, pero de no ser por
su eficiente sistema de trenes, nunca hubiéramos asistido a la
increíble dimensión del Holocausto al pueblo judío.
Contrasta que
Eichmann afirmara que no tenía un sentimiento de odio al pueblo
judío, o un fanatismo por la causa nazi; simplemente hacía bien su
trabajo porque era lo que se esperaba de él para ascender; se
consideraba como una persona buena.
Las capas de burocracia y la
tecnología del momento, permitieron reducir la disonancia cognitiva
(la desarmonía en sus sistemas de creencias) de Eichmann, nunca tuvo
que enfrentarse de manera directa a las consecuencias de sus
decisiones de oficina.
De manera similar, el programa de drones estadounidenses utilizados
en las
guerras de Irak y Afganistán, reclutó a jóvenes operadores,
criados con videojuegos de guerra, para que, desde la seguridad de
sus casas, llevaran a cabo ataques a objetivos para ellos anónimos.
En la era
Obama se vendió al público como una forma quirúrgica y
segura para los miembros en servicio de llevar a cabo la guerra.
Ahora sabemos gracias a Wikileaks y valientes whistleblowers, la
indecente cantidad de civiles inocentes muertos en estos ataques.
También, podemos observar como la distancia que permite la
tecnología en este caso hace del atacante un operador
desensibilizado:
a pesar de que se han registrado casos de estrés
postraumático en este tipo de soldados no son ni de cerca lo que se
registra con soldados en terreno.
De nuevo la tecnología pone una
barrera que permite al ser humano perder la empatía para ser más
eficiente en la guerra.
GQ:
Operadores de Drones de ataque
en la guerra de Irak
'Lavender' y 'Where Is Daddy?' son sólo la versión más sofisticada del
uso de la ingeniería que busca al mismo tiempo ser más letal y
ofuscar la responsabilidad en la guerra.
Tenemos que recordar,
-
que
son en últimas, extensiones de la voluntad humana
-
que sus
parámetros fueron diseñados por personas con un objetivo político
-
que los que autorizan los ataques con un botón de teclado son tan
responsables como los que aprietan gatillos
Por eso es tan
importante lo que hacen los valientes periodistas en campo (hay
récord de periodistas asesinados desde que empezó la agresión
israelí)...
Nos permiten ver los horrores que el gobierno de Israel
quiere tapar con sofismas y propaganda y del que el ejército israelí
quiere blindar a sus activos con estas capas de tecnología.
Por eso
es importante también que mostremos,
-
los intentos de censura de las
redes sociales, como los intentos de 'X' (otrora Twitter) de evitar la
difusión de los efectos de la escalada de Israel
-
o la iniciativa
del congreso de EE.UU. de prohibir TikTok, la principal fuente de
información y activismo de los jóvenes norteamericanos...
Por último, los gobiernos del mundo deberían apoyar iniciativas como
las de la organización
Stop Killer Robots, que busca que se emita
una resolución de
las Naciones Unidas que prohíba el uso (como se
prohibió el uso de armas químicas después de la Primera Guerra
Mundial) de los sistemas de armas autónomos.
Foreign Policy:
Manifestación de Stop Killer Robots
La tecnología a priori es neutral, como un cuchillo salva vidas en
las manos de un cirujano y las termina en las manos de un asesino,
es nuestra responsabilidad como especie,
hacer uso de ella de manera
que represente lo mejor de nosotros y no lo que nos hace peor que
animales, que es lo que vemos hoy en Gaza...
Video
Para ver el video
subtitulado en español,
haga clic en el pequeño botón
en el reproductor.
Luego pase el cursor sobre
para que aparezcan las opciones.
Para español elija "English - SPANISH!"
Referencias
|