Español
Alastair Crooke
April 17, 2024
© Photo: Public domain

El periodista israelí Yuval Abraham ha escrito un informe detallado, con múltiples fuentes, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de gazatíes como sospechosos de ser asesinados mediante un sistema de inteligencia artificial.

Únete a nosotros en Telegram Twitter  y VK .

Escríbenos: info@strategic-culture.su

El derecho internacional se basa en la responsabilidad humana y la rendición de cuentas en última instancia cuando los seres humanos matan a otros seres humanos. La ley con respecto a los combatientes armados es la más amplia, pero la responsabilidad personal se aplica igualmente al asesinato de civiles, mujeres y niños.

Pero ¿qué ocurre si se afirma que el asesinato está dirigido por una «máquina», por la Inteligencia Artificial, basada en la «ciencia» algorítmica?

¿La responsabilidad humana por matar a «otros» queda de algún modo absuelta por la intención «científica» de las listas de asesinatos generadas por máquinas de IA, cuando «se vuelven locas»?

Esta es la cuestión que plantea el uso por las fuerzas israelíes de la IA «Lavender» para proporcionar a Israel listas de asesinatos en Gaza.

El periodista israelí Yuval Abraham ha escrito un relato detallado, con  múltiples fuentes y ‘delatores’, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de gazatíes como sospechosos de ser asesinados utilizando un sistema de selección de objetivos de IA con escasa supervisión humana y una política permisiva respecto a las bajas.

El creador del sistema, el actual comandante de la unidad de élite de inteligencia israelí 8200, había defendido anteriormente el diseño de una «máquina de objetivos» basada en IA y algoritmos de aprendizaje automático que pudiera procesar rápidamente cantidades masivas de datos para generar miles de «objetivos» potenciales para ataques militares, en el fragor de una guerra.

Como detalló Abraham

Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y a Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.

Durante las primeras fases de la guerra, el ejército dio su aprobación generalizada para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito de comprobar a fondo por qué la máquina hacía esas elecciones o de examinar los datos de inteligencia brutos en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de «sello de goma» [aprobación] para las decisiones de la máquina, y añadió que, normalmente, sólo dedicaban personalmente unos «20 segundos» a cada objetivo antes de autorizar un bombardeo.

Para ser claros: El «genocidio» generado por la IA clava una estaca en el corazón del Derecho Internacional Humanitario.

El resultado es que miles de palestinos -en su mayoría mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.

Entonces, ¿quién es responsable? ¿Quién debe rendir cuentas?

El sistema era defectuoso desde el principio. Las fuerzas militares de Al-Qassam de Hamás operan desde profundos túneles subterráneos, donde tienen sus dormitorios, todo lo cual las hace impermeables a los programas de reconocimiento facial operados desde el reconocimiento aéreo israelí sobre Gaza.

En segundo lugar, como explicó un alto cargo de la oficina «B» a Abraham, «no sabíamos quiénes eran los operativos de «nivel inferior» [en la superficie]». Los combatientes Qassam y los civiles de Gaza no parecen diferentes. No hay ninguna característica identificativa del «hombre de Hamás» que lo distinga positivamente de cualquier otro varón de Gaza, por lo que Lavender identificó a estos «objetivos» como «afiliados a Hamás» en líneas fronterizas fluidas, como que alguna vez se unieron a algún grupo de Whatsapp que incluía a un miembro de Hamás, o que prestaron su teléfono a sus familias o se lo dejaron cargando en casa.

Querían permitirnos atacar [a los agentes subalternos] automáticamente. Ese es el Santo Grial. Una vez que te vuelves automático, la generación de objetivos se vuelve loca.

Según las fuentes, la máquina da a casi todas las personas de Gaza una calificación del 1 al 100, que expresa la probabilidad de que sean militantes.

Habiendo pasado algunos años trabajando en Gaza, permítanme decir que todo el mundo conocía o hablaba con alguien de Hamás en Gaza. Hamás ganó abrumadoramente las elecciones allí en 2006: Por tanto, casi todo el mundo podría decirse -de una forma u otra- que está «afiliado».

La cosa empeora:

A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado», dijo B. «Eliminamos a miles de personas. No las revisamos una por una, sino que lo pusimos todo en sistemas automatizados, y en cuanto una de [las personas marcadas] estaba en casa, se convertía inmediatamente en objetivo. Le bombardeábamos a él y a su casa.

«El ejército prefería utilizar sólo bombas «tontas»… No quieres desperdiciar bombas caras en personas sin importancia – es muy caro para el país y hay escasez [de esas bombas]», dijo C.

El autor del sistema Lavender, el general de brigada Yossi Sariel, había escrito anónimamente en The Human Machine Team (2021) que la sinergia entre «la inteligencia humana y la artificial revolucionará nuestro mundo».  Evidentemente, su entusiasmo por esta revolución en la guerra fue creído por los dirigentes israelíes (y también por algunos en Washington; véase, por ejemplo, este artículo de John Spencer, Catedrático de Estudios de Guerra Urbana en la academia militar de élite del ejército estadounidense, WestPoint).

De ahí la repetida afirmación de Netanyahu de que Israel estaba al borde de una «Gran Victoria» en Gaza con 19 de las 24 Brigadas de Hamás desmanteladas. Ahora sabemos que era una tontería.

La IA iba a ser el arma secreta de Israel. Yossi Sariel (el creador de Lavender) hizo recientemente su mea culpa (de lo que informó The Guardian): Los críticos de Sariel, en un informe citado por The Guardian, creen que el hecho de que la Unidad 8200 diera prioridad a la tecnología «adictiva y excitante» frente a métodos de inteligencia más anticuados había conducido al desastre. Un veterano funcionario declaró a The Guardian que la unidad bajo el mando de Sariel había «seguido la nueva burbuja de inteligencia [IA]».

Por su parte, se cita a Sariel diciendo a sus colegas tras el 7 de octubre que «acepto la responsabilidad de lo ocurrido en el sentido más profundo de la palabra». «Fuimos derrotados. Yo fui derrotado».

Sí, y decenas de miles de palestinos inocentes, mujeres y niños, han sido brutalmente asesinados como consecuencia de ello. Y Gaza reducida a escombros. El reportaje de investigación de Yuval Abraham debería remitirse a la Corte Internacional de Justicia (CIJ) para que examine las pruebas del «presunto genocidio» en Gaza.

Publicado originalmente por Al Mayadeen English
Traducción: observatoriodetrabajadores

“Israel fue derrotado”: El colapso de su arma-maravilla basada en algoritmos de IA

El periodista israelí Yuval Abraham ha escrito un informe detallado, con múltiples fuentes, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de gazatíes como sospechosos de ser asesinados mediante un sistema de inteligencia artificial.

Únete a nosotros en Telegram Twitter  y VK .

Escríbenos: info@strategic-culture.su

El derecho internacional se basa en la responsabilidad humana y la rendición de cuentas en última instancia cuando los seres humanos matan a otros seres humanos. La ley con respecto a los combatientes armados es la más amplia, pero la responsabilidad personal se aplica igualmente al asesinato de civiles, mujeres y niños.

Pero ¿qué ocurre si se afirma que el asesinato está dirigido por una «máquina», por la Inteligencia Artificial, basada en la «ciencia» algorítmica?

¿La responsabilidad humana por matar a «otros» queda de algún modo absuelta por la intención «científica» de las listas de asesinatos generadas por máquinas de IA, cuando «se vuelven locas»?

Esta es la cuestión que plantea el uso por las fuerzas israelíes de la IA «Lavender» para proporcionar a Israel listas de asesinatos en Gaza.

El periodista israelí Yuval Abraham ha escrito un relato detallado, con  múltiples fuentes y ‘delatores’, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de gazatíes como sospechosos de ser asesinados utilizando un sistema de selección de objetivos de IA con escasa supervisión humana y una política permisiva respecto a las bajas.

El creador del sistema, el actual comandante de la unidad de élite de inteligencia israelí 8200, había defendido anteriormente el diseño de una «máquina de objetivos» basada en IA y algoritmos de aprendizaje automático que pudiera procesar rápidamente cantidades masivas de datos para generar miles de «objetivos» potenciales para ataques militares, en el fragor de una guerra.

Como detalló Abraham

Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y a Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.

Durante las primeras fases de la guerra, el ejército dio su aprobación generalizada para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito de comprobar a fondo por qué la máquina hacía esas elecciones o de examinar los datos de inteligencia brutos en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de «sello de goma» [aprobación] para las decisiones de la máquina, y añadió que, normalmente, sólo dedicaban personalmente unos «20 segundos» a cada objetivo antes de autorizar un bombardeo.

Para ser claros: El «genocidio» generado por la IA clava una estaca en el corazón del Derecho Internacional Humanitario.

El resultado es que miles de palestinos -en su mayoría mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.

Entonces, ¿quién es responsable? ¿Quién debe rendir cuentas?

El sistema era defectuoso desde el principio. Las fuerzas militares de Al-Qassam de Hamás operan desde profundos túneles subterráneos, donde tienen sus dormitorios, todo lo cual las hace impermeables a los programas de reconocimiento facial operados desde el reconocimiento aéreo israelí sobre Gaza.

En segundo lugar, como explicó un alto cargo de la oficina «B» a Abraham, «no sabíamos quiénes eran los operativos de «nivel inferior» [en la superficie]». Los combatientes Qassam y los civiles de Gaza no parecen diferentes. No hay ninguna característica identificativa del «hombre de Hamás» que lo distinga positivamente de cualquier otro varón de Gaza, por lo que Lavender identificó a estos «objetivos» como «afiliados a Hamás» en líneas fronterizas fluidas, como que alguna vez se unieron a algún grupo de Whatsapp que incluía a un miembro de Hamás, o que prestaron su teléfono a sus familias o se lo dejaron cargando en casa.

Querían permitirnos atacar [a los agentes subalternos] automáticamente. Ese es el Santo Grial. Una vez que te vuelves automático, la generación de objetivos se vuelve loca.

Según las fuentes, la máquina da a casi todas las personas de Gaza una calificación del 1 al 100, que expresa la probabilidad de que sean militantes.

Habiendo pasado algunos años trabajando en Gaza, permítanme decir que todo el mundo conocía o hablaba con alguien de Hamás en Gaza. Hamás ganó abrumadoramente las elecciones allí en 2006: Por tanto, casi todo el mundo podría decirse -de una forma u otra- que está «afiliado».

La cosa empeora:

A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado», dijo B. «Eliminamos a miles de personas. No las revisamos una por una, sino que lo pusimos todo en sistemas automatizados, y en cuanto una de [las personas marcadas] estaba en casa, se convertía inmediatamente en objetivo. Le bombardeábamos a él y a su casa.

«El ejército prefería utilizar sólo bombas «tontas»… No quieres desperdiciar bombas caras en personas sin importancia – es muy caro para el país y hay escasez [de esas bombas]», dijo C.

El autor del sistema Lavender, el general de brigada Yossi Sariel, había escrito anónimamente en The Human Machine Team (2021) que la sinergia entre «la inteligencia humana y la artificial revolucionará nuestro mundo».  Evidentemente, su entusiasmo por esta revolución en la guerra fue creído por los dirigentes israelíes (y también por algunos en Washington; véase, por ejemplo, este artículo de John Spencer, Catedrático de Estudios de Guerra Urbana en la academia militar de élite del ejército estadounidense, WestPoint).

De ahí la repetida afirmación de Netanyahu de que Israel estaba al borde de una «Gran Victoria» en Gaza con 19 de las 24 Brigadas de Hamás desmanteladas. Ahora sabemos que era una tontería.

La IA iba a ser el arma secreta de Israel. Yossi Sariel (el creador de Lavender) hizo recientemente su mea culpa (de lo que informó The Guardian): Los críticos de Sariel, en un informe citado por The Guardian, creen que el hecho de que la Unidad 8200 diera prioridad a la tecnología «adictiva y excitante» frente a métodos de inteligencia más anticuados había conducido al desastre. Un veterano funcionario declaró a The Guardian que la unidad bajo el mando de Sariel había «seguido la nueva burbuja de inteligencia [IA]».

Por su parte, se cita a Sariel diciendo a sus colegas tras el 7 de octubre que «acepto la responsabilidad de lo ocurrido en el sentido más profundo de la palabra». «Fuimos derrotados. Yo fui derrotado».

Sí, y decenas de miles de palestinos inocentes, mujeres y niños, han sido brutalmente asesinados como consecuencia de ello. Y Gaza reducida a escombros. El reportaje de investigación de Yuval Abraham debería remitirse a la Corte Internacional de Justicia (CIJ) para que examine las pruebas del «presunto genocidio» en Gaza.

Publicado originalmente por Al Mayadeen English
Traducción: observatoriodetrabajadores

El periodista israelí Yuval Abraham ha escrito un informe detallado, con múltiples fuentes, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de gazatíes como sospechosos de ser asesinados mediante un sistema de inteligencia artificial.

Únete a nosotros en Telegram Twitter  y VK .

Escríbenos: info@strategic-culture.su

El derecho internacional se basa en la responsabilidad humana y la rendición de cuentas en última instancia cuando los seres humanos matan a otros seres humanos. La ley con respecto a los combatientes armados es la más amplia, pero la responsabilidad personal se aplica igualmente al asesinato de civiles, mujeres y niños.

Pero ¿qué ocurre si se afirma que el asesinato está dirigido por una «máquina», por la Inteligencia Artificial, basada en la «ciencia» algorítmica?

¿La responsabilidad humana por matar a «otros» queda de algún modo absuelta por la intención «científica» de las listas de asesinatos generadas por máquinas de IA, cuando «se vuelven locas»?

Esta es la cuestión que plantea el uso por las fuerzas israelíes de la IA «Lavender» para proporcionar a Israel listas de asesinatos en Gaza.

El periodista israelí Yuval Abraham ha escrito un relato detallado, con  múltiples fuentes y ‘delatores’, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de gazatíes como sospechosos de ser asesinados utilizando un sistema de selección de objetivos de IA con escasa supervisión humana y una política permisiva respecto a las bajas.

El creador del sistema, el actual comandante de la unidad de élite de inteligencia israelí 8200, había defendido anteriormente el diseño de una «máquina de objetivos» basada en IA y algoritmos de aprendizaje automático que pudiera procesar rápidamente cantidades masivas de datos para generar miles de «objetivos» potenciales para ataques militares, en el fragor de una guerra.

Como detalló Abraham

Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y a Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.

Durante las primeras fases de la guerra, el ejército dio su aprobación generalizada para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito de comprobar a fondo por qué la máquina hacía esas elecciones o de examinar los datos de inteligencia brutos en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de «sello de goma» [aprobación] para las decisiones de la máquina, y añadió que, normalmente, sólo dedicaban personalmente unos «20 segundos» a cada objetivo antes de autorizar un bombardeo.

Para ser claros: El «genocidio» generado por la IA clava una estaca en el corazón del Derecho Internacional Humanitario.

El resultado es que miles de palestinos -en su mayoría mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.

Entonces, ¿quién es responsable? ¿Quién debe rendir cuentas?

El sistema era defectuoso desde el principio. Las fuerzas militares de Al-Qassam de Hamás operan desde profundos túneles subterráneos, donde tienen sus dormitorios, todo lo cual las hace impermeables a los programas de reconocimiento facial operados desde el reconocimiento aéreo israelí sobre Gaza.

En segundo lugar, como explicó un alto cargo de la oficina «B» a Abraham, «no sabíamos quiénes eran los operativos de «nivel inferior» [en la superficie]». Los combatientes Qassam y los civiles de Gaza no parecen diferentes. No hay ninguna característica identificativa del «hombre de Hamás» que lo distinga positivamente de cualquier otro varón de Gaza, por lo que Lavender identificó a estos «objetivos» como «afiliados a Hamás» en líneas fronterizas fluidas, como que alguna vez se unieron a algún grupo de Whatsapp que incluía a un miembro de Hamás, o que prestaron su teléfono a sus familias o se lo dejaron cargando en casa.

Querían permitirnos atacar [a los agentes subalternos] automáticamente. Ese es el Santo Grial. Una vez que te vuelves automático, la generación de objetivos se vuelve loca.

Según las fuentes, la máquina da a casi todas las personas de Gaza una calificación del 1 al 100, que expresa la probabilidad de que sean militantes.

Habiendo pasado algunos años trabajando en Gaza, permítanme decir que todo el mundo conocía o hablaba con alguien de Hamás en Gaza. Hamás ganó abrumadoramente las elecciones allí en 2006: Por tanto, casi todo el mundo podría decirse -de una forma u otra- que está «afiliado».

La cosa empeora:

A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado», dijo B. «Eliminamos a miles de personas. No las revisamos una por una, sino que lo pusimos todo en sistemas automatizados, y en cuanto una de [las personas marcadas] estaba en casa, se convertía inmediatamente en objetivo. Le bombardeábamos a él y a su casa.

«El ejército prefería utilizar sólo bombas «tontas»… No quieres desperdiciar bombas caras en personas sin importancia – es muy caro para el país y hay escasez [de esas bombas]», dijo C.

El autor del sistema Lavender, el general de brigada Yossi Sariel, había escrito anónimamente en The Human Machine Team (2021) que la sinergia entre «la inteligencia humana y la artificial revolucionará nuestro mundo».  Evidentemente, su entusiasmo por esta revolución en la guerra fue creído por los dirigentes israelíes (y también por algunos en Washington; véase, por ejemplo, este artículo de John Spencer, Catedrático de Estudios de Guerra Urbana en la academia militar de élite del ejército estadounidense, WestPoint).

De ahí la repetida afirmación de Netanyahu de que Israel estaba al borde de una «Gran Victoria» en Gaza con 19 de las 24 Brigadas de Hamás desmanteladas. Ahora sabemos que era una tontería.

La IA iba a ser el arma secreta de Israel. Yossi Sariel (el creador de Lavender) hizo recientemente su mea culpa (de lo que informó The Guardian): Los críticos de Sariel, en un informe citado por The Guardian, creen que el hecho de que la Unidad 8200 diera prioridad a la tecnología «adictiva y excitante» frente a métodos de inteligencia más anticuados había conducido al desastre. Un veterano funcionario declaró a The Guardian que la unidad bajo el mando de Sariel había «seguido la nueva burbuja de inteligencia [IA]».

Por su parte, se cita a Sariel diciendo a sus colegas tras el 7 de octubre que «acepto la responsabilidad de lo ocurrido en el sentido más profundo de la palabra». «Fuimos derrotados. Yo fui derrotado».

Sí, y decenas de miles de palestinos inocentes, mujeres y niños, han sido brutalmente asesinados como consecuencia de ello. Y Gaza reducida a escombros. El reportaje de investigación de Yuval Abraham debería remitirse a la Corte Internacional de Justicia (CIJ) para que examine las pruebas del «presunto genocidio» en Gaza.

Publicado originalmente por Al Mayadeen English
Traducción: observatoriodetrabajadores

The views of individual contributors do not necessarily represent those of the Strategic Culture Foundation.

See also

See also

The views of individual contributors do not necessarily represent those of the Strategic Culture Foundation.