Google firmó con Israel para colaboración bélica

  • Categoría de la entrada:Divulgación / Tecnología
  • Tiempo de lectura:2 minutos de lectura

Google y el gobierno de Israel firmaron el acuerdo de un software que usa inteligencia artificial para identificar y matar blancos humanos en sus hogares en medio del conflicto en Gaza. 

Trabajadores tecnológicos protestaron contra el proyecto Nimbus, por el cual Google echó a 28 empleados. La tecnología Lavender, parte del acuerdo de 1200 millones de dólares, ha sido denunciada por permitir discriminación y desplazamiento sistemático contra los palestinos. Los empleados de Google han difundido pruebas que respaldan estas acusaciones.

Ingenieros y programadores han protestado de forma activa en las oficinas de Google en Nueva York y Silicon Valley para cancelar el proyecto Nimbus, llegando incluso a ser arrestados por la policía. La protesta continúa en busca de terminar con el uso de esta tecnología en la guerra de Israel.
Zelda Montes, ingeniera de software de YouTube, fue desalojada y detenida junto a otros manifestantes en Seattle, Nueva York y California para protestar contra el proyecto Nimbus de Google y Amazon, que supuestamente apoya el apartheid israelí. En diciembre del año pasado, cientos de personas también se manifestaron exigiendo el fin del acuerdo con Israel. Montes criticó a Google por priorizar a sus empleados sobre las atrocidades que su tecnología puede causar.

La empresa envió un correo intimidante a su personal, amenazando con tomar medidas contra aquellos que violan sus políticas. Una coalición de trabajadores tecnológicos llamada No Tech for Apartheid, formada por judíos y musulmanes pacifistas, ha estado protestando desde el año pasado contra la censura pro palestina impuesta por empresas tecnológicas y Silicon Valley bajo la presión del gobierno israelí.

Google y Apple han tomado represalias contra empleados que se oponen a Nimbus y han expresado su apoyo a Palestina. El sitio +972 reveló una investigación sobre el uso de inteligencia artificial para atacar a blancos humanos en Gaza. El software Lavender clasifica la probabilidad de que una persona sea un militante en Hamas o la Jihad Islámica Palestina. Aunque las Fuerzas de Defensa de Israel niegan el uso de IA, medios como The Guardian y The Washington Post han publicado testimonios que lo contradicen. Se mencionó que estar en un grupo de Whatsapp con un militante conocido o cambiar de dirección frecuentemente puede convertir a un palestino en blanco fácil en Gaza. Además, un soldado reveló haber recibido órdenes de atacar objetivos de baja importancia, que llamó «objetivos basura».