O jornalista israelita Yuval Abraham escreveu um artigo detalhado, com base em várias fontes, explicando como as forças israelitas designaram dezenas de milhares de habitantes de Gaza como suspeitos de assassinato usando um sistema de inteligência artificial.
Por Alastair Crooke
O direito internacional baseia-se na responsabilidade humana e na responsabilização quando seres humanos matam outros seres humanos. A lei relativa aos combatentes armados é a mais ampla, mas a responsabilidade pessoal também se aplica ao assassínio de civis, mulheres e crianças.
Mas e se se afirmar que o assassinato é dirigido por uma "máquina" – por inteligência artificial, baseada na "ciência" algorítmica?
A responsabilidade humana pelo assassinato de "outros" é de alguma forma absolvida pela intenção "científica" das listas de mortes geradas por máquinas de inteligência artificial – quando elas "enlouquecem"?
Esta é a questão levantada pelo uso da IA "Lavanda" pelas forças israelitas para fornecer a Israel listas de pessoas a serem baleadas na Faixa de Gaza.
O jornalista israelita Yuval Abraham escreveu um relato detalhado, com várias fontes e "denunciante" de como as forças israelitas designaram dezenas de milhares de habitantes de Gaza como suspeitos de assassinato usando um sistema de ataque por IA, com pouca supervisão humana e uma política permissiva de vítimas.
O criador do sistema, o actual comandante da unidade de inteligência de elite 8200 de Israel, já havia defendido o projecto de uma "máquina de mira" baseada em inteligência artificial e algoritmos de aprendizado de máquina, capaz de processar rapidamente grandes quantidades de dados para gerar milhares de potenciais "alvos" para ataques militares, no calor da batalha.
Como explica Abraão,
«Oficialmente, o sistema de Lavanda é projectado para marcar todos os supostos agentes das alas militares do Hamas e da Jihad Islâmica Palestiniana (PIJ), especialmente os de baixa patente, como alvos potenciais para bombardeamentos. As fontes disseram ao +972 e ao Local Call que, nas primeiras semanas da guerra, o exército confiou quase inteiramente em Lavender, que marcou até 37.000 palestinianos como supostos militantes - e as suas casas - em preparação para possíveis ataques aéreos.
«Durante as primeiras fases da guerra, os militares permitiram em grande parte que os oficiais adoptassem as listas de mortes do Lavanda, sem exigir uma verificação completa do motivo pelo qual a máquina havia feito essas escolhas ou um exame dos dados brutos de inteligência nos quais eles se baseavam. Uma fonte disse que o pessoal humano muitas vezes só ratifica as decisões da máquina, acrescentando que normalmente gasta apenas cerca de 20 segundos pessoalmente em cada alvo antes de autorizar um bombardeamento.
Para ser claro: o "genocídio" gerado pela IA leva uma estaca ao coração do Direito Internacional Humanitário.
«O resultado é que milhares de palestinos – a maioria mulheres e crianças ou pessoas que não estavam envolvidas nos combates – foram dizimados por ataques aéreos israelenses, especialmente nas primeiras semanas da guerra, devido às decisões do programa de IA.
Então, quem é o responsável? Quem deve ser responsabilizado?
O sistema foi falho desde o início. As forças militares Al-Qassam do Hamas operam a partir de túneis subterrâneos profundos, onde estão localizados os seus alojamentos de alojamento, tornando-os impermeáveis aos programas de reconhecimento facial implementados pelo reconhecimento aéreo israelita sobre Gaza.
Em segundo lugar, como um alto funcionário do Escritório "B" explicou a Abraham, "não sabíamos quem eram os agentes de nível inferior [na superfície]". Com os combatentes de Qassam e com os civis de Gaza não é diferente. Lavender identificou esses "alvos" como "afiliados ao Hamas" ao longo de linhas fluidas, como se eles podessem entrar num grupo de Whatsapp que incluía um membro do Hamas, ou emprestavam os seus telefones para as suas famílias ou os deixavam carregando em casa.
«Eles queriam permitir que a gente atacasse automaticamente [os oficiais subalternos]. É o Santo Graal. Uma vez que você muda para a automação, a geração de alvos fica louca."
«De acordo com algumas fontes, a máquina dá a quase todas as pessoas em Gaza uma pontuação de 1 a 100, expressando a probabilidade de que sejam ativistas.
Tendo trabalhado em Gaza por alguns anos, posso dizer que todos conheciam ou falavam com alguém sobre o Hamas em Gaza. O Hamas venceu as eleições lá por uma esmagadora maioria em 2006, então quase qualquer um pode ser considerado – de uma forma ou de outra – um "afiliado".
E não é só isso:
«Às 5h da manhã, [a Força Aérea] vinha bombardear todas as casas que tínhamos marcado", disse B. "Eliminamos milhares de pessoas. Não olhamos para eles um a um, colocamos tudo em sistemas automatizados e, assim que uma [das pessoas marcadas] estava em casa, elas imediatamente se tornaram um alvo. Estávamos bombardeando ela e a casa dela."
«O exército preferiu usar apenas bombas ""... Você não quer desperdiçar bombas caras com pessoas sem importância, isso custa muito dinheiro ao país e há uma escassez [dessas bombas]", disse B.
O autor do sistema Lavanda, General de Brigada Yossi Sariel, escreveu anonimamente no "The Human Machine Team" (2021) que a sinergia entre "inteligência humana e inteligência artificial revolucionará o nosso mundo". É claro que os líderes israelitas (e alguns em Washington também – veja-se, por exemplo, este artigo de John Spencer, catedrático de estudos de guerra urbana na academia militar de elite dos EUA, WestPoint) acreditavam em seu entusiasmo por essa revolução na guerra. Daí a afirmação repetida de Netanyahu de que Israel estava à beira de uma "grande vitória" em Gaza, com 19 das 24 brigadas do Hamas dissolvidas. Agora sabemos que isso foi um absurdo.
A IA deveria ser a arma secreta de Israel. Yossi Sariel (o iniciador de Lavanda) fez recentemente o seu mea culpa (relatado no The Guardian): os críticos do Sariel, numa reportagem citada pelo Guardian, acreditam que o foco da Unit 8200 na tecnologia "viciante e excitante" em detrimento de métodos de inteligência mais tradicionais levou ao desastre. Um alto funcionário disse ao Guardian que a unidade liderada por Sariel "seguiu a nova bolha de inteligência [IA]".
Por sua vez, Sariel teria dito a seus colegas após o 7 de Outubro: "Aceito a responsabilidade pelo que aconteceu no sentido mais profundo da palavra". "Fomos derrotados. Fui derrotado."
Sim – e dezenas de milhares de palestinianos, mulheres e crianças inocentes foram brutalmente mortas como resultado. E Gaza é um campo de ruínas. O relatório de investigação de Yuval Abraham deve ser encaminhado ao Tribunal Internacional de Justiça (TIJ) para exame de evidências de "suposto genocídio" em Gaza.
Fonte: Al Mayadeen
Sem comentários :
Enviar um comentário