Israel guna AI untuk pilih sasaran di Gaza – laporan

(SeaPRwire) –   Program itu dilaporkan direka untuk mengesan operatif Hamas, tetapi sumber tentera Israel mengatakan ia sering menandakan orang tidak bersalah untuk mati

Tentera Israel menggunakan kecerdasan buatan untuk menandakan militan Palestin yang disyaki untuk pembunuhan dengan sedikit pengawasan manusia atau pertimbangan kepada mangsa awam, lapor +972 Magazine pada Rabu.

Sistem AI yang dikenali sebagai ‘Lavender’, direka untuk menyisir data peribadi dua juta penduduk Gaza untuk menyediakan senarai mereka yang disyaki berkhidmat dalam sayap tentera Hamas dan Jihad Islam Palestin (PIJ), enam pegawai perisikan Israel memberitahu .

Tentera Pertahanan Israel (IDF) tidak pernah secara terbuka mengakui kewujudan sistem itu, tetapi diketahui menggunakan semasa operasi sebelumnya di Gaza.

Pada permulaan perang Israel terhadap Hamas, Lavender menandakan 37,000 orang Palestin sebagai militan dan meletakkan mereka pada senarai bunuh, sumber mendakwa. Walaupun kakitangan IDF pada mulanya menyemak senarai ini dan mengesahkan setiap nama secara manual, manusia segera datang untuk berfungsi sebagai cap kaki untuk senarai mesin, kata seorang sumber.

“Saya akan melabur 20 saat untuk setiap sasaran pada peringkat ini, dan melakukan puluhan mereka setiap hari,” kata pegawai itu. “Saya tidak mempunyai nilai tambahan sebagai manusia, kecuali menjadi cap kaki persetujuan. Ia menjimatkan banyak masa.”

Lavender berfungsi dengan mengkaji rekod telefon, aktiviti media sosial, gambar, dan pergerakan militan Palestin yang diketahui, mengenal pasti ciri-ciri biasa, dan kemudian mencari ciri-ciri ini di kalangan populasi lebih besar Gaza. Sistem memberi setiap orang Gaza skor antara 0 dan 100, dengan mereka yang mendapat skor hampir 100 dianggap sebagai pengganas dan oleh itu sasaran sah.

Dalam masa beberapa minggu peperangan meletus, bagaimanapun, pemimpin IDF dikatakan mengarahkan bawahan mereka untuk melonggarkan kriteria pemilihan ini dan meluluskan serangan terhadap sasaran hanya berkaitan secara longgar dengan Hamas.

“Kami diperintahkan: sekarang kita perlu merosakkan Hamas, tidak kira kos. Apa saja yang anda boleh, anda bom,” kata seorang sumber mengingat.

Sekali ditandakan untuk pembunuhan, sasaran tahap rendah akan dibunuh di rumah mereka – diidentifikasi menggunakan sistem AI yang berbeza dipanggil ‘Injil’ – dengan bom tidak terarah, manakala munisi lebih tepat akan digunakan terhadap pemimpin militan Hamas yang lebih tinggi pangkat.

“Pada jam 5 pagi, [tentera udara] akan datang dan membombardir semua rumah yang telah kami tandakan,” kata seorang sumber. “Kami menghapuskan beribu-ribu orang. Kami tidak memeriksa mereka satu demi satu – kami memasukkan semua ke dalam sistem automatik, dan sebaik sahaja salah seorang [individu yang ditandai] berada di rumah, dia segera menjadi sasaran. Kami membombardirnya dan rumahnya.”

Lavender dilaporkan menaraf sasaran mengikut kepentingan yang dirasakan, dengan satu sumber mendakwa nama tahap keutamaan rendah sering termasuk polis, kakitangan awam, dan orang lain yang “membantu kerajaan Hamas, tetapi mereka tidak benar-benar membahayakan [tentera] Israel.”

Apabila seorang suspek dipilih dan perintah pembunuhan diberikan, pemimpin IDF memutuskan berapa banyak mangsa awam yang dianggap dibenarkan untuk menghapuskan sasaran. Menurut satu sumber, nombor ini “naik turun” sepanjang masa, dengan “20 orang awam tidak terlibat” dianggap pengorbanan yang dibenarkan pada permulaan perang, dan sehingga 100 dianggap sesuai dalam serangan terhadap pegawai Hamas senior.

“Ia bukan hanya anda boleh membunuh mana-mana orang yang merupakan askar Hamas, yang jelas dibenarkan dan sah dari segi undang-undang antarabangsa,” kata mereka. “Tetapi mereka secara terus memberitahu anda: ‘Anda dibenarkan membunuh mereka bersama banyak orang awam.”

Menurut angka terkini dari kementerian kesihatan Gaza, pasukan Israel telah membunuh lebih daripada 33,000 orang dalam hampir enam bulan berjuang di enklaf itu, kebanyakannya wanita dan kanak-kanak. Menanggapi dakwaan +972 Magazine, IDF pada Rabu menyatakan bahawa ia “tidak menggunakan sistem kecerdasan buatan yang mengenal pasti operatif pengganas atau cuba meramal sama ada seseorang itu pengganas,” dan bahawa ia “menolak secara terang-terangan dakwaan mengenai sebarang dasar untuk membunuh puluhan ribu orang di rumah mereka.”

Artikel ini disediakan oleh pembekal kandungan pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberi sebarang waranti atau perwakilan berkaitan dengannya.

Sektor: Top Story, Berita Harian

SeaPRwire menyampaikan edaran siaran akhbar secara masa nyata untuk syarikat dan institusi, mencapai lebih daripada 6,500 kedai media, 86,000 penyunting dan wartawan, dan 3.5 juta desktop profesional di seluruh 90 negara. SeaPRwire menyokong pengedaran siaran akhbar dalam bahasa Inggeris, Korea, Jepun, Arab, Cina Ringkas, Cina Tradisional, Vietnam, Thai, Indonesia, Melayu, Jerman, Rusia, Perancis, Sepanyol, Portugis dan bahasa-bahasa lain.