İsrail yayın organı: Gazze'deki yüz binlerce sivilin kaderi yapay zekanın elinde

İsrailli kaynaklar, Gazze'ye yönelik saldırılarda "insan hedefi" belirlemek amacıyla "Lavender" adlı yapay zeka programının tespit ettiği 37 bin "şüpheli"nin her biri için, İsrail'in en az 20 "sivil zayiat"ı göze aldığını söyledi.

Anadolu Ajansı
Anadolu Ajansı Tüm Haberleri

Tel Aviv merkezli "+972" ve Local Call'a konuşan kaynaklar, Lavender'in Gazze'deki yaklaşık 2,3 milyon insan hakkında topladığı verileri belirsiz kriterlere göre analiz ederek, kişinin Hamas ile bağlantısı bulunma olasılığını değerlendirdiğini belirtti.

Görüşlerini paylaşan 6 kaynak, savaşın özellikle ilk safhalarında İsrail ordusunun programa "tamamen bağlı kaldığını", bu nedenle Lavender'in tespit ettiği isimlerin, erkek oldukları sürece personel tarafından kontrolsüz ve belirli bir kriter gözetilmeksizin hedef olarak görüldüğünü aktardı.

37 bin Filistinli şüpheli olarak işaretlenmiş
+972'ye konuşan kaynaklar, binada ve çevrede siviller olsa bile kişinin özel mülkiyetinde öldürülmesine izin veren "insan hedef" kavramının daha önce yalnızca "üst düzey askeri hedef"leri kapsadığını, 7 Ekim sonrasında "insani hedef" görülenlerin, tüm Hamas üyelerini kapsayacak şekilde genişletildiğini ifade etti.

Hedef sayısının artması sonucunda, öncekinin aksine hedeflerin tek tek insanlar tarafından incelenip doğrulanması olasılığı ortadan kalktığı için yapay zekaya ihtiyaç duyulduğu kaydedilirken, yapay zekanın yaklaşık 37 bin Filistinliyi "şüpheli" olarak işaretlediği belirtildi.

Lavender'ın Filistinlileri sınıflandırmada "yüzde 90'a kadar başarılı" görülmesi üzerine, sürecin tamamen otomasyona bağlandığını söyleyen kaynaklar, "Binlerce insanı öldürdük. Her şeyi otomasyona bağladık ve hedefleri tek tek kontrol etmedik. İşaretlenen kişiler evlerine adım attıklarında onları bombaladık." sözleriyle insan kontrolünün devreden çıkarıldığını teyit etti.

Kaynaklardan birinin, "önemsiz bir ismi öldürmek için bir evi bombalamalarının istenmesinin, kendisi için çok şaşırtıcı" olduğu yorumu, İsrail'in Gazze'deki sivil katliamının itirafı olarak görüldü.

Üst düzey hedefler için 100 sivil zayiata kadar yeşil ışık
Kaynaklar alt düzey bir kişiye düzenlenen operasyonda "20 sivil zayiat"a kadar izin verildiğini ve bu sayının süreç içinde sık sık artıp azaldığını belirterek, "orantılılık ilkesinin" uygulanmadığına dikkati çekti.

Öte yandan üst düzey hedefler için söz konusu sayının 100'e kadar çıktığı belirtildi.

Kaynaklar, kendilerine "bombalayabildikleri her yerin bombalanması" emrinin verildiğini ifade ederken, "Üst düzey yetkililere histeri hakimdi. Nasıl tepki vereceklerini bilemiyorlardı. Tek bildikleri Hamas'ın kapasitesini kısıtlamak için deli gibi bombalamaktı." dedi.

Lavender'ı kullanmış olan B. adlı üst düzey asker, programın "hata payının yüzde 10 civarında olduğunu" iddia ederek, zaman kaybının önlenmesi için insanlar tarafından kontrol edilme zorunluluğunun olmadığını belirtti.

"Hedef olarak tespit edilen telefonu taşıyan kişi ailesiyle bombalanıyordu"
B, hedeflerin az olduğu günler uygulamanın kapsamının genişletildiğini, daha kalabalık bir kitlenin hedef alındığını belirterek, "Hamas üyesi tanımını daha da genişletildiğinde, uygulama her türlü sivil savunma personelini ve polis memurlarını hedef almaya başladı. Bu kişiler Hamas'a yardım etse de İsrail askerlerini gerçekten tehlikeye atmıyordu." dedi.

Sistemin eksikliklerine dikkati çeken B, "Eğer hedef kişi telefonunu başka bir kişiye verdiyse, o kişi tüm ailesiyle evinde bombalanıyordu. Bu çok sık oldu. Lavender'ın en sık yaptığı hatalardan biri buydu." diye konuştu.

"Öldürülenlerin çoğu kadın ve çocuktu"
Öte yandan, "Where's Daddy?" adı verilen bir diğer yazılımın, binlerce kişiyi eş zamanlı takip ederek, evlerine girdikleri zamanı İsrailli yetkililere bildirdiği belirtildi.

Bu yazılım sayesinde hedef alınan kişilerin evlerinin bombalandığı kaydedilirken, "Diyelim ki bir evde bir Hamas üyesi ve 10 sivil olduğunu hesapladınız, genellikle bu 10 kişi kadın ve çocuk olur. Yani saçma bir şekilde, öldürdüğünüz insanların çoğu kadın ve çocuk oluyor." ifadeleri kullanıldı.

Bu sistemin de hesaplama hataları yaptığını ifade edilirken kaynaklardan biri, "Çoğu kez hedeflenen kişi, bombaladığımız evde olmuyordu bile. Sonuç olarak bir aileyi hiç uğruna öldürmüş oluyordunuz." açıklamasını yaptı.

Tasarruf amacıyla güdümsüz bombalar kullanılıyor
Kaynaklar ayrıca "pahalı silahlardan tasarruf etmek" amacıyla daha düşük rütbeli kişilerin "güdümlü akıllı bombalar" yerine "güdümsüz bombalarla" hedef alındığını ve bunun sonucunda hedef alınan kişinin bulunduğu ve çevresindeki binaların yıkılması sebebiyle birçok sivilin hayatını kaybettiğini söyledi.

Güdümsüz bombaların kullanımına ilişkin konuşan kaynaklardan biri de "Saldırıları genellikle güdümsüz bombalarla yapıyorduk ve bu da kelimenin tam anlamıyla tüm evi içindekilerle yok etmek anlamına geliyordu. Sistem yüzünden hedefler hiç bitmiyor." dedi.

"Yapay zeka, sivil kayıpları azaltmak için değil, daha fazla hedef bulmak için kullanılıyor"
Konuya ilişkin Al Jazeera'ya konuşan, Katar'daki Hamid bin Halife Üniversitesinde Orta Doğu Çalışmaları ve dijital beşeri bilimler alanında çalışan Prof. ​​​​​​Marc Owen Jones, "İsrail'in, sivillerin hayatı hakkında karar vermeye yardımcı olması için şeffaf bir değerlendirmeden geçmemiş, test edilmemiş yapay zeka sistemleri kullandığı giderek daha açık hale geliyor." ifadesini kullandı.

Yapay zeka sistemi kullanan İsrailli yetkililerin, hedef seçimini yapay zekaya devrettiklerini ve "ahlaki sorumluluktan kaçınmak" için bu sistemi kullandıklarını öne süren Jones, sistemin "sivil kayıpları azaltmak için değil daha fazla hedef bulmak için" kullanıldığını söyledi.

Jones, sistemi işleten yetkililerin bile yapay zekayı bir "öldürme makinası" olarak gördüğünü belirterek, "müttefikleri İsrail'e baskı yapmaz" ise bu ülkenin saldırılarda yapay zeka kullanımına son vermesinin düşük bir ihtimal olduğunu vurguladı.

Olayı yapay zeka destekli soykırım olarak niteleyen Jones, "Savaşlarda yapay zeka kullanımı için bir moratoryum çağrısı yapılması gerekiyor." dedi.

"Habsora" (The Gospel)
1 Aralık 2023'te yayımlanan başka bir araştırmada ise İsrail ordusunun, Gazze Şeridi'ne yönelik saldırılarında hedef belirlemek için kullandığı "Habsora" (The Gospel) adlı yapay zeka uygulamasını sivil altyapının kasıtlı olarak vurulmasında kullanıldığını ve bu uygulamayla otomatik olarak üretilen hedeflere yönelik saldırılarda kaç sivilin yaşamını yitireceği her zaman bilindiği belirtilmişti.

İsrail'in kullandığı bir diğer yapay zeka teknolojilerinden olan "Habsora" (The Gospel) binaları ve yapıları hedef alırken, Lavender kişileri hedef alıyor.

04 Nis 2024 - 15:04 - Dünya

Mahreç  Anadolu Ajansı


göndermek için kutuyu işaretleyin

Yorum yazarak Yeni Malatya Gazetesi Topluluk Kuralları’nı kabul etmiş bulunuyor ve yorumunuzla ilgili doğrudan veya dolaylı tüm sorumluluğu tek başınıza üstleniyorsunuz. Yazılan yorumlardan Yeni Malatya Gazetesi hiçbir şekilde sorumlu tutulamaz.

Haber ajansları tarafından servis edilen tüm haberler Yeni Malatya Gazetesi editörlerinin hiçbir editöryel müdahalesi olmadan, ajans kanallarından geldiği şekliyle yayınlanmaktadır. Sitemize ajanslar üzerinden aktarılan haberlerin hukuki muhatabı Yeni Malatya Gazetesi değil haberi geçen ajanstır.