İsrail yapay zeka araçlarını Gazze”de silaha dönüştürüyor

İsrail yapay zeka araçlarını Gazze”de silaha dönüştürüyor

Galatasaray Üniversitesi Hukuk Fakültesi Bilişim ve Teknoloji Hukuku Anabilim Dalı Öğretim Üyesi Dr. Osman Gazi Güçlütürk, İsrail”in Gazze”de yapay zeka kullanımını ve bu durumun hukuki boyutunu AA Analiz için kaleme aldı.***

Yapay zeka teknolojisi, her geçen gün yeni uygulama alanlarıyla ve sunduğu vaatlerle gündeme gelmeye devam ediyor. Çoğunlukla sunduğu fırsat ve avantajlar konuşulsa da yapay zekanın yeni uygulamaları pek çok riski de beraberinde getiriyor. Özellikle yapay zekanın otonom karar verme kabiliyetlerinin saldırı ve savunma sistemleriyle entegre edilmesi önemli risk ve endişeleri doğuruyor. Bu bağlamda İsrail Savunma Kuvvetleri”nin (IDF) Gazze”de yapay zeka kullanımına dair gelişmeler de kritik önem taşıyor.

Savunmada ve askeri operasyonlarda yapay zeka nasıl kullanılıyor?

Yapay zekanın askeri alanda kullanımı çeşitli biçimlerde gerçekleşebilir. Bunlar arasında operasyon sahasının yapay zeka ile analizi, hedeflerin belirlenmesi ve tespiti, hedeflere kilitlenme süreçlerinde yapay zekanın kullanılması yaygın örneklerdir. Ancak bu sistemlerin en tartışmalı kullanımı, yapay zekanın doğrudan saldırı emri verecek şekilde konumlandırılmasıdır. İsrail ordusu, yapay zekanın ve otonom sistemlerin operasyonel süreçleri hızlandırmak amacıyla kullanıldığını açıklamalarında bizzat belirtiyor. [1]

IDF aynı zamanda bu sistemlerin çıktılarının insanlar tarafından incelendiğini ve özellikle de hedef tespitindeki çıktıların yapay zeka çıktılarıyla karşılaştırıldığını belirtiyor. İsrail ordusu, yapay zeka sistemlerinin işleyiş prensiplerini ve karar mekanizmalarını tam bir şeffaflıkla açıklamadığından dolayı bu alandaki bilgi ve haberler çoğunlukla kimliği açıklanmayan kaynaklara dayandırılıyor. Bu da raporların ve iddiaların objektif olarak değerlendirilmesini güçleştiriyor. Bununla birlikte, iddiaların teyit ihtiyacı akılda tutularak, bazı yaygın senaryoların incelenmesi de mümkün hale geliyor.

İsrail”in Gazze’de yapay zeka teknolojisini kullanması aslında yeni bir şey değildir. Öyle ki 2021 yılındaki “Guardian of the Walls” operasyonu bazı kaynaklarda “ilk yapay zeka savaşı” olarak nitelendiriliyor. [2] O tarihten bu yana Gazze”ye yönelik saldırılarda yapay zekanın farklı şekillerde kullanılmaya devam ettiği biliniyor.

Gazze”deki operasyonlarda ismi öne çıkan çeşitli yapay zeka araçları bulunuyor. İlk olarak, “Alchemist” adlı sistem, farklı kaynaklardan elde edilen verileri toplayarak bölgedeki hareketlilikleri takip ederek bu konuda bilgi sağlıyor. [3] “Edge360” ise zırhlı araçlara entegre edilerek çevresel tehditleri operatöre bildiriyor. [4] Bu sistemler doğrudan saldırı kararı almayan, operatörlerin karar alma süreçlerini destekleyen niteliktedir ve dolayısıyla savaş literatüründeki hedefleme döngüsünü sınırlı biçimde etkilemektedir.

Yapay zeka savaş alanında karar verici konuma mı geliyor?

Diğer yandan, İsrail”in Gazze”de kullandığı yapay zeka araçlarının karar destek sistemlerinin ötesine geçtiğine dair ciddi iddialar da mevcut. Bu kapsamda 3 sistem özellikle öne çıkmaktadır. İlki, çatışmanın başından beri ayrıntılı hedefleme için kullanılan “Lavender” isimli sistemdir. Lavender, İsrail ordusunun sahip olduğu veri havuzlarını kullanarak hedef alınması gereken kişileri ve konumları belirlemektedir. İkinci sistem “Gospel” (Habsora) ise Lavender”in fonksiyonlarını daha geniş ölçekte ve ek olarak yapılar düzeyinde de gerçekleştirmektedir. Üçüncü sistem olan “Where’s Daddy?” ise hedeflenen kişilerin mobil konum verilerini takip ederek belirli yerlere girip girmediklerini tespit etmekte ve bu nihai konum bilgisi hedef olarak etiketlenmiş kişilere karşı operasyon gerçekleştirilecek konum tespitinde kullanılmaktadır. [5]

İsrail”in Lavender, Gospel ve Where’s Daddy? sistemlerinin kullanımı hakkındaki haber ve raporlar incelendiğinde, sistem çıktılarının doğrulanmadan seri saldırılarda kullanıldığı, sivil-asker ayrımının gözetilmediği ve hedeflerin sivil yaşam alanlarında hedef alındığına dair endişe verici bulgular öne çıkmaktadır. Bu sistemler de gerçekten tasarım açısından bakıldığında karar verici olmayıp belirli kararları destekleyebilecek niteliktedir.

Diğer yandan karar destek sistemi gibi kullanılsa bile bir yapay zeka uygulamasının karar verme sürecine etkisi sadece tasarıma değil uygulamaya da bakılarak değerlendirilmelidir. Örneğin anılan sistemler doğrudan otonom hareket etmemesine rağmen, bazı kaynaklara göre İsrail ordusu tarafından özellikle erken operasyonlardaki kullanımlarda Lavender’in hedefleme tespitlerinin doğrulama sürecinden geçmeden ve sadece kâğıt üzerinde çok hızlı onaylanmak suretiyle saldırı emirlerine dayanak olduğu belirtilmektedir. Yapay zekanın savaş alanında doğrudan kime saldırı yapılacağına karar veren bir mekanizma olarak kullanılması ise hukuki açıdan önemli sorunları gündeme getirmektedir.

Yapay zeka destekli silahlar uluslararası hukukta nasıl düzenleniyor?

Yapay zekanın savunma ve askeri sanayide karar destek sistemi olarak kullanımı genel olarak ulusal veya uluslararası düzlemde yasaklanmış değildir. Ancak yapay zeka desteklerin karar destek sistemi olmanın ötesine geçip karar alma mekanizmasını önemli ölçüde ve belki tamamen etkileyecek şekilde kullanılması uluslararası insancıl hukuk bakımından sorun teşkil etmektedir.

Uluslararası insancıl hukuk kuralları uluslararası hukukun diğer alanlarında olduğu gibi uluslararası antlaşmalarla ve mahkeme kararlarıyla olduğu kadar uzun yıllardır süre gelen ve yazılı olup olmamasına bakılmaksızın geçerliliği uluslararası alanda kabul edilen teamül kuralları üzerinden de gelişmektedir. Bu teamül kuralların yaygın atıf yapılan bir derlemesi ise Uluslararası Kızıl Haç Komitesi (ICRC) tarafından yapılmıştır. [6] Bu kural ve ilkelere bakıldığında silahlı çatışma ortamlarında sivillerin korunması ve ayrım gözetmeyen saldırıların önlenmesini amaçlayan köklü ilkeler göze çarpmaktadır. Bu ilkeler arasında siviller ile savaşanların ayrıştırılması, saldırıların orantılı olması ve hedeflerin askeri amaçlı olduğunun doğrulanması gibi temel kurallar yer almaktadır. Silahlı çatışmanın varlığı uluslararası insan hakları hukukunun tamamen askıya alındığı anlamına gelmez. Dahası bu kurallar genel nitelikte olup yeni teknolojilerden açıkça bahsetmiyor olmaları da yeni teknolojilerin bu ilkelerin kapsamı dışında kaldığı, serbestçe kullanılabileceği şeklinde de yorumlanamaz. Diğer bir deyişle yapay zekanın silahlı çatışma araçlarına entegrasyonu durumunda bu silahlar da mevcut uluslararası hukuk kurallarına uygun şekilde kullanılmalıdır.

Daha özelde ise genel olarak ölümcül otonom silah sistemleri (LAWS) olarak adlandırılan silah sistemleri [7] insanlara zarar veren sistemlerin yine insanlar tarafından kontrol edilmesinin önemini vurgulayan bazı Birleşmiş Milletler (BM) kararları [8], Türkiye’nin de kendisine ve bazı protokollerine taraf olduğu “Bazı Konvansiyonel Silahlar Hakkında Sözleşme” ve 1949 tarihli Cenevre Konvansiyonları ile bunun ekleri tarafından da düzenleme altına alınmaktadır. Özellikle Türkiye’nin taraf olmadığı Cenevre Konvansiyonu’nun I numaralı protokolünde yer alan 36.madde uyarınca yeni bir savaş silahı ya da yöntemi almayı, kullanmayı ya da geliştirmeyi düşünen devletlerin bunların ilgili uluslararası hukuk kuralları tarafından yasaklı olup olmadığını kontrol etme yükümlülüğü bulunmaktadır.

Peki daha önce anılan sistem ve uygulamaların bu kurallar karşısındaki durumu nedir? Öncelikle net bir şekilde belirtilmelidir ki bir operasyon kararının doğrudan bir sistem tarafından verilmesi doğru değildir. Nihai operasyon kararı daima insan kontrolünde gerçekleşmelidir. Buradaki insan kontrolünün de sadece şekli olması yetmez. Söz konusu silah sistemi ve savaş alanı açısından uzman bir kişi tarafından gerçekleştirilen anlamlı bir kontrol ancak bu anlamda kontrol teşkil eder. Personelin sadece şekli bir imza ya da mühürden ibaret onayı ise bu anlamda geçerli ve anlamlı insan kontrolü sayılmayacaktır.

İkinci olarak uluslararası hukukun temel ilkeleri uyarınca bu şekilde kullanılacak silahların geliştirilmesinde teknik uzmanlık ve isabet de aranmalıdır. Şu an kullanılan gelişmiş yapay zeka sistemleri teknik işleyiş itibariyle olasılıksal çalışmakta ve hata ihtimali taşımaktadır. İşin ucunda insan hayatı olan kullanımlarda bu oranın düşürülmesi sivil hayattaki kullanımlara nazaran daha çok önem taşımaktadır. Örneğin, Lavender”ın hata oranının yüzde 10 olduğu iddia edilmektedir. [9] IDF tarafından kullanılan sistemler açılıp detaylı incelenmeden bu oranların doğruluğundan emin olmak mümkün olmamakla birlikte salt oran olarak bakıldığında saldırı kararı vermek için hedef belirlemek adına kullanılan bir sistem için bu hata oranı takip eden detaylı bir inceleme ve doğrulama olmaksızın kullanılamayacak kadar yüksektir.

Son olarak değinilmesi gereken husus bu kurallara aykırılığın yaptırımının ne olduğudur. Bazı temel istisnalar dışında, kural olarak uluslararası hukuk düzenlemeleri ulusal kanunlarda olduğu gibi tek bir merkezden çıkarılmaz ve doğrudan herkes için bağlayıcı hale gelmez. Uluslararası hukukta devletlerin egemen eşitliği ilkesi nedeniyle, devletlerin onayı olmadan yargılanmaları da mümkün değildir. Bu sebeple uluslararası düzlemde bir devlete karşı yürütülebilecek hukuki süreçler oldukça karmaşık hale gelebilmektedir. Uluslararası Adalet Divanı (UAD) gibi kurumlar, bağlayıcı olmayan tavsiye kararlarıyla [10] operasyonların durdurulması çağrısı yapmaktadır. Diğer yandan İsrail, Gazze’deki operasyonlar sebebiyle tarafı olduğu BM Soykırım Sözleşmesi’nin ihlali gerekçesiyle Güney Afrika tarafından UAD önünde dava edilmiştir. [11] Dava dokümanlarda yapay zekaya atıf bulunmamakta ve dava kapsamında genel uluslararası hukuk bakımından tartışma yapılmaktadır. Söz konusu dava ise halen görülmeye devam etmektedir.

[1] https://www.idf.il/en/mini-sites/idf-press-releases-israel-at-war/june-24-pr/the-idf-s-use-of-data-technologies-in-intelligence-processing/

[2] Anna ANRONHEM, “Israel”s operation against Hamas was the world”s first AI war”, 27.05.2021, https://www.jpost.com/arab-israeli-conflict/gaza-news/guardian-of-the-walls-the-first-ai-war-669371; Takeshi KUMON, “The first AI conflict? Israel”s Gaza operation gives glimpse of future”, 28.06.2021, https://asia.nikkei.com/Politics/International-relations/The-first-AI-conflict-Israel-s-Gaza-operation-gives-glimpse-of-future.

[3] Tal MİMRAN & Gal DAHAN, “Artificial Intelligence in the Battlefield: A Perspective from Israel”, 20.04.2024, https://opiniojuris.org/2024/04/20/artificial-intelligence-in-the-battlefield-a-perspective-from-israel/.

[4] Tal MİMRAN & Gal DAHAN, “Artificial Intelligence in the Battlefield: A Perspective from Israel”, 20.04.2024, https://opiniojuris.org/2024/04/20/artificial-intelligence-in-the-battlefield-a-perspective-from-israel/.

[5] Yuval ABRAHAM, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, 03.04.2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/.

[6] ICRC, International Humanitarian Law Databases, https://ihl-databases.icrc.org/en/customary-ihl.

[7] United Nations Office for Disarmament Affairs, https://disarmament.unoda.org/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/.

[8] Birleşmiş Milletler Genel Meclisinin 22.12.2023 tarih 78/241 sayılı kararı: https://docs.un.org/en/A/RES/78/241; Birleşmiş Milletler Genel Meclisinin 02.12.2024 tarih 79/62 sayılı kararı:https://documents.un.org/doc/undoc/ltd/n24/305/45/pdf/n2430545.pdf.

[9] Yuval ABRAHAM, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”, 03.04.2024, https://www.972mag.com/lavender-ai-israeli-army-gaza/.

[10] Uluslararası Adalet Divanı, 19.07.2024 tarihli tavsiye kararı, https://www.icj-cij.org/node/204176.

[11] “Application of the Convention on the Prevention and Punishment of the Crime of Genocide in the Gaza Strip (South Africa v. Israel)”, https://www.icj-cij.org/case/192.

[Dr. Osman Gazi Güçlütürk, Galatasaray Üniversitesi Hukuk Fakültesi Bilişim ve Teknoloji Hukuku Anabilim Dalı Öğretim Üyesidir.]

*Makalelerdeki fikirler yazarına aittir ve Anadolu Ajansının editoryal politikasını yansıtmayabilir.

Anadolu Ajansı web sitesinde, AA Haber Akış Sistemi (HAS) üzerinden abonelere sunulan haberler, özetlenerek yayımlanmaktadır. Abonelik için lütfen iletişime geçiniz.

Source: