Yıkıcı Teknolojiler-4: Silah Teknolojileri

Sağlıklı hiçbir insan, öldürmek istemez. İnsanlar özünde, öldürmeye ve şiddetli çatışmalara meyilli değiller.

Dünyanın, en kanlı savaşlarıyla ilgili günlüklere, notlara baktığınızda da bunu görüyorsunuz. Ne kadar motive olmuşlarsa olsunlar, sonunda savaşın iyi bir şey olmadığını söylerler. Savaş zaten, son kan damlasına kadar değil, savaşmanın anlamsızlığı konusunda hem fikir olunduğunda biter. Masada başlar, masada sonlanır.

Psikolojinin tartışmalı alanı savaş psikolojinin yaşadığı ikilem de, tam olarak bu. Savaşmak istemeyen, savaştan kaçan askerleri; savaşmaya ve öldürmeye ikna etmek. Savaş dinamiklerinin çalışmasını sağlayan, başka bir masa.

Photo by Museums Victoria on Unsplash

Savaş teknolojileriyle ilgili çalışan mühendisleri de, benzer bir çıkmazın içinde görüyorum. Bireysel olarak konuşsanız, savaşa karşı olduklarını ama ülkelerini korumak için her şeylerini vereceklerini söylerler ama mühendisliğin verdiği zevk vicdanın önüne geçer.

Bir askere göre, savaşa çok daha uzak oldukları için, askerin yaptığı vicdani mühasebesine de uzaktırlar. Çünkü veriler, her şeyden önce geliyor. Bunu daha sonraki yazıda tartışacağız.

Buradaki etik soru şu, neden bunu yapmak zorundayız? Ölüm cihazları yapmak neden bu kadar önemli?


Önce teknolojiye göz atalım. Olabilecek ekstrem senaryoları düşünelim, olası etik problemleri gözden geçirelim, fayda ve zararlara bakalım ve son olarak da etik bir duvar var mı, bu konuda yapılan çalışmalar neler diye bakarak yazıyı kapatalım.


Aslında birçok teknoloji sayılabilir bu konuda. Benim aklıma ilk gelen Türkiye’nin övünerek anlattığı, aslında 20–30 senedir var olan ve kullanılan teknolojiler olup, son iki senede daha aktif olarak şahit olduğumuz insansız hava araçları ve yapay zeka entegrasyonu.

Son yıllarda farklı şekillerini ve kullanımlarını gördük. Kamikaze drone diye bir terimi repertuvarımıza kattık.

Lethal Autonomous Weapon Systems (LAWS), insan müdahalesi olmadan, hedefleri bağımsız bir şekilde seçip etkisiz hale getirebilen askeri sistem. Karar almak için, yapay zeka ve makine öğrenmesi algoritmalarını kullanıyor. Drone entegrasyonları dışında, kara araçlarında, sabit savunma sistemlerinde de, yer alabiliyor.

Otonom gözetleme ve Hedefleme sistemleri de, buna benzer. Tek farkı daha çok gözetleme ve veri toplama amaçlı kullanılması. Böylece gözlemleyip, hedef tanıyor ve insan müdahalesi olmadan hedef belirleyip ikinci bir onay olmadan hedefe müdahale edebiliyor.

Benzer, bir sürü teknoloji mevcut. Kimisi atış desteği sağlıyor, kimisi hedef ayrımı yapıyor, kimisi ise kendi kendine karar verip, harekete geçiyor.

Otonom silahların en önemli özellikleri, insan müdahalesine ihtiyaç duymaması, zor şartlarda insan hayatını riske atmadan kullanılmaları, hızlı ve düşük hatalı karar vermeleri, gerçek zamanlı veri analizi yapmaları.

https://www.aljazeera.com/news/2023/3/1/did-ukraine-start-a-drone-war-on-russia

Hızlı ve düşük hatalı dedik ama kime göre? Elbette nasıl tanımlandığına ve önceki verilere göre. Bu da büyük bir risk ortaya çıkarıyor. Hatalı karar!

Otonom silahın, veriyi yanlış okuduğunu ve sivil bir hedefi vurduğunu düşünün. Bu olay, 2020 yılında Libya’da gerçekten yaşandı. Türk yapımı Kargu-2 Dron’u verilen emir dışında, bir hedefe kitlenerek sivil aracı vurdu. Bizim gazetelerde duymamışsınızdır, çünkü TSK sadece doğru hedefi vurur, değil mi?

Bu hafta, yapay zeka çalışmaları nedeniyle, iki bilim insanı Nobel Fizik ödülü aldı. İkisinin de, çalışmalarındaki uyarısı diğer bir risk. ‘İnsan kontrolünün kaybolması’.

Silah teknolojileri söz konusu olunca, bu risk daha da büyüyor çünkü bu robotlar emir-komuta zincirinin ötesinde çalışıyor. Bu da, toplu izleme, toplu katliam ve mutlak güç baskısı riskini de yanında getiriyor.

Ayrıca bu silahlanma ve teknoloji yarışı, daha da kızışıyor ve şiddetin artmasına da zemin hazırlıyor. İsrail’in çağrı cihazı saldırısını düşünün. Mühendislik ve tedarik zinciri anlamında, bir dönüm noktası.

https://israelradar.com/pager-attack-on-hezbollah-things-you-need-to-know/

En büyük risklerden bir tanesi de, bu yarışa, devlet dışındaki aktörlerin de dahil olması. Dünyanın her yerine internet sağlayacağız, herkes aynı interneti, aynı şartlarda kullanacak diye yola çıkan Space-X uydularını düşünün. Artık her savaş haberinin yanında Elon Musk fotoğrafı var. Bilgi paylaşacak mı, paylaşmayacak mı? Elindeki gücü düşünün. Bir de, diğer özel şirketlerin, terör organizasyonlarının, teknoloji yarışında güçlendiğini düşünün. Otonom atakların arttığını, ucuzladığını… Dünyadaki, dengelerin ve stabilitenin bir anda tersine dönmesi an meselesi.

Neden silah teknolojilerine bu kadar yatırım yapılıyor?

Elbette bunun ilk sebebi güvenlik ve rakiplerine karşı geri kalmamak. Diğer sebebi ise, daha hassas cihazlar yaparak, askeri etkinliği artırmak. Böylece, birçok kişinin cepheye gitmesi gerekmiyor, oldukça büyük veriler kısa sürede analiz edilebiliyor, personel üzerindeki stres de azalıyor. Bu sayede de, insan hatası en aza indirgeniyor, sivil kayıplar azalıyor ve uzun vadede savaş masrafı da azalıyor. (aynı zamanda daha çok savaş için de, birebir faydalar)

Diğer sebep de, ana küresel aktörler arasındaki silah yarışı. Çin, ABD ve Rusya bu konuda ilerledikçe, diğer ülkeler de arayı kapatmayı ve askeri alanda söz sahibi olmayı istiyor. En azından, bu güçlere karşı ellerinde kozlar olmasını. Bu anlamda, teknoloji yarışı oldukça demokratik ve tek kutuplu dünya algısını da yıkıyor.

Bu yaklaşımın bir faydası da, bunca yatırım ve iş gücüyle üretilen bilginin, diğer alanlarda da, gelişimi hızlandırması. Fakat faydası var diye, bu işi büyük bir yarışa çevirmek elbette mantıklı değil. Birçok etik soru var.

Etik Kaygılar

Etik kaygıların en temeli, sorumluluk. Eğer bu silahlar sivil öldürürse, savaş suçu işlerse bundan kim sorumlu? Algoritmayı yazan mühendis mi? Uygulayan asker mi? Yoksa gereksinimleri sunan kişiler mi? Belki de, yapay zekanın kendisi…

Bu belirsizlik, hem yasal hem de etik olarak büyük bir çıkmaz. Hali hazırdaki yasalar, bu sorunu çözmek için son derece yetersiz ve bozuk.

Önyargı ve ayrımcılık ise diğer bir risk. Daha önce, teknolojik ayrımcılıktan bahsetmiştim. Bir örnek de, sabun cihazı mesela. Beyazlarda hata oranı %1 iken, siyahiler de, kızılötesi sensör %60 civarında hata yapmış. Link.

https://www.einrichten-design.de/de/emperor-automatic-soap-dispenser-seifenspender-umbra-einzelstueck/umbra-1016999-050.html

Yapay zeka sistemleri, eğitildikleri veri ne kadar iyiyse, o kadar iyi sonuç veriyor. Birçok çalışma yüz tanıma sistemlerinin, cinsiyet ve ırklara göre farklı sonuçlar verdiğini gösteriyor. Bu cinsiyet ve ırk önyargısı, azınlıklara karşı orantısız güç kullanımının da önünü açıyor. Çatışma durumunda, ciddi bir insan hakları ihlali olması çok muhtemel.

Tüm bunların dışında daha büyük ve daha geniş felsefi bir soru daha var. Ölüm ve yaşam kararını makina nasıl verecek ve neden verecek?

Savaş, temel olarak insan aktivitesi. Ölüm-yaşam kararının makinalara bırakılması, geleneksel savaş etiği için de büyük bir sorun. İnsan vicdanını ve empatisini savaş alanlarından çıkarmak, doğal olarak, şiddeti ve büyük bir yıkımı da yanında getiriyor. İnsan onurunu ve vicdanını bu kadar yok saymak ve önemsiz görmek de, büyük bir soru işareti.

Sorunun ciddiyetini bir de, şu açıdan değerlendirilim. İnsan öyle ya da böyle, yaptığı eylemin sonucunu düşünüyor ve sonucunu yaşıyor. Psikolojik olarak, sosyal olarak, yasal olarak bu sonuca katlanıyor.

Makinalar ise, tüm bu iç muhasebeler ve gelecek sonuçlardan bağımsız savaşıyorlar. Bu sebeple, Birleşmiş Milletler gibi örgütler LAWS silahlarının yasaklanması için ‘Ölüm Robotlarını Durdurun’ çağrısı yapıyor. Uluslararası yasak için çalışıyor. Benzer çalışmalar; İnsan Hakları İzleme Örgütü, Kızıl Haç, Gelecekteki Hayat Enstitüsü, Otonom Silahları Düzenleme Uluslararası Paneli, 36.Madde gibi oluşumlar tarafından yapılıyor. Zaman zaman, yüzlerce bilim insanının, toplanım imza sunduğunu, kimi zaman sokağa çıktığını okumuşsunuzdur.

Şu an, bu konuda uluslararası küresel bir mekanizma yok, okuduğum kadarıyla. Bazı ülkeler, bu teknolojilerin yasaklanması ve sert şekilde kontrol edilmesi çin daha çok ön plana çıkıyor. Bazı ülkeler ise, askeri rekabetin gerekli olduğunu savunuyor. Bu da, halen daha büyük risklerin devam ettiğini gösteriyor.

Teknoloji geliştikçe; hukukçuların, etik düşünürlerin, askeri liderlerin, politikacıların bu konuda daha kapsamlı çalışması gerekiyor. Net ve güçlü düzenlemeler olmalı. Savaşların geleceği, hatta belki insanlığın geleceği de buna bağlı. O nedenle, yerli ve milli övgüler yaparken, iki kere düşünün.

Dipnot: Birleşmiş Milletler, İnsan Hakları İzleme Örgütü, Dünya Sağlık Örgütü, İklim Hareketi Network’ü gibi uluslararası kuruluşların, devletler ve özel sektör üzerinde yaptırım gücü olmalı ve artmalı bence. Bu tip, kuruluşlar, hiç olmadığı kadar önemli günümüz teknoloji dünyasında. Aksi halde bilimsel uyarılar da, bir anlam ifade etmiyor. Uyarı olarak kalıyor.

,

Comments

Leave a comment