Yıkıcı Teknolojiler-5: Veri Temelli Kararlar

Elime ilk silah aldığımda, silah su sıkıyordu. Başkasına sıkması keyifliydi ama bana sıkılınca, o kadar da eğlenceli gelmiyordu. Daha sonra yapışkanlı tabancam oldu. Sağ sola atıp, plastik mermiyi yapıştırıyorduk. Bir kere yanlışlıkla arkadaşın alnına yapışmıştı. Beraber gülmüştük.

Photo by Katja Anokhina on Unsplash

Biraz büyünce bilgisayar oyunlarıyla tanıştım. Aynı zamanlarda, boncuklu tabancalar da, meşhurdu. Bilgisayarda, tak tak rakipleri indirirken, gerçekte ise boncuklu tabancayla çatışmacılık oynuyorduk. Bir kuralımız vardı, yakından sıkmak yasak. Zaten yakından bile bile sıkana, ruh hastas gözüyle bakıyorduk. Bir insan, kadar acımasız olabilir mi? Bu oyunda, canı yanan çok oldu yine de. Tehlike arttıkça ve biz büyüdükçe uzaklaştık bu oyundan. Bilgisayara daha çok yumulduk. En azından kimsenin canı yanmıyordu. Kanar fışkırsa da, karakter tekrar geri geliyordu.

Photo by Kony on Unsplash

Gerçek silahla ile ilk tanışmam, havaya sıkmayı ve çocuğa bunu öğretmeyi marifet sanan bir yakınım sayesinde oldu. Çocuklar sıraya giriyordu, ben ise zorla sıraya katılmıştım. Hiç ilgim olmadığı gibi boşa sıkmak manasız geliyordu.

En son olarak ise askerdeydi. 3 Mermi sıktık, nereye gittiğiyle alakalı bir fikrim yok. Hedefi tutturmak için iki karış sola hedef almak gerekiyordu. O kadar kalibre.

Askerde, gerçek hedefi vurmak nasıl olur diye düşündüğüm oldu. Aklıma izlediğim filmler geldi. İlk sefer her zaman zor. Bir de gözünün içine bakma… Bu sözleri bir kere daha duymuştum. Kurban, kesilirken. Hazvanın gözüne bakma. Bakarsan, kesemeyebilirsin. Brlki de, inançsızlığımın başlangıcı bu cümleydi. Vicdanının el vermediği bir eylemi neden zorla yapıyorsun ki? Eylem, can almak. İlginç değil mi? Tanrı, savaş mı istiyor yoksa savaş durumuna alıştırma mı bu? Fanatik pakistanlı bir arkadaş, kurban sayesinde doğamızdaki agresifliği ve öldürme isteğini gideriyoruz demişti. Öldürmek nedir anlıyoruz demişti. Daha da, dehşete düşmüştüm.

Photo by Sergey Koznov on Unsplash

Teknoloji sayesinde, bu vicdan çatışmasından kurtulduk. Artık et bizim için, buzluktaki paketlerden ibaret. Ne göz görüyorsun, ne de herhangi bir duygu. Midemizi doldurmak için milyonlarca hayvan üretip, gözlerinin yaşına bakmadan yok ediyoruz. Benzerini savaşlarda da yapıyoruz. Bilgisayar oyunlarıyla büyümüş nesil, aynı oyuna yetişkin olarak devam ediyor. Tek farkı, karakterler geri gelmiyor. Tıpkı vurularak ölen hiç tanışmadığım dayım, Irak’ta şehit olan polis memuru amcam ve onlar gibi neden savaştığını bilmeye, büyük bir amaca hizmet ettiğini düşünen, ölünce kutsanan, ölmezse akla bile gelmeyen binlerce insan gibi.


Anma tadında yaptığım giriş biraz alakasız oldu. ve hayır! Karamsar ve olumsuz bir insan değilim, sadece olumsuzluklar hayatın kabul etmemiz gereken bir parçası.

Konumuz veri ve veriye dayalı kararlar aslında.

Veri hayatımızın her yerinde.

En basit örneği, internet ve streaming platformları. İnternet ve streaming platformları bizden fazlasıyla veri toplayıp, ona göre kişiselleştirilmiş öneriler sunuyor. Böylece ilginize göre daha çok içerikle haşır neşir oluyor, bilgi denizinde kaybolmuyorsunuz. Bu da, karar verme kargaşımızı biraz olsun azaltıyor.

Netflix’te saatler geçirip, hiçbir şey izlemediğiniz olmuştur kesin. Bazen de tam tersine, önünüze çıkan şey güzel gözüküp, hemen başladığınız. Veriler, sizin ilginizi filtrelemese, ilk senaryo muhtemelen çok daha uzun zaman alır ve sık yaşanırdı. Eskide böyle bir şey yoktu elbette. Sinemeya gidip 5 film arasından seçip yapıyorduk, ya da DVD mağazasına gidip, aradğımız şeyi alıyorduk.

Photo by Microsoft Edge on Unsplash

Online alışveriş siteleri de, veri temelli kararlara diğer bir örnek. Bazen konuştuğunuz şey bile anında karşınıza çıkabiliyor ama o şeyi arıyorsanız da, böyle bir algı seçiciliği yaşamıyorsunuz. Kolay buldum diye, seviniyorsunuz. Algoritmaları, suçlamıyorsunuz. İşin her zaman iki tarafı. veriyi toplayan ve en iyi hizmeti sunmaya çalışan taraf ve veriyi veren, hizmeti alan taraf. Biri daha çok kar ederken, diğeri de daha çok harcıyor.

Sağlık sektöründe de, teknoloji hızlı şekilde nüfus ediyor. Hastadan daha çok veri alınabiliyor, gerçek zamanlı kalp, şeker, kas aktivitesi gibi izlemeler yapılıyor ve gerekli tanılar çok daha hızlı şekilde koyulabiliyor. Benzer şekilde hastanın önceki verileri, genetik indikatörleri, hayat tarzı gibi faktörlerle gelecek riskler de, ortaya koyulabiliyor. Daha çok veri, daha kesin, yerinde ve zamanında karar.

Üretimde de, veri önemli. Şirketler bu sayede, üretim etkinliklerini daha etkin hale getirebiliyor ve israfı da engelliyor. Üret, kontrol et ve tepki gösterin yerini; proaktif üretim yani üretirken müdahale et yöntemi alıyor. Daha çok veri, daha çok sürdürülebilirlik, daha iyi hizmet ve daha kaliteli ürün.

Photo by Compare Fibre on Unsplash

Eğitim platformlarındaki değişimi de farketmişsinizdir. Bu platformlar, öğrenme hızınız ve içeriğinize göre size içerik sunuyor. Hem kendi hızınıza göre öğreniyor hem de kendi güçlü yanlarınıza uygunn teknikle öğrenmeniz sağlanıyor. Duolingo buna güzel bir örnek.

Vermek istediğim son örnek de, yasal ve politik kararların, veri aracılığıyla verilmesi. Bazı ülkelerde, algoritmalar aracılığıyla, potensiyel suçlular belirleniyor, geçmiş veriye dayalı gelecek tahmin raporları oluşturuluyor. Suçun önlenmesi için oldukça güzel. Yoksa bombacıyı, bombayı patlatmadan yakalamak mümkün değil diyorlar.

Sadece bu örneklerden yola ıkarak aklıma şu sorular geliyor:

  1. Hayatımızın büyük bir kısmını online geçiriyoruz. Davranış kalıplarımızı çözmek o kadar zor değil. Bu kadar veri ile, birilerinin bizi, kendimizden daha iyi tanıma ihtimali var mı? (Bkz: Veri Gizliliği ve Paylaşımı)
  2. Aynı gruptan toplanan veriye dayalı ticari arz, bu grupların daha kutuplaşmasına ve marjinalleşmesine yol açmıyor mu? Eleştirel düşünce ve açık görüşlülük yok olmuyor mu?(Bkz. Yankı Odaları)
  3. Yanlış geribildirim döngüsüne girilirse, ne oluyot? (Güzel bir örnek: Birbirbib aynısı Netflix Film ve Dizileri. Taylor Swift hayranı, tiktok kitlesi vs.)
  4. Sağlık verileri kötüye kullanılabilir mi? Sağlık verileri, kar politikalarına alet olabilir mi? (Daha büyük kitleyi etkileme ihtimali olan hastalıklar üzerinden, tüketici ürünlerinin patlaması) (Bkz. Veri Gizliliği)
  5. Etkin üretim, daha çok üretimi; daha çok üretim, daha çok kaynak kullanımını tetiklemiyor mu? Bunun çevreye etkisi ne, bunu nasıl ölçüyoruz, nasıl değerlendiriyoruz?(Değerlendirmiyoruz) (Bkz. Elektrikli arabalar ve pil üretimi için yapılan orman katliamı)
  6. Veriye dayalı eğitim içerikleri, propaganda ve kitle manipulasyonu için kullanılabilir mi?
  7. Hatalı ya da eksik algoritmalar sonucu yanlış kararlar verilip verilmediği nasıl kontrol edilmeli?
  8. Tüm kararları veriler üzerinden verdiğimizde, politikacılar ve diğer yalancılar ne yapacak?
  9. Hayvanın gözüne baktığı için, onu kesemeyen adam; bu vicdani kararı makinalara bırakınca, daha büyük bir kıyım ve vahşet yaşamayacağımızı nasıl garanti edeceğiz?
Photo by Nick Morrison on Unsplash

Etik Riskler ve Hatalar

Önyargılar

Bireylerin ve toplumların önyargıları, veriye dayalı karar verme adına büyük bir engel. Daha önceki yazılarda anlattığım gibi, dil, din, ırk gibi önyargılar yanlış sonuçları artıracaktır.

Basit bir örnek. Kürtlerin, eğitimde başarısız olduğunun düşünülmesi. Aynı imkanlar veriliyor ama başarılı olamıyorlar deniliyor. İspatı ise veriler. Atlanılan kısım ise, anadillerinde öğrenmemeleri, eşit ekonomik fırsatlara sahip olmamaları, sosyal güvenliklerinin aynı olmaması gibi sebepler.

Benzer şekilde kadınların, iş dünyasında ve politikada başarısız olduğuna inanılması. Verilerin daha çok erkek göstermesi, erkeğin daha başarılı olduğu anlamına gelmiyor. Bir sürü ölçülebilir ve ölçülemez parametre var.

Peki ön yargıları beslemeden algoritma nası yazılır? İşin en büyük çımazı da bu.

Veri Gizliliği

Oldukça kompleks bir sorun. Çünkü bir yandan, verilerimizi vermeden hiçbir şey yapamıyoruz, öte yandan verilerimiz güvende mi emin olamıyoruz. Google, facebook gibi platformlar hayatımızı tamamen yok edebilecek ya da hayata bakışımızı tamamen değiştirebilecek verilere sahip.

Bunun önüne geçmenin yolu, veri takibinin engellemesi mi? Değil. Yine çıkmazımız, bunu nasıl etik şekilde yapabiliriz.

Otonomi ve Manipulasyon

Algoritmalar, gelecek davranışları tahmin etmek üzere tasarlanıyor. Basit bir alışveriş davranışı genelde önemsiz görülüyor. Tüm parçaları birleştirdiğinizde ise, sizi sizden daha iyi tanıyan bir sisteme çatmanız muhtemel. Bu, kişinin özgürlüklerini de kısıtlayabilecek bir durum.

Mesela sosyal medya, sizi benzer düşünen, benzer fikirlerdeki topluluklara itiyor; ya da sizin hoşunuza gidebilecek, daha yakın hissedeceğiniz ürünlere. Sonuçta, özgür karar veriyor musunuz? Hayır.

Peki şirketler, kar maksimizasyonu yerinde, sizin özgürlüğünüzü ve sosyal dezavantajlarınızı mı düşünmeli? Tartışılır. Bence çözüm, teknoloji eğitiminden geçiyor.

Photo by Tingey Injury Law Firm on Unsplash

Sorumluluk ve Veri Şeffaflığı

Algoritmalar ve hatta elimizdeki cihazlar, büyük ölçüde kara kutu herkes için. İçinde ne döndüğünü, neye göre karar verdiğini bilmiyoruz. Mesela yapay zeka aracılığı ile işe alım kararı verilebiliyor. Reddedilen kişiye ise, hiçbir açıklama yapılmıyor. Eğer yapay zeka değil, birey karar verse; suçlayabileceğiniz onca şey var. Yapay zekayı ise suçlamak imkansız. Peki kararın doğruluğundan, şeffaflıktan, algoritmanın belli ön yargılar barındırmadığından kim sorumlu olmalı? Veri, kadınların politikadaki başarı örneğinde olduğu gibi tek taraflı bir sonuç veriyorsa; yapay zeka bu sonuç üzerinden erkekleri kabul ediyor, kadınları etmiyorsa; algoritmayı ve veriyi suçlayabilir miyiz? Yine güzel bir paradigma.

Erişim ve Eşitsizlik

Başka bir konu da, verinin işlenmesi ve erişimi. Büyük firmalar, daha fazla imkana sahip olduğu için, daha büyük çapta verileri elden geçirebiliyor ve saklayabiliyor. Bu da rakipleri, daha ortaya çıkmadan yok ediyor. Google ve facebook’un önünde durmak nedenle imkansız. Verilerin hepsini yakmak, yok etmek, serverları patlatmak gerekiyor. Amazon gibi firmalar ise, küçük rakiplerinden anında haberdar olup, büyümeden ezebiliyor mesela. Bunun önüne nasıl geçilebilir? Demokratik bir veri erişimi nasıl sağlanır?

Vicdan ve Robotlar

Bunu zaten savaş teknolojileri yazısında konuştuk. Bu yazıda da fikri verdik. İnsan veremediği etik kararları, kolaylıkla makinalara devredebilir. Bu durumunda kimi suçlayacağız? Mesela sınırdan geçen herkesi vur denilse, bunu bir insan yapamaz ama makina yapar. Arada sivil, sivil değil ayrımı da yapmaz. Bugün bunu dronların savaş alanlarında kullanılmasıyla görüyoruz. Pager atağı ile gördük, Filistin’de gördük. Oyun oynar gibi bomba salladığında, iş çocuk oyuncağı.

Benzer şekilde, yasal kararları bu şekilde verirsek, mesela ABD’de şu an bile tonlarca yanlış karar yüzünden idam edilen insanlar var. Bu kararları makinaya bıraktığımızda, bundan haberimiz bile olmayacak belki. Benzeri medikal teşhisler, üretim kararları, akıllı araçların stres anındaki kararları, otonom yolcu uçaklarının çevre verileri üzerine verdiği kararlar, sinyalizasyon kararları gibi birçok senaryoda düşünebiliriz.

Photo by Possessed Photography on Unsplash

Haklar

Bir soru işareti de, sorumluluk gibi haklar konusunda. Sıradan vatandaşlık işlerini yapan robotlar, algoritmalar ve diğer teknolojik ürünleri bizler gibi hissetmiyor, bilinç sahibi değiller ama karar verici konuma gelebiliyorlar. Bu durumda, her şeyden bağımsız bir hak tanıması, yasal yükümlükler olacak mı? Bu konu aslında kulağa geldiği gibi saçmalık değil, çok daha karmaşık bir konu. Belki ileride, yazma fırsatım olur ama robot ve yapay zeka hakları da, ilerleyen yıllarda gündeme gelecek konulardan.

Çözüm

Çözüm aslında zor. Geçmiş ve gelecek çatışması bu. Hem de insanın var olma, var olurken de gelişme savaşı. Gelişirken de, insan olarak kalma savaşı.

Şu anki çözümler, teknolojinin aksine daha klasik ve ilkel aslında. Tekrar, sistemin ve insanlığın en temeline dönüyoruz gibi hissettiriyor.

Bunlardan birisi, daha sık teftiş. Sadece bu konuda uzmanlaşmış, organizasyonalr aracılığıyla, algoritma ön yargılarının araştırılması, veri bloklarının incelenmesi yani klasik mahkeme sürecine benzer süreçlerin oluşturulması.

Veri şeffaflığı ve rızanın sağlanması. Bu konuda neler yapıldığını gördük son yıllarda. Ekrana sürekli, içeriğini okumadığımız uyarılar geliyor. He diyip geçiyoruz. Bu işlerin biraz daha, kullanıcı dostu olması şart. Kullanıcının da, bu konularda eğitilmesi.

Benzer bir çözüm de, yapay zekanın açıklanabilirliği. Kullanıcıya, karar verme mekanizmaları, parametreleri açıklanabilir olmalı ve kişiler kendilerinden ne beklendiğini bilmeli. Özellikle; sağlık, finans, hukuk gibi alanalrda bu olmazsa olmaz.

Daha çok kural ve yasa. Yine oldukça ilkel ve sıkıcı bir çözüm. Aynı zamanda inovasyonu ve araştırmayı da öldüren, motivasyonu kıran bir çözüm ama etik bakış açısını başka şekilde kazanmamız da zor. Kullandığımız ürün ve teknolojilerle bile bu sorunu yaşıyorken; çok daha gelişmiş teknolojilerle vuracağımız etik duvarı çok daha sert olacak.

Küçük firmaların desteklenmesi. Bu çözüm de yine ilkel ama biraz zorla da olsa, küçük firmaların ve teknoloji üreticilerinin imkanları desteklenirse; teknolojik gelir ve zenginlik daha demokratik dağıtılırsa, yine birçok sorunun önüne geçmemiz kolaylaşır. Özellikle çevre konusunda, bu kesinlikle yapılması gereken bir şey. İklim değişikliği ile ilgili teknolojiler diğerleri kadar para getirmediği için, diğerleri kadar destek de görmüyor. Her ne kadar, en önemli teknolojiler olsalar da.

Sonuç

Veriler, bir yandan hayat kurtarasalar da, bir yandan büyük bir boşluk yaratıyor etik ve gelecek konusunda. Etik kodların net bir şekilde ortaya koyulması; sadece tüketiciyi değil, üreticiyi, çevreyi ve insanığın geleceğini de iyi yönde etkilecektir.

Photo by Kacper Brezdeń on Unsplash

Bonus

Bonus bölümünde, veri tabanlı kararların yanlış kullanıldığı örnekleri vereceğim. Gördüğünüz ve göreceğiniz gibi veri kadar veri yorumlama da önemli. Daha sonra da, yorum üzerine verilen karar. Bazı hataları algoritmalarla, sıfıra yaklaştırabilecekken, bazen de tam tersi. O nedenle, gizlilik, şeffaflık, regulasyonlar çok önemli. Aynı zamanda insan ve makinanın doğru etkileşimi.

Bonus bölümünün içeriği, chatgpt’den kopyala ve yapıştır.

Veri Tabanlı Kararların Yanlış Kullanıldığı Aşırı Örnekler

1. Cambridge Analytica Skandalı (2016)

Ne Oldu: Cambridge Analytica, milyonlarca Facebook kullanıcısının kişisel verilerini onların rızası olmadan topladı. Bu veriler, seçmenlerin psikolojik profillerini oluşturmak ve siyasi kampanyaları etkilemek amacıyla kullanıldı. Bu kampanyalar arasında 2016 ABD başkanlık seçimleri ve Brexit referandumu da yer aldı.

Ne Yanlış Gitti: Firma, kullanıcıların izni olmadan verileri istismar etti ve bu verilerle kamuoyunu manipüle etti. Algoritma, insanların sosyal medya aktivitelerini kullanarak siyasi görüşlerini yönlendirdi.

Etik Hatalar:

  • Kullanıcılardan açık rıza alınmaması.
  • Verilerin bilgilendirmek yerine manipülasyon amacıyla kullanılması.
  • Kutuplaşma ve yanlış bilgilendirmenin yaygınlaştırılması.

Sonuçlar: Gizlilik ihlali nedeniyle büyük bir kamuoyu tepkisi, Facebook’un küresel çapta bir skandala karışması ve Avrupa’da Genel Veri Koruma Yönetmeliği (GDPR) gibi daha sıkı veri gizliliği düzenlemelerinin uygulanması.

2. Amazon’un Cinsiyetçi İşe Alım Algoritması (2018)

Ne Oldu: Amazon, teknik pozisyonlar için başvuruları değerlendiren bir yapay zeka destekli işe alım aracı geliştirdi. Ancak, algoritma sistematik olarak kadınlara karşı ayrımcılık yaparak erkeklerle ilgili terimler içeren özgeçmişleri tercih etti.

Ne Yanlış Gitti: Algoritma, erkek egemen teknoloji sektöründeki geçmiş özgeçmişler üzerine eğitildiği için erkekleri tercih etmeye başladı ve cinsiyet ayrımcılığını pekiştirdi.

Etik Hatalar:

  • Eğitim verilerindeki önyargılar nedeniyle adaletsiz sonuçlar doğurması.
  • Algoritmanın nasıl karar verdiğinin şeffaf olmaması.
  • Kullanıma sunulmadan önce önyargı denetimlerinin yapılmaması.

Sonuçlar: Önyargının keşfedilmesinin ardından araç iptal edildi. Bu olay, yapay zeka adaleti ve sistemik önyargıların “tarafsız” görünen algoritmalara nasıl yerleşebileceği konusundaki tartışmaları alevlendirdi.

3. Microsoft’un Tay Chatbot’u (2016)

Ne Oldu: Microsoft, insan sohbetlerini öğrenip taklit etmesi için Twitter üzerinde bir yapay zeka chatbot’u olan Tay’i piyasaya sürdü. Ancak, kötü niyetli internet kullanıcıları Tay’e ırkçı, cinsiyetçi ve saldırgan içerikler öğretti. Bunun sonucunda Tay, nefret söylemi ve hakaret içeren tweet’ler üretmeye başladı.

Ne Yanlış Gitti: Yapay zeka, kullanıcılar tarafından sağlanan toksik girdilere karşı savunmasızdı. Kötü niyetli davranışları önlemek için herhangi bir güvenlik önlemi bulunmadığından, zararlı içerikler yayılmaya başladı.

Etik Hatalar:

  • Kullanıcıların kötüye kullanımını öngörememe.
  • Zararlı davranışları engelleyecek içerik denetiminin olmaması.
  • Yapay zekanın sosyal etkileşimlerden öğrenmesi için etik yönergelerin bulunmaması.

Sonuçlar: Tay 24 saat içinde çevrimdışı hale getirildi ve bu olay, yapay zeka sistemlerinin kontrolsüz ortamlar içinde güvenlik önlemleri olmadan nasıl zararlı sonuçlar doğurabileceğini gösterdi.

4. Apple Card Cinsiyet Ayrımcılığı (2019)

Ne Oldu: Apple ve Goldman Sachs tarafından tanıtılan Apple Card, bazı kullanıcılar tarafından cinsiyet ayrımcılığı yapmakla suçlandı. Kadınlara, aynı veya daha iyi finansal geçmişe sahip olmalarına rağmen erkeklere göre daha düşük kredi limitleri verildiği ortaya çıktı. Apple’ın kurucularından Steve Wozniak bile kendisi ve eşinin kredi limitleri arasındaki farkı kamuoyuna açıkladı.

Ne Yanlış Gitti: Algoritma, erkekleri kadınlara göre daha yüksek kredi değerinde değerlendiren cinsiyetçi verilere dayanıyordu. Algoritmanın nasıl çalıştığına dair bir şeffaflık olmadığı için, bu önyargının nasıl ortaya çıktığı anlaşılamadı.

Etik Hatalar:

  • Kredi değerlendirmelerinde cinsiyet ayrımcılığı.
  • Karar verme süreçlerinde şeffaflık eksikliği.
  • Sistem kullanılmadan önce adalet kontrollerinin yapılmaması.

Sonuçlar: Konuyla ilgili düzenleyici kurumlar tarafından soruşturmalar başlatıldı ve bu olay, finansal hizmetlerde algoritmik önyargı tartışmalarını alevlendirdi, yapay zeka sistemlerinde daha fazla hesap verebilirlik çağrılarına yol açtı.

5. Chicago’daki Öngörücü Polislik Sistemi (2013)

Ne Oldu: Chicago Polis Departmanı, şiddet suçları işleme olasılığı yüksek kişileri belirlemek için bir öngörücü polislik algoritması kullanmaya başladı. Algoritma, “tehlike listesi” adı verilen bir liste oluşturarak yüzlerce kişiyi suç işlemesi muhtemel olarak işaretledi. Ancak listede yer alan birçok kişi, hiçbir suç geçmişine sahip değildi.

Yanlış Giden Neydi: Algoritma, tarihi suç verilerine dayanarak özellikle siyahi toplulukları hedef aldı. Suç işlememiş bireyler yalnızca belirli mahallelerde yaşadıkları ya da belirli demografik özelliklere sahip oldukları için polisin artan baskısına maruz kaldılar.

Etik Hatalar:

  • Tarihi verilere dayanan ırksal önyargıların sürdürülmesi.
  • Kişisel hak ve özgürlüklerin, profil oluşturma yoluyla ihlal edilmesi.
  • Algoritmanın risk faktörlerini belirleme sürecinin şeffaf olmaması.

Etkisi: Kamuoyunun ve sivil hak gruplarının tepkisi üzerine, öngörücü polislik sistemleri ciddi şekilde eleştirildi. Yapay zekanın polislik gibi yüksek riskli karar süreçlerinde kullanılması konusundaki tartışmalar arttı.

6. Uber’in Greyball Programı (2017)

Ne Oldu: Uber, Greyball adlı bir araç kullanarak düzenleyicilerden ve kolluk kuvvetlerinden kaçtı. Bu araç, Uber sürücülerini yakalamaya çalışan yetkilileri tespit etti ve onlara sahte uygulama versiyonları göstererek gerçek yolculukları engelledi.

Yanlış Giden Neydi: Bu araç, bilerek yetkilileri kandırmak için tasarlanmıştı ve yasaların ve düzenlemelerin ihlal edilmesine yol açtı. Uber, bu teknolojiyi kar amacıyla kötüye kullanarak hem şeffaflığı hem de etik ilkeleri ihlal etti.

Etik Hatalar:

  • Hükümet yetkililerini ve düzenleyicileri kasten yanıltma.
  • Teknolojinin yasaları atlamak için kötüye kullanılması.
  • Şeffaflık ve adalet ilkelerinin çiğnenmesi.

Etkisi: Uber, yasal sonuçlarla karşı karşıya kaldı ve itibarını zedeledi. Greyball olayı, teknoloji şirketlerinin kontrolsüz gücü hakkında büyük endişelere yol açtı.

7. Boeing 737 Max Yazılım Hatası (2018–2019)

Ne Oldu: Boeing’in 737 Max modelinde bulunan Manevra Karakteristikleri Takviye Sistemi (MCAS), uçakların stall (havada hız kaybedip düşme) riskini azaltmak için tasarlandı. Ancak sistem, sensörlerden yanlış veri aldığında, uçağı zorunlu olarak aşağı yönlendirdi. Bu yazılım hatası, 2018 ve 2019 yıllarında iki ayrı uçak kazasına yol açtı: Lion Air Flight 610 ve Ethiopian Airlines Flight 302 kazaları.

Yanlış Giden Neydi: Sensörlerden gelen yanlış verilere dayalı otomatik müdahaleler, pilotların uçağı kontrol etmesini zorlaştırdı. Boeing, pilot eğitimini ve sistemi daha şeffaf bir şekilde açıklamadan piyasaya sürdü, bu da ciddi sonuçlara yol açtı.

Etik Hatalar:

  • Eksik pilot eğitimi ve bilgilendirme.
  • Güvenlikten ödün vererek ticari çıkarların ön planda tutulması.
  • Sistemlerin yeterince test edilmemesi ve denetim eksikliği.

Etkisi: Her iki kazada toplam 346 kişi hayatını kaybetti. Boeing, dünya çapında büyük eleştiriler aldı ve 737 Max uçaklarının uçuşları geçici olarak durduruldu. Bu olay, teknoloji ve insan güvenliği arasındaki hassas dengeyi ortaya koydu.

8. Therac-25 Radyoterapi Cihazı (1985–1987)

Ne Oldu: Therac-25, kanser hastalarını tedavi etmek için kullanılan bir radyoterapi makinesiydi. Ancak yazılım hataları nedeniyle bazı hastalara yüksek dozda radyasyon verildi, bu da ciddi yaralanmalara ve ölümlere yol açtı.

Yanlış Giden Neydi: Cihazın yazılımında yapılan hatalar, güvenlik protokollerinin atlanmasına neden oldu. Operatörler sistemin güvenlik açığından habersizdi ve bu nedenle hatalar tekrar tekrar meydana geldi. Yazılım hatası, cihazın manuel güvenlik kontrollerine izin vermediği için ölümcül sonuçlar doğurdu.

Etik Hatalar:

  • Güvenlik testlerinin yetersiz yapılması.
  • Kullanıcı eğitiminin ve sistem şeffaflığının eksik olması.
  • Güvenlik sorunları ortaya çıktığında zamanında müdahale edilmemesi.

Etkisi: Altı hasta aşırı radyasyona maruz kalarak ya öldü ya da ciddi şekilde yaralandı. Bu olay, tıbbi cihazların yazılım güvenliğine ilişkin denetimlerin artırılmasına yol açtı.

9. Vioxx İlacının Piyasaya Sürülmesi (1999–2004)

Ne Oldu: Merck tarafından üretilen Vioxx adlı ağrı kesici, piyasaya sürüldükten kısa bir süre sonra binlerce kullanıcının kalp krizi ve felç geçirmesine yol açtı. Klinik veriler, ilacın bu risklerini gösteriyordu, ancak Merck bu bilgiyi gizledi.

Yanlış Giden Neydi: Şirket, ilacın tehlikelerini bilmesine rağmen bunu halka açıklamadı ve ilaç kullanımına devam edildi. Veri analizlerinde, Vioxx’un özellikle uzun süreli kullanımda kardiyovasküler riskleri artırdığı ortaya çıkmasına rağmen, bu bilgi zamanında açıklanmadı.

Etik Hatalar:

  • Kritik güvenlik verilerinin saklanması.
  • Ticari çıkarların halk sağlığının önüne konması.
  • İlacın etkilerinin yeterince izlenmemesi ve doğru bilgilendirme yapılmaması.

Etkisi: Vioxx dünya çapında 80.000’den fazla kalp krizine ve binlerce ölümcül vakaya neden oldu. Merck, milyarlarca dolarlık tazminat ödemek zorunda kaldı ve olay, ilaç şirketlerinin veri analizlerinde daha şeffaf olmaları gerektiğini gösterdi.

10. Ford Pinto Patlama Skandalı (1970’ler)

Ne Oldu: Ford’un Pinto model arabalarında, aracın arka tamponu çok hassas bir konumdaydı ve arkadan çarpma durumunda yakıt tankı patlamalarına yol açıyordu. Ford, mühendislik hatasının farkındaydı ancak araçların geri çağrılmasının maliyetli olacağına karar verip sorunu düzeltmemeyi tercih etti.

Yanlış Giden Neydi: Ford, hatalı araçların geri çağrılmasının maliyetini karşılamaktansa, patlamalardan dolayı yaşanacak ölümlerin tazminat masraflarını ödemeyi tercih etti. Bu, kâr amacıyla insan hayatının ikinci plana atıldığı açık bir etik ihlaliydi.

  • Etik Hatalar:
  • İnsan güvenliğinin ticari çıkarlar için göz ardı edilmesi.
  • Bilinen bir tehlikeye karşı harekete geçmeme.
  • Şeffaflık eksikliği ve kullanıcıların bilinçli kararlar almasına engel olunması.

Etkisi: Pinto kazalarında birçok kişi hayatını kaybetti veya yaralandı. Skandal, şirketlerin ürün güvenliğini nasıl ön planda tutması gerektiği konusunda dersler verdi ve bu olay sonucunda daha katı otomobil güvenliği düzenlemeleri getirildi.

11. Teksas Elektrik Şebekesi Çöküşü (2021)

Ne Oldu: 2021’de Teksas’ta yaşanan olağanüstü soğuk hava koşulları sırasında eyaletin elektrik şebekesi çöktü. Elektrik sağlayıcıları, hava durumu modellerine ve geçmiş verilere dayalı yanlış tahminler yaparak enerji üretim kapasitelerini yeterince artırmadı. Bunun sonucunda milyonlarca kişi günlerce elektriksiz kaldı.

Yanlış Giden Neydi: Şebeke yönetimi, enerji talebini ve soğuk hava dalgasının şiddetini yanlış hesapladı. Veri analizine dayanarak alınan kararlar, aşırı hava koşulları için hazırlık yapmayı ihmal etti ve bu da ölümcül sonuçlar doğurdu.

Etik Hatalar:

  • Yanlış veri tahminlerine dayalı kararlar almak.
  • Olağanüstü durumlar için yeterli önlemlerin alınmaması.
  • Kamu güvenliğini ve hizmetlerin sürekliliğini sağlama sorumluluğunun ihmal edilmesi.

Etkisi: Elektrik kesintileri nedeniyle yüzlerce kişi hayatını kaybetti, birçok insanın temel ihtiyaçlarına ulaşması engellendi. Bu olay, altyapı sistemlerinde daha dayanıklı ve kapsamlı planlamaların yapılması gerektiğini ortaya koydu.

,

Comments

Leave a comment