Yapay zeka, mevcut kullanımıyla insan haklarına müdahale ediyor

Yapay zeka, mevcut kullanımıyla insan haklarına müdahale ediyor

Bu yazı, yapay zekanın sivil toplum ve medyaya etkisinin ele alınacağı 'Yapay Temas' isimli yazı dizimizin beşinci makalesidir.

FARUK ÇAYIR

Yapay zekâ sistemleri, en sade tabirle, büyük miktarlarda veriyi anlamlandırmaya ve bu  veriler arasında bağlantılar ve örüntüler bularak bunlardan kalıplar çıkarmak üzerine kurulu bir  algortimalar bütünüdür. Bunu yaparken de algoritmaları yazan/tanımlayan tarafından verilen  metin, fotoğraf, video, ses örnekleriyle (verileriyle) beslenir. Ayrıca internet üzerinden  milyonlarca örneği inceleyerek metinleri nesneleri tanımlamayı ve bunları tespit etmeyi  başarabilir. 

Bunun yanında son yılların en önemli teknolojik gelişmesi olan üretken yapay zekâ  sistemlerinden söz etmek gerekir. Yapay zekâ ile üretken yapay zekâ sistemleri arasındaki en  önemli fark, geleneksel (üretken olmayan) yapay zekânın analiz ve otomasyonda başarılı  olmasıyken üretken yapay zekânın akıllı öğrenme ile birlikte yaratıcı içerik üretmesidir. Yani  üretken yapay zekâ, yalnızca verileri analiz etmekle kalmıyor bu verilerden hareketle metin, kod,  görüntü, ses, video gibi çeşitli medya türlerinde yeni çıktılar üretiyor. 

Günlük kullanımda üretken yapay zekâyı çoğunlukla bilgi alma amaçlı kullanıyoruz ancak bu sistemlerin doğru bilgi sağlamak için üretilmediğini, yalnızca yanıt vermeye  odaklı çalıştığını unutmamak gerekir. Kullanılan veri setlerindeki ilgili kelimelerin birbiri ardına  sıralanış biçimi ve kelimeler arasındaki bağlama göre hareket eder, bağlamlar doğru ise ancak o  durumda büyük dil modelleri bize doğru bilgi vermiş varsayılır. Bu, özellikle  ChatGPT ve Gemini gibi büyük dil modelleri kullanan sohbet robotlarının çoğu zaman doğru  sonuç veremeyebileceğini gösteriyor.  

Avrupa dahil dünyanın dört bir yanında yapay zeka sistemleri, kamusal alanlarda bizi  izlemek ve kontrol etmek, gelecekte suç işleme olasılığımızı tahmin etmek, göçmen ve sığınmacılara yönelik hak ihlallerini kolaylaştırmak, duygularımızı tahmin etmek, bizim  hakkımızda profil oluşturarak kategorilere ayırmak; kamu hizmetlerine, refaha, eğitime ve  istihdama erişimimizi belirleyen önemli kararlar almak için kullanılıyor. 

Yapay zekanın gözetim üzerindeki etkisi

  1. Güvenlik ve Emniyet
    Yapay zeka sistemleri, gözetim sistemlerinde güvenlik ve emniyet açısından önemli bir rol oynuyor. Kameralar aracılığıyla toplanan görüntüler ve yüz tanıma teknolojileri, her ne kadar suçluların tespit edilmesi ve takibi için kolluk kuvvetlerine büyük kolaylık sağlasa da tüm vatandaşları potansiyel suçlu ilan etme ve toplumun tümünün izlenmesine yol açabiliyor. Görüntüler ve fotoğraflar yapay zeka algoritmaları tarafından analiz edilerek potansiyel tehditler hızlı bir şekilde belirlenebilir. Ancak yapay zeka sistemlerinin yanlılığı ve algoritma değerlendirmelerinin hataları gerçekte tüm toplumu potansiyel bir suçlu ilan edebiliyor.

    Ulusal ve uluslararası yasal düzenlemeler kolluk kuvvetlerine "kamu güvenliği", "terörizm" vb. nedenleriyle biyometrik gözetim, duygu tanımlama teknolojileri vb. yapay zeka uygulamalarının önleyici polislik için kullanılmasına izin veriyor. Ancak tam da bu noktada bu gibi istisnalar tüm toplumun suçlu ilan edilmesine, ayrımcılığa neden olmakta, güvenlik kuvvetlerince hatalı kararlar alınmasına yol açabiliyor.

  2. Veri Gizliliği ve Mahremiyet
    Halihazırda tüm dünyada kamu kurumlarından sosyal medya ağlarına kadar yapay zeka tabanlı gözetim sistemlerinin bireylerin mahremiyet haklarını ihlal etmeye devam ediyor. Büyük veri setlerinin toplanması ve analiz edilmesi, bireylerin özel hayatlarına yönelik ciddi tehditler oluşturabilir. Özellikle izinsiz veri toplama ve kullanımı, kişisel verilerin kötüye kullanılması riskini artırır. Bu sebeple de bu tür gözetim teknolojilerinin aşırı ve orantısız kullanımı, demokratik toplumların temel ilkelerine zarar veriyor, kişisel verilerin haksız ve hukuka aykırı olarak toplanması ve işlenmesi sonucu mahremiyet hakkı ve özel hayatın gizliliği ihlal ediliyor. Oysa tam tersine demokratik bir ülke olduğu iddiasında bulunan devletlerin ve özel şirketlerin gözetim teknolojilerini kullanırken bireylerin temel hak ve özgürlüklerine saygı göstermesi gerekmekiyor.

  3. Toplumsal Etkiler
    Yapay zeka tabanlı gözetim sistemlerinin yaygınlaşması, özellikle önleyici polislik uygulamalarında kullanımı toplumda sürekli izlenme hissi yaratıyor. Bu durumun bireylerin davranışlarını değiştirmesi ile ifade ve toplanma özgülüğüne müdahale oluşturuyor ve özgürlüklerin kısıtlanmasına yol açıyor. Foucalut’ un panoptikonu misali sürekli gözetim altında olma hissi, insanların kendilerini ifade etme özgürlüğünü ve sosyal ilişkilerini olumsuz etkiliyor.

  4. Biyometrik Gözetim
    Yapay zeka, gözetim teknolojilerinin kapasitesini büyük ölçüde artırmıştır. Özellikle biyometrik veri toplama ve analiz yetenekleri, hükümetler ve şirketler tarafından kitlesel gözetim sistemlerinde kullanılıyor. Günümüzde biyometrik gözetim teknolojilerinden, özellikle toplulukların sürekli izlenmesi ve bireylerin davranışlarının tahmin edilmesi amacıyla yararlanılıyor. Bu durum, özel hayatın gizliliği, ayrımcılık ve özgürlük gibi temel haklar üzerinde ciddi tehditler oluşturabilir.

    Biyometrik gözetim, yapay zekanın en tartışmalı kullanım alanlarından biridir. Bu yöntem yüz tanıma teknolojileri, bireylerin izlenmesi ve kimliklerinin doğrulanması amacıyla kullanılıyor. Biyometrik gözetimin kitlesel gözetim ve kişisel verilerin veri koruması konusunda büyük bir açık yarattığını söyleyebiliriz. Bu tür teknolojilerin yaygın kullanımı, bireylerin mahremiyetine ciddi tehditler oluşturuyor ve ayrımcılık riskini artırıyor. Ayrıca, biyometrik verilerin toplanması ve depolanması, veri ihlali durumlarında büyük güvenlik riskleri taşıyor.

    Tüm dünyada insanların sistematik olarak biyometrik kitle gözetim uygulamalarına maruz bırakıldığına dair önemli kanıtlar ve örnekler var. Futbol taraftarlarından taraftarlarından okul çocuklarına, işe gidip gelenlere, alışveriş yapanlara, LGBTİ+ barlarını ve ibadethanelerini ziyaret eden insanlara kadar, biyometrik gözetimin zararları gerçek ve yaygındır.

    Örneğin Uygur Müslümanlarıo, yüz tanıma kullanımı yoluyla Çin hükümeti tarafından sistematik olarak şiddete uğradı. Demokrasi yanlısı protestocular ve siyasi muhalifler, Rusya, Sırbistan ve Hong Kong'da, biyometrik tanımlamanın kamuya açık alanlarda kullanımı yoluyla -bazı durumlarda, sadece kullanım korkusuyla- bastırıldı veya hedef alındı. Ve birçok insan dünya çapında haksız yere tutuklandı.

    ABD'nin onlarca eyaletinde, Black Lives Matter protestocularının yüz tanıma destekli programlar aracılığıyla tespit edildiği ve güvenlik görevlilerince protestoların şiddetle bastırılması gibi sonuçlar ortaya çıktı.

    Bu kullanımların ve zararlarının giderek artan yaygınlığı sonucunda, vatandaşlar bir çok ülkede biyometrik gözetim konusunda devletlerin adım atmasını talep ediyor. 24'ten fazla ABD eyaleti yüz tanıma veya diğer biyometrik kitle gözetimi biçimlerine karşı adımlar attı.

    Dünyanın en büyük biyometrik gözetim sistemleri sağlayıcılarından diyebileceğimiz bazı büyük uluslarası şirketler (Microsoft, Amazon ve IBM), sistemlerinin yol açtığı büyük riskler ve zararlar nedeniyle kendi kendilerine moratoryumlar bile uyguladı, hatta Facebook toplu yüz görüntüsü veri tabanını sildi.

    AB veri koruma yasasında biyometrik verilere sağlanan korumalara rağmen şirketlerin ve kamu otoritelerinin yüz tanıma ve diğer biyometrik sistemlerin kullanımında sistematik ve varsayılan olarak "onay" alındığını, belirsiz güvenlik gerekçelerini kötüye kullandığını ve bunun da doğası gereği orantısız kitlesel gözetim uygulamalarına yol açtığını görüyoruz.

    Avrupa'da ve dünyanın dört bir yanında, yüz tanıma gibi biyometrik tanımlama sistemlerinin kamuya açık alanlarda kullanılması, temel haklara ve demokrasiye yönelik en büyük tehditlerden birini oluşturuyor. Bu tür sistemlerin kullanımı, kamusal alanda anonim kalma imkânını ortadan kaldırıyor ve mahremiyet ile veri koruma haklarımızın, ifade özgürlüğü hakkımızın, toplanma ve örgütlenme özgürlüğü hakkımızın ve eşitlik ve ayrımcılık yapılmaması haklarımızın özünü zedeliyor.

    Bu teknolojilerin kamuya açık alanlarda kullanımı tamamen yasaklanmadığı sürece, yasal haklarımızı kullandığımız ve topluluklar olarak bir araya geldiğimiz tüm yerler, hepimizin şüpheli olarak muamele gördüğü kitlesel gözetleme alanlarına dönüşecektir.

Yapay zeka tarafsız bir teknoloji değildir 

Yapay zekanın hala büyük ölçüde insan müdahalesine  bağımlı olduğunu, çünkü insanların sistemleri tasarlamaları, hedeflerini tanımlamaları ve  algoritmaların düzgün çalışması için veri kümelerini düzenlemeleri gerektiği açık. Bu nedenle  yapay zeka tarafsız bir teknoloji değildir, çünkü veri kümelerini belirleyen ve  çıktılarının kullanımının ne işe yarayacağını belirleyen insanlardır.  

Mevcut yapay zeka sistemleri tam olarak tarafsız olmaktan uzaktır çünkü insan  incelemesi ve hatta bazen düzeltmesi gerektirir. Yapay zeka sistemlerinin otomatik karakteri, veri  analizinin kalitesi ile sistemlerin uyarlanabilirliği ve uygulanabilirliği, sistemleri ve algoritmaları  tasarlayanın düşünce ve önyargılarına dayanmaktadır. Otomatik kararlar, bunları dengelemeden  yalnızca belirli kriterlere dayandıkları ve sonuçlar üzerindeki incelemeyi ve şeffaflığı  zayıflattıkları için ayrımcı etkilere neden olabilir.  

Yapay Zeka sistemleri ayrıca şüpheli verilere, kökenlere ve doğruluğa sahip olduğu  düşünülen internet tabanlı büyük miktarda veriye güvenir. Dahası yapay zeka, veriler arasındaki  nedensellik bağlantılarını karıştırılabilir ve veri ilişkilerini tamamen hatalı belirleyebilir. Yapay  zeka sistemlerinde insan denetimini kaybettiğinizde şeffaflık ve hesap verebilirliği sağlamak  imkansız hale dönüşür. Bu yüzden de yapay zeka teknolojisinin tarafsız ve bağımsız olduğu  görüşleri, gerek insan müdahalesinin zorunluluğu gerekse veri kalitesi açısından pek gerçekçi değil.  

Yapay zeka, mevcut kullanımıyla insan haklarına müdahale ediyor

Yapay zeka, bilgi dünyasını kullanıcı için gizli ve yöntemi belirli olmadan şekillendirir ve  kullanıcının ne gördüğünü ve tükettiğini belirlemedeki rolünü gizler. Araştırmalar, özellikle  arama motorları gibi sistemlerin, bilgi gösteriminin kişiselleştirilmesinin önyargıları  güçlendirdiğini gösteriyor. Bununla birlikte yapay zekanın kullanıcıların çevrimiçi katılımını sürdürmek  için dezenformasyona uğramış içerik veya yanlış bilginin tanıtımını ve önerilmesini teşvik  ettiğini de kanıtlıyor. Yanı sıra bu uygulamalar, bireylerin gerçek ve tarafsız bilgilere  dayalı kişisel görüşler oluşturma ve geliştirme özgürlüğünü etkiler. Bu nedenle ifade ve fikir özgürlüğünü tehdit eder. 

Çevrimiçi içeriklerin moderasyonu ve filtrelenmesinde giderek daha fazla  rol alması nedeniyle yapay zeka, ifade özgürlüğü ve eşitlik hakkımız için önemli bir tehdittir. Bazı şirketlerin yapay zekanın insan kapasitelerini aşabileceğini iddia etmelerine rağmen araştırma ve çalışmalar, algoritmalara ve otomatik moderasyona  başvurmanın insan haklarının uygulanmasını engellediğini gösteriyor. Yapay zeka  ayrımcı varsayımlara direnemez veya yayımlanan her içerik parçası için mizah, parodi, yanlış  bilgi gibi kültürel bağlamı kavrayamaz. Sonuç olarak karmaşık sansür uygulamalarının yapay zeka ve özel şirketlere devredilmesiyle ifade özgürlüğü hakkımız ile ve ayrımcılığa uğramama hakkımız ciddi şekilde engellenebilir. 

Yapay zeka teknolojisinin insan haklarına saygılı bir şekilde gelişimi nasıl sağlanabilir?

Yapay zeka teknolojileri toplum için faydalı olabilirken geliştirilen sistemlerin güvenilir  olduğunu ve yaratıcılarının iddia ettiği şeyleri gerçekten yaptığını nasıl bilebiliriz? Geliştiriciler  yapay zeka sistemlerinin nasıl çalıştığını açıklayabilir ve ürettikleri çıktıların önyargılı olmadığını  gösterebilir mi? Devletler bu sistemleri nasıl düzenleyebilir? Şirketlerin kendilerini  düzenlemesine izin verilmeli mi? Hükümetler ve şirketler sistemlerin yaptıklarının adilliğini ve  anlaşılırlığını sağlamak için nasıl birlikte çalışabilir? 

Bu sorulara verilecek cevaplar yapay zekanın insan haklarına saygılı kullanımı için temel  oluşturmakla birlikte aşağıda yer alan ve taleplerden vazgeçmemek gerekir.

  • Hesap verebilirlik, şeffaflık, erişilebilirlik ve tazminat tanınarak yapay zeka  sistemlerinden etkilenen yurttaşlar korunmalıdır. 

Yüksek riskli yapay zeka sistemleri kullanılmadan önce temel haklar etki  değerlendirmesi zorunlu kılınmalı, yüksek riskli sistemler kamuya açık bir veri tabanında kaydedilmeli, tüm yapay zeka sistemleri için yatay ve ana akım erişilebilirlik gereklilikleri belirlenmeli ve kurumlarla şirketlerin bu gereklilik eksiksiz sağlaması gerekir. İnsanların  haklarının bir yapay zeka sistemi tarafından ihlal edilmesi durumunda yurttaşlara şikayette  bulunma hakkı, tazminat hakkı ve etkili çözüm yolları tanınmalıdır. Çevrimiçi hizmet  sağlayıcıları, hangi kararların insan incelemesiyle ve hangilerinin yalnızca yapay zeka sistemleri  tarafından alındığını açıkça belirtmelidir. Bu bilgilere algoritmalar tarafından kullanılan karar  alma mantığının açıklamaları eşlik etmelidir.

  • “Ulusal güvenlik”, “kamu düzeni” gibi sebeplerle kolluk kuvvetlerine tanınan geniş  yetkiler ile göçmen ve sığınmacılara yönelik ayrımcılık temelli gözetime dayanan sistemler sınırlanmalıdır. 

Yapay zeka sistemleri kolluk kuvvetleri tarafından güvenlik adına da kullanıldığı için özellikle  dezavantajlı ve dışlanmış topluluklar için daha da büyük bir zarar ve temel hakların ihlal edilmesi riski taşıyor. Zararları önlemek adına bu tür kullanımlar için net kırmızı çizgiler olması gerekir.  Her türlü uzaktan biyometrik tanımlama sistemleri, önleyici polislik sistemleri, bireysel risk  değerlendirmeleri ve önleyici analitik sistemlerinin yasaklanması gerekir. 

  • Büyük teknoloji şirketleriyle sosyal medya şirketlerinin devletlerle işbirliğine dayanan lobisine karşı koymalı ve temel hak ve özgürlükleri zayıflatan yasal boşluklar ortadan  kaldırılmalıdır. 

Tüm dünyada yürürlüğe konulması düşünülen yapay zeka teknolojilerine yönelik  yasaların etkili bir şekilde uygulanabilmesi için büyük teknoloji şirketlerinin kişisel verileri  hukuka aykırı olarak kullanmaya yönelik lobi çabalarına karşı koymak gerekiyor. Özellikle yapay  zeka sistemlerinin profilleme algoritmaları ve risk sınıflandırmaları nesnel olmalı. Yapay zeka  geliştiricilerinin sistemlerinin yüksek riskli olarak sınıflandırılmak ve yasal incelemeye tabi  tutulmak için yeterince 'önemli' olup olmadığını şirketlerin kendi kendilerine belirlemeleri önlenmeli. Sosyal medya şirketleri ve teknoloji şirketlerinin yapay zeka sistemleri vasıtası ile vatandaşların etiketlenmesine karşı yasal  düzenlemeler yapılması gerekiyor. 

  • Devletler, çoğulcu bir bilgi ortamına elverişli, teknoloji tekelini önleyen ve ağ ve  cihaz tarafsızlığını destekleyen bir yasal çerçeve oluşturmalı, dış denetimler ve insan hakları  örgütleriyle istişareler yapılmalıdır. 

Güçlü yasal düzenlemeler olmadan şirketler ve devletlerin, kitlesel gözetimi, yapısal  ayrımcılığı, büyük teknoloji şirketlerinin merkezi gücünü, gizli kamu karar  alma süreçlerini ve çevresel zararı daha da kötüleştiren yapay zeka sistemlerini kullanmaya  devam edecekleri unutulmamalıdır.