Cüneyt Deliktaş
Cüneyt Deliktaş

Aldatılan yapay zekâ aldatır mı?

İster bilinçli isterse bilinçsiz olsun fark etmez; yiyerek veya içerek vücudumuza dahil ettiğimiz besinler fiziksel ve ruhsal durumumuz için şüphesiz çok önemli ve belirleyici. Ancak sadece yediklerimiz ve içtiklerimiz mi bizleri şekillendiriyor? Okuyarak, işiterek, görerek bilaistisna bütün duyu organlarımız aracılığıyla bünyemize aldıklarımız en başta zihin dünyamızı olmak üzere bizleri şekillendirmiyor mu? Farklı algılayıcılarla türlü türlü verileri alıp işleyerek sonuçlar üreten cihazlar gibiyiz aslında. Bilişsel olarak insanı taklit ederek onu ikame etmeye başlayan yapay zekâda da durum böyle midir?

AH NVIDIA! VAH NVIDIA!

Aynı bilişsel yeteneği sergileyebilmek için henüz insana nispetle daha fazla enerji tüketmesi gereken yapay zekâ sistemlerinde veri, algoritmalarla işlenerek bilgiye dönüştürülüyor. Veri, algoritma (Makine öğrenmesi) ve işlemci olmak üzere üç bileşene sahip yapay zekâ sistemlerinde bilgi üretim süresi işlemci yeteneğinin bir fonksiyonu. Tıpkı “Zekâ, öğrenme hızıdır” tanımında olduğu gibi. Son zamanlarda “Eskiden buralar dutluktu, alamadık birkaç dönüm arsa” benzeri hayıflanmalarla adı anılan, hisse değeri yıl başından bu yana yüzde 170 artan ve veri merkezlerinde kullanılan yapay zekâ çip pazarının yaklaşık yüzde 80'ine sahip NVIDIA firmasının ürettiği GPU’lar yapay zekânın işlem gücüne karşılık gelmekte. İşlemci kabiliyeti, sistemin sonuç üretme süresini belirler fakat; sonucun doğruluğu üzerinde hiçbir etkiye sahip değildir. Sistem ne kadar çevik olursa olsun; üretilen bilginin doğruluğu, kullanılan verinin ve algoritmanın “çarpımsal” ilişkisine bağlı. Doğru sonucu ulaşmak için hem “Doğru ve yeterli” veriye hem de “Probleme uygun” seçilmiş akıl yürütme metoduna ihtiyaç var. Yapay zekâ uygulamalarında büyük ve geniş veri olması, bu verinin kaliteli ve tarafsız olması; çıkacak sonucun doğruluğunu direkt etkilemekte. Ancak, veri ne kadar doğru da olsa öğrenme algoritmasında yapılacak yanlışın sonucu bozacağı unutulmamalı. Büyük veri, verinin miktarını ifade eden dikey bir ölçütken; geniş veri, verinin çeşitliliğini işaret eden yatay ve kapsayıcı büyüklüğü temsil eder. Yapay zekânın büyük ve geniş veriyi kullanması tarafsız ve doğru sonuçlar elde edebilmenin öncül şartı. Sebep – sonuç ilişkileri üzerine kurulu dünyada çıktılar da girdilerin fonksiyonu. Eskiler bu gerçeği “Kem âlât ile kemâlât olmaz” sözüyle özetlemişler. Manası, kötü veya yanlış alet ile iyi bir iş yapılamaz.

YAVAŞ ANCAK EMİN ADIMLARLA: AVRUPA BİRLİĞİ YAPAY ZEKÂ YASASI

Ocak ayında Davos’ta liderlere “Küresel ölçekte gerçekleşmesini muhtemel gördükleri beş risk” soruldu. Cevaplara göre hazırlanan Dünya Ekonomi Forumu 2024 Küresel Riskler raporunda ilk sırayı alan “Aşırı hava olaylarını” takip eden ikinci ve üçüncü tehditlerin sırasıyla “Yapay zekâ kaynaklı yanlış ve yanıltıcı bilgiler” ile “Sosyal ve politik kutuplaşma” olması oldukça anlamlı, uyarıcı ancak şaşırtıcı olmayan bir tespit. Hızlı değişimlerin getirdiği belirsizlikler üzerine yapay zekânın imkân ve kabiliyetleri eklendiğinde ve ekonomik daralma, ticaret savaşları, siyasi ve askeri kamplaşmaların üst üste binmesi ile halklar üzerinde oluşan genel güvensizlik algısını gördüğü için olsa gerek Avrupa Birliği; yapay zekâ ile ilgili yaptığı çalışma, yayım ve iletişimlerde hep “güvenilir” sıfatını kullanmaya özen gösterdi: Güvenilir Yapay Zekâ İçin Etik Kurallar, Güvenilir Yapay Zekâ için Politika ve Yatırım Önerileri, ... gibi. 2023 sonunda yayımlanan ve 21 Mayıs’ta konsey onayından geçen Avrupa Birliği Yapay Zekâ Yasası’nda 2019’da Avrupa Komisyonu tarafından hazırlanan “Güvenilir Yapay Zekâ Etik Rehberi’ne” atıfta bulunularak “güvenilir” yapay zekânın sahip olması gereken özellikler şöyle sıralıyor:

• İnsan gözetimi ve hakimiyeti

• Geri dönüş planına sahip, esnek ve güçlü teknik çözüm

• Gizliliğe ve veri güvenliğine tam riayet

• Şeffaf, izlenebilir ve açıklanabilir yapı

• Tarafsız, adil ve çoğulcu

• Sürdürülebilir, çevreyle ve sosyal yaşamla dost

• Algoritmaları denetlenebilir ve hesap verebilir

Etik ilkeler, âdil ve sorumlu yapay zekânın temelini oluştururken; yapay zekâ sistemlerinin geliştirilmesi, devreye alınması ve kullanılmasını yöneten ilke ve politikaların oluşturulması ve hayata geçirilmesi, insanlığın sürdürülebilir geleceği için büyük önem arz ediyor. Çarpan etkisi yüksek bir teknoloji olmasından ötürü ihmal edilemeyecek riskleri de içinde barındıran yapay zekâ teknolojisini sadece benimsemek yetmiyor; ortaya çıkardığı risklere yönelik önlemleri de almak gerekiyor. Yapay zekâ sistemlerinin eğitildiği veri setlerinde yeterli çeşitlilik olmaması halinde, algoritmik hakkaniyetten uzak; ön yargılı ve ayrımcı sonuçlar vermesi kaçınılmaz. Amazon’un 2014 – 2018 yılları arasında teknik personel alımında kullandığı algoritmanın kadın adaylar için “negatif” ayrımcılık yapması, ABD’de konut kredisi faiz oranlarının algoritmalar aracılığıyla belirlenmesinde Afrika ve Latin Amerika kökenli kişilere daha yüksek faiz oranları teklif etmesi akla gelen ilk örneklerden.

YAPAY ZEKÂNIN DOĞRUSU GERÇEK OLMAYABİLİR Mİ?

Toplum ve kitle psikolojisi üzerine yaptığı çalışmalarla tanınan Fransız sosyolog Gustave Le Bon “Kitleler Psikolojisi” olarak Türkçe’ye tercüme edilen (The Crowd:A Study of the Popular Mind) kitabının üçüncü bölümünde özetle şunları söyler: “Her türlü değerlendirmeden, her türlü ispattan uzak, saf ve sade iddia... kitlelerin ruhuna bir fikri yerleştirmek için en güvenilir araçtır… İddia olunan şey tekrar edilmek suretiyle nihayet ispat edilmiş bir hakikat gibi kabul olunacak derecede zihinlere yerleşir.” ChatGPT ile yaygın kitlenin gündemine giren “üretken” yapay zekânın besin kaynağı 2021 yılına kadar çevrimiçi olmuş veriler idi. Yeni versiyonunda da aktif olarak internet ağındaki verileri kullandığı söylenmekte. Kitleler psikolojisinin temel kaidesi "yüksek frekansa sahip verinin doğru kabul edilmesi" ile üretken yapay zekânın öğrenmesi arasındaki paralellik ve bir de “Hazreti Google” nitelendirmesinde olduğu gibi üretken yapay zekânın da “Derin saygıyla” otorite kabul edilmesi birleştiğinde büyük bir tehlike ortaya çıkacak: Gerçeğin, doğru kabul edilenden farklı olma ihtimali. Tekrar frekansı “demokratik” gözükse de gerçekliğin ispatı olabilir mi? Cacığın, baklavanın isim hakkı üzerinde fırtınalar kopsa da mutfak belki zülfü yâre dokunmadan verilebilecek en rahat örneklerden. Biz mutfak diyelim; ârif olanlar Kunta Kinte’yi, Adalar denizini, tehciri, … ne kadar netâmeli konu varsa onu anlasın. Dijital ortamda daha fazla içerik üreterek kendi doğrunuzu üretken yapay zekâ marifetiyle dünyaya mâl edebilirsiniz. Size ait olandan yeterince beslenmeyen bir üretken yapay zekânın;

• Coğrafyanızda olmayan önyargıları size taşıması ve “kültürel yozlaşma” ihraç etmesi

• Karar vermede “otorite” kabul edilmesiyle “gerçeklerden” ve “adaletten” uzaklaştırması

• Dijital verileri (domine) edenlerin kendi dünya görüşleriyle hegemonya kurmasına yataklık etmesi başlıca tehditler.

BENİM YAPAY ZEKÂM ALDATMAZ!

Web genellikle içeriğin sonsuza kadar kaldığı bir yer olarak düşünülse de Pew Araştırma Merkezi’nin çalışmasına göre (güneşin gezegenleriyle birlikte evrende yolculuğu gibi) web sayfaları ve çevrimiçi içerik kaybolduğu için internet bir taraftan yok olmakta. 10 yıl önce var olan web sayfalarının yüzde 38’i artık kayıp, 2023’te var olan sayfaların ise yüzde 8’i yok bugün. Bu etki, büyük miktarda haber ve önemli referans içeriğinin kaybolduğu anlamına geliyor. Kültürel, siyasî, dinî, … hangi alanda olursa olsun gerçeğe üstün gelme gayreti; doğru olarak kabul ettirilmek istenenin yüksek frekansla yayımını ve yayımlananın da hayatta kalmasını sağlamaktan geçiyorsa; internetteki yok oluşta risk de var, fırsat da. “Benim yapay zekâm aldatmaz” diyebilme rahatlığı emek istiyor: Tarlada izi olmayanın harmanda yüzü olmaz. Dijital ortamda içeriği olmayanın da söyleyecek sözü olmayacak. Üretken yapay zekâya giren verilerin bütün sorumluluğunu üstümüze alalım

Yorum Yaz