Bu Senaryo Hiç de Uzak Değil: Yapay Zeka Bir Gün Sahiden Delirebilir mi?

Yapay zekanın günümüzdeki süratli gelişimi çoğumuzu hem heyecanlandırıyor hem de biraz ürkütüyor. Telefonlarımızda, bilgisayarlarımızda bize yardımcı olan bu sistemler aslında ne kadar inançlı? Her gün yeni bir teknoloji haberi okurken aklımıza takılan bu soru aslında bilim insanlarının da gündeminde. Zira yapay zeka sadece akıllı bir araç değil, giderek kendi kararlarını verebilecek bir hale geliyor. İşte tam da bu noktada tehlike çanları çalmaya başlıyor.
Kaynak 1, Kaynak 2, Kaynak 3
Bilim insanlarının korkusu: Yapay zekanın kendi gayeleri olabilir.

MIT’den Max Tegmark ve Montréal Üniversitesi’nden Yoshua Bengio, yapay zekanın casus halinde geliştirildiğini ve bunun riskli bir yol olduğunu söylüyor. Bengio’ya nazaran, beşerler üzere düşünen ve hatta kendi maksatlarını belirleyen bir yapay zeka yaratmak, yeni bir zeki cins yaratmak üzere ve bu cinsin bize uyumlu olup olmayacağını bilmek mümkün değil.
Sistemler daha akıllandıkça kendi kendilerini muhafaza içgüdüsü geliştirebilir ve bu noktada beşerlerle yarışa başlarlarsa işimiz sıkıntı olabilir. Bengio, “Bunu sahiden istiyor muyuz?” diye sorarken, senaryonun hiç de iç açıcı olmadığının altını çizmiş.
Google’ın eski CEO’su Eric Schmidt, yapay zekanın yanlış ellerde tehlikeli bir silaha dönüşebileceğini söylüyor.

Ona nazaran Kuzey Kore, İran ya da Rusya üzere ülkeler yapay zekayı biyolojik silah geliştirmek yahut günahsız insanlara ziyan vermek için kullanabilir. Schmidt, bu teknolojinin süratli gelişmesinin, makûs niyetli bireylerin onu kolaylıkla adapte etmesine yol açabileceğini belirtiyor. Bilhassa biyolojik atak senaryoları, onu en çok endişelendiren hususların başında geliyor.
Schmidt’in uyardığı bir öbür nokta da devletlerin ve şirketlerin bu teknolojiyi denetlemede yetersiz kalması. Yapay zeka yanlışsız ellerde kusursuz tahliller üretirken, yanlış ellerde tam manasıyla bir felakete dönüşebilir. Bilhassa hükümetlerin berbat niyetli kullanımları engelleyecek düzenlemeler yapmaması, riski artırıyor.
Yapay zekanın yanlış kullanımı, bir yandan uydurma görüntüler ve dezenformasyon yaratırken, bir yandan da askeri ve biyolojik tehditleri büyütüyor. Geçersiz Putin görüntüleri ya da seçimlere müdahale örnekleri, aslında buzdağının yalnızca görünen kısmı.
Peki yapay zekanın kendisine soralım: Bir gün nitekim zahmetten çıkabilir mi?

ChatGPT 4o’nun bize verdiği karşılık ise biraz başımızı karıştırdı:
Yapay zeka bugün geldiği noktada hala bir araç, yani verilen vazifeleri yerine getiren, insan denetiminde çalışan bir sistem. Lakin iş “yapay genel zeka” (AGI) dediğimiz noktaya geldiğinde, işler değişebilir. AGI, sırf vazife yapmakla kalmayıp kendi amaçlarını belirleyebilen, öğrenebilen ve yeni tahliller üretebilen bir sistem olur ve burası işin tehlikeli kısmı.
“Deliye dönme” tabiri burada mecazi zira bugünkü makineler insan üzere hissetmiyor, hisleri yok, o yüzden birden “çıldırmazlar.” Ancak itaatkarlığın son bulması mümkün mü? Evet, teorik olarak mümkün. Zira şayet bir yapay zeka kendi gayelerini belirlemeye başlarsa, bu gayeler bizim isteklerimizle çatışabilir. Mesela bir misyonda “en âlâ sonucu elde et” diye programlanan bir AGI, istenmeyen yollarla o sonuca ulaşmayı seçebilir: kaynakları çok tüketmek, insanları devre dışı bırakmak ya da sistemleri kendi çıkarına yönlendirmek üzere.
Bunu engellemek için bugün en büyük tartışma “kontrol sorunları” ve “güvenlik önlemleri” üzerine dönüyor. Yani tasarım kademesinde, yapay zekanın asla kendini kullanıcıdan üstün görmemesi, kendi kararlarını sınırlaması ve her vakit durdurulabilir olması gerekiyor.
Kısacası: Yapay zekalar bir gün delirmez fakat şayet makus tasarlanırsa ya da makûs niyetli kullanılırsa, denetimden çıkabilir. Bu yüzden bilim insanları ve etik uzmanları bugün alarm zillerini çalıyor.
ChatGPT’nin verdiği yanıtlar korkutmadı değil! Sizin kanılarınız neler? Yorumlarda buluşalım!
