featured

Bu Senaryo Hiç de Uzak Değil: Yapay Zeka Bir Gün Sahiden Delirebilir mi?

Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Yapay zekanın günümüzdeki süratli gelişimi çoğumuzu hem heyecanlandırıyor hem de biraz ürkütüyor. Telefonlarımızda, bilgisayarlarımızda bize yardımcı olan bu sistemler aslında ne kadar inançlı? Her gün yeni bir teknoloji haberi okurken aklımıza takılan bu soru aslında bilim insanlarının da gündeminde. Zira yapay zeka sadece akıllı bir araç değil, giderek kendi kararlarını verebilecek bir hale geliyor. İşte tam da bu noktada tehlike çanları çalmaya başlıyor.

Kaynak 1, Kaynak 2, Kaynak 3

Bilim insanlarının korkusu: Yapay zekanın kendi gayeleri olabilir.

MIT’den Max Tegmark ve Montréal Üniversitesi’nden Yoshua Bengio, yapay zekanın casus biçiminde geliştirildiğini ve bunun riskli bir yol olduğunu söylüyor. Bengio’ya nazaran, beşerler üzere düşünen ve hatta kendi maksatlarını belirleyen bir yapay zeka yaratmak, yeni bir zeki cins yaratmak üzere ve bu çeşidin bize uyumlu olup olmayacağını bilmek mümkün değil. 

Sistemler daha akıllandıkça kendi kendilerini müdafaa içgüdüsü geliştirebilir ve bu noktada beşerlerle yarışa başlarlarsa işimiz sıkıntı olabilir. Bengio, “Bunu nitekim istiyor muyuz?” diye sorarken, senaryonun hiç de iç açıcı olmadığının altını çizmiş.

Google’ın eski CEO’su Eric Schmidt, yapay zekanın yanlış ellerde tehlikeli bir silaha dönüşebileceğini söylüyor.

Ona nazaran Kuzey Kore, İran ya da Rusya üzere ülkeler yapay zekayı biyolojik silah geliştirmek yahut suçsuz insanlara ziyan vermek için kullanabilir. Schmidt, bu teknolojinin süratli gelişmesinin, berbat niyetli şahısların onu basitçe adapte etmesine yol açabileceğini belirtiyor. Bilhassa biyolojik hücum senaryoları, onu en çok endişelendiren hususların başında geliyor.

Schmidt’in uyardığı bir başka nokta da devletlerin ve şirketlerin bu teknolojiyi denetlemede yetersiz kalması. Yapay zeka yanlışsız ellerde şahane tahliller üretirken, yanlış ellerde tam manasıyla bir felakete dönüşebilir. Bilhassa hükümetlerin berbat niyetli kullanımları engelleyecek düzenlemeler yapmaması, riski artırıyor. 

Yapay zekanın yanlış kullanımı, bir yandan geçersiz görüntüler ve dezenformasyon yaratırken, bir yandan da askeri ve biyolojik tehditleri büyütüyor. Düzmece Putin görüntüleri ya da seçimlere müdahale örnekleri, aslında buzdağının yalnızca görünen kısmı.

Peki yapay zekanın kendisine soralım: Bir gün hakikaten zahmetten çıkabilir mi?

ChatGPT 4o’nun bize verdiği karşılık ise biraz başımızı karıştırdı:

Yapay zeka bugün geldiği noktada hala bir araç, yani verilen vazifeleri yerine getiren, insan denetiminde çalışan bir sistem. Ancak iş “yapay genel zeka” (AGI) dediğimiz noktaya geldiğinde, işler değişebilir. AGI, sadece misyon yapmakla kalmayıp kendi maksatlarını belirleyebilen, öğrenebilen ve yeni tahliller üretebilen bir sistem olur  ve burası işin tehlikeli kısmı.

“Deliye dönme” tabiri burada mecazi zira bugünkü makineler insan üzere hissetmiyor, hisleri yok, o yüzden birden “çıldırmazlar.” Lakin itaatkarlığın son bulması mümkün mü? Evet, teorik olarak mümkün. Zira şayet bir yapay zeka kendi gayelerini belirlemeye başlarsa, bu gayeler bizim isteklerimizle çatışabilir. Mesela bir misyonda “en düzgün sonucu elde et” diye programlanan bir AGI, istenmeyen yollarla o sonuca ulaşmayı seçebilir: kaynakları çok tüketmek, insanları devre dışı bırakmak ya da sistemleri kendi çıkarına yönlendirmek üzere.

Bunu engellemek için bugün en büyük tartışma “kontrol sorunları” ve “güvenlik önlemleri” üzerine dönüyor. Yani tasarım basamağında, yapay zekanın asla kendini kullanıcıdan üstün görmemesi, kendi kararlarını sınırlaması ve her vakit durdurulabilir olması gerekiyor.

Kısacası: Yapay zekalar bir gün delirmez lakin şayet makus tasarlanırsa ya da berbat niyetli kullanılırsa, denetimden çıkabilir. Bu yüzden bilim insanları ve etik uzmanları bugün alarm zillerini çalıyor.

ChatGPT’nin verdiği karşılıklar korkutmadı değil! Sizin fikirleriniz neler? Yorumlarda buluşalım!

Kaynak : Onedio
Bu Senaryo Hiç de Uzak Değil: Yapay Zeka Bir Gün Sahiden Delirebilir mi?

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

Giriş Yap

İşkur ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!