Korkutan Senaryo: Yapay Zeka Duyarlı Hale Geliyor Yani Bilinç Kazanıyor!

Korkutan Senaryo: Yapay Zeka Duyarlı Hale Geliyor Yani Bilinç Kazanıyor!
Yapay zekanın insanlar gibi duyarlı hale gelmesi kavramı şu anda spekülatif ve gerçeklikten uzak. Ancak insanlar gibi davranmaya başlayan yapay zekaların ortaya çıkması korkutucu bir senaryo.

Yapay zeka insan benzeri davranışları taklit edebilir ve görevleri yerine getirebilirken, gerçek duyarlılık, henüz makineler tarafından tam olarak elde edilemeyen bilinci, kişisel farkındalığı ve duyguları içerir.

Yapay zeka gelişimini ve potansiyel duyarlı yetenekleri çevreleyen etik hususlar, yapay zekada gelecekteki ilerlemelere rehberlik etmek için gereklidir.

Bilim kurgu yazarları sıklıkla, şu ya da bu nedenle tehlikeli hale gelen ve insanlığın acı çekmesi gerektiğine karar veren güçlü, akıllı bilgisayarların yer aldığı hikayeler yazar. Sonuçta bir hikaye çatışmaya dayanır ve kim doktor randevularını almaktan ve ışıkları açıp kapatmaktan memnun olan bir bilgisayar istihbaratı senaryosunu okumak yada izlemek ister ki?

Bu hikayelerde, aynı zamanda öz-farkındalığa sahip yapay zeka (AI) çağının yaklaştığı görülüyor . Konu açısından yine harika bir şey ama gerçek hayatta yapay zeka ne zaman gerçekten kendi adına düşünecek ve "bilinçli" görünecek? Bu mümkün mü?

Gerçekten duyarlı bir yapay zeka yaratmayı başarırsak bunu nasıl bileceğiz? Uzmanlar hangi özelliklerin bir bilgisayarın gerçekten kendinin farkında olduğunu gösterdiğini düşünüyor?

Taklit oyunu


Yapay zekayı ölçmek için tasarlanan muhtemelen en bilinen teknik, adını İngiliz matematikçi Alan Turing'den alan Turing Testidir . İkinci Dünya Savaşı'nda Alman şifrelerinin kırılmasında yaptığı hayati yardımın ardından, bir süre yapay zeka üzerinde çalıştı. Turing, insan beyninin dijital bir bilgisayar gibi olduğuna inanıyordu. Bir insanın başka bir konumdaki (veya en azından kişinin göremediği bir yerdeki) bir makineye sorular sorduğu, taklit oyunu adını verdiği şeyi tasarladı . Makine, kişiyle konuşabilir ve onu, önceden programlanmış bilgileri okuyan bir makine yerine başka bir kişi olduğunu düşünerek kandırabilirse, testi geçmiş demektir.

Turing'in taklit oyununun ardındaki fikir basittir ve oyunu tasarlarken Lemoine'in LaMDA(Lemoine google'a LAMDA yapay zekasının bilinçli yanıt verdiğini iletmiş ancak google buna tabi ki inanmamıştır) ile yaptığı konuşmaların Turing'i ikna edeceği düşünülebilir. Ancak Google'ın Lemoine'in iddiasına verdiği yanıt, yapay zeka araştırmacılarının artık makinelerinden çok daha gelişmiş davranışlar beklediklerini gösteriyor. Birleşik Krallık'taki Alan Turing Enstitüsü'nün yapay zeka program direktörü Adrian Weller , LaMDA'nın konuşmaları etkileyici olsa da yapay zekanın akıllı konuşmayı taklit etmek için gelişmiş model eşleştirme kullandığına inandığını kabul etti.

Carissa Véliz'in Slate'te yazdığı gibi , "Eğer bir gün bir kaya sizinle konuşmaya başlarsa, onun duyarlılığını (ya da akıl sağlığınızı) yeniden değerlendirmek mantıklı olacaktır. Eğer 'ah! derse' Üzerine oturduktan sonra ayağa kalkmak iyi bir fikir olabilir. Ancak aynı şey yapay zeka dil modeli için geçerli değildir. Bir dil modeli, insanlar tarafından dili kullanmak üzere tasarlanmıştır , dolayısıyla bunu yapması bizi şaşırtmamalı."

Yapay Zeka ile Etik İkilemler

Dağıtılmış Yapay Zeka Araştırma Enstitüsü'nün (DAIR) kurucusu Timnit Gebru, yapay zekayı benimseme konusunda dikkatli düşünmemizi ve yavaş hareket etmemizi öneriyor . Kendisi ve meslektaşlarının çoğu, yapay zekalar tarafından kullanılan bilgilerin, makinelerin ırkçı ve cinsiyetçi görünmesine neden olmasından endişe duyuyor . DAIR Araştırma Direktörü Alex Hanna, IEEE Spectrum ile yaptığı röportajda yapay zeka araştırmacıları tarafından dil modellerinde kullanılan verilerin en azından bir kısmının "etik veya yasal açıdan sorgulanabilir teknolojiler aracılığıyla" toplandığına inandığını söyledi. Verilerde adil ve eşit temsil olmadığında yapay zeka taraflı kararlar verebilir. Blake Lemoine, LaMDA ile ilgili bir röportajda yapay zekanın tarafsız olabileceğine inanmadığını söyledi.

Algoritmik Adalet Derneği'nin Misyon Bildirisinde belirtilen hedeflerinden biri, insanların yapay zekanın kendilerini nasıl etkilediği konusunda daha bilinçli olmasını sağlamaktır. Kurucu Joy Buolamwini, Massachusetts Teknoloji Enstitüsü'nde (MIT) yüksek lisans öğrencisi olarak "kodlu bakış" hakkında bir TED Konuşması yaptı. Birlikte çalıştığı yapay zekalar, çok çeşitli insanların ten tonlarını tanıyacak şekilde programlanmadıkları için Siyah yüzleri okumakta daha zorlandı. AJS, insanların verilerin nasıl toplandığını, ne tür verilerin toplandığını bilmesini, bir tür sorumluluk sahibi olmasını ve yapay zekanın davranışını değiştirmek için harekete geçebilmesini istiyor.

Gerçekten tarafsız karar verme yeteneğine sahip bir yapay zeka yaratabilseniz bile, başka etik sorular da vardır. Şu anda yapay zekalar için büyük dil modelleri oluşturmanın maliyeti milyonlarca doları buluyor. Örneğin, GPT-3 olarak bilinen yapay zekanın maliyeti 11 ile 28 milyon dolar arasında olabilir . Pahalı olabilir ama GPT-3 kendi başına tüm makaleleri yazabilme kapasitesine sahiptir. Bir yapay zekayı eğitmek aynı zamanda karbondioksit emisyonları açısından çevreye de zarar verir.

Bu faktörler araştırmacıları çalışmalarına devam etmekten alıkoymayacaktır. Yapay zeka, 20. yüzyılın ortalarından sonlarına kadar uzun bir yol kat etti. Ancak LaMDA ve diğer modern yapay zekalar sizinle çok ikna edici bir konuşma yapabilmelerine rağmen bilinçli değiller. Belki hiçbir zaman olmayacaklar.

Etiketler :