En Sıcak Konular

İnsan Nesli Nasıl Tükenecek?

1 Mayıs 2013 08:39 tsi
İnsan Nesli Nasıl Tükenecek? İnsanlığı bekleyen en büyük tehlike ne? Hiç beklemediğimiz halde tükenmenin eşiğine mi geldik?


İnsan nesli nasıl tükenecek?

 

İnsanlığı bekleyen en büyük tehlike ne? Hiç beklemediğimiz halde tükenmenin eşiğine mi geldik?

Oxford Üniversitesi'nden bilim adamı, matematikçi ve felsefeciler bu sorulara yanıt arıyor.

"Küresel bir öncelik olarak varoluşu tehdit eden riskler" adlı makalelerinde de, siyasetçilerin canlıların neslini tüketen tehlikeleri göz önünde bulundurması gerektiğine dikkat çekiyorlar.

Geçen yıl karda sörf yapmak konusundaki akademik çalışmaların sayısı, insan neslinin tükenmesi ile ilgili çalışmalardan fazlaydı.

Oxford Üniversitesi'nin insanlığın geleceğiyle ilgili çalışmalar yapan ensititüsünün başkanı Nick Bostrom, tehlikenin büyük olduğunu söylüyor:

Hata yaparsak, yaşadığımız yüzyılın insanlığın son yüzyılı olma ihtimali var.

İnsan ırkını bekleyen tehlikeler

Önce iyi haber: Dr. Bostrom insanlığın büyük felaketleri atlatabileceğini düşünüyor.

Bunun nedeni de insanların binlerce yıllık tarihinde birçok hastalık, doğal afet, iklim değişikliği ve kıtlık dönemlerine rağmen yaşamayı sürdürmüş olması.

İnsanlığın kendi 'eseri' olan dünya savaşları bile, küresel nüfustaki artışı durduramamış.

Geçmişte bütün bunları atlatmış ve ayakta kalmayı başarmış olmak, bir bakıma gelecekte de insan varlığının süreceğinin teminatı sayılıyor.

Olası bir nükleer savaş bile büyük yıkım ve can kaybına yol açsa da, insan ırkının devamını sağlayacak kadar kişinin kurtulacağı düşünülüyor.

O halde bilim adamları neden endişeleniyor?

Dr. Bostrom, yeni bir teknoloji çağına girdiğimizi ve bu çağdaki tehlikelerin daha önce atlattığımız tehlikelerin hiçbirine benzemediğini söylüyor.

Kontrolü mümkün değil

Bostrom, insanlığın teknolojideki ilerlemenin sonuçlarını kontrol edemeyecek hale geldiğini belirterek, bu durumu bir çocuğun eline tehlikeli bir silah verilmesine benzetiyor.

Sentetik biyoloji, nanoteknoloji ve yapay zeka alanlarında yapılan deneyler, insanlığı bilinmeyenlerin, sonucu daha önceden öngörülemeyenlerin eşiğine getiriyor.

Biyoloji ile mühendisliği biraraya getiren sentetik biyoloji, tıbben büyük umut vaat ediyor.

Ancak Bostrom, insan biyolojisinin sınırlarını zorlamanın daha önceden tahmin edilemeyen sonuçlara yol açmasından kaygı duyuyor.

Nanoteknoloji, bir başka deyişle molekül veya atom düzeyindeki çalışmalar da savaş için kullanılırsa, son derece tehlikeli olabilir Bostrom'a göre.

Bostrom, gelecek hükümetlerin bu tür silahların kontrolü ve kötüye kullanımını engellemekte zorlanacağını düşünüyor.

Yapay zekanın dış dünya ile etkileşiminden neler orataya çıkabileceği de bir başka kaygı konusu.

Bilgisayar programları, sanayi, tarım veya ekonomi yönetimine önemli katkıda bulunabiliyor. Ancak bu tür bir 'yapay zeka', bu sırada oluşan hasarı hiç dikkate almayabiliyor.

İstenmeyen sonuçlar

Enstitünün genetik uzmanlarından Seán O'Heigeartaigh, otomatik menkul kıymetler ticaretinde kullanılan algoritmaların insanlar ve ekonomileri yıkıma götürecek sonuçları olabileceğini söylüyor.

Dr O'Heigeartaigh, bu tür bilgisayar sistemlerinin "gerçek dünyayı yönlendirebileceği" görüşünde.

Biyoloji alanında da genetik yapıyı değiştirmeye yönelik deneylerin tehlikeli olabileceğini düşünüyor.

İyi niyetle yapılan bir değişikliğin başka bir ortama geçince zararlı hale dönüşmesi riskine dikkat çekiyor.

Araştırmacılar, bilgisayarların kendilerinden daha gelişmiş bilgisayarlar üreteceklerinden bahsediyor.

Bu makinaların birdenbire 'huy değiştirip, kötü davranmaya başlaması' söz konusu değilse de, araştırma görevlisi Daniel Dewey'e göre, bilgisayarlardaki bu zeka patlamasının sonuçlarını önceden tahmin ve kontrol etmek zorlaşıyor.

Oxford Üniversitesi gibi, Cambridge Üniversitesi de insanlığa yönelik tehditleri araştırmak istiyor.

Gökbilimci Lord Rees, Cambridge'de Varoluş Risklerini Araştırma Merkezi kurulmasına destek verenlerden.

Lord Rees, dünya tarihinde ilk kez, insanlığa yönelik en büyük tehdidin, insanlardan geldiğine dikkat çekiyor.

Rees, uçak yolculuğu, yiyecek zehirlenmesi gibi bireysel riskler üzerinde durulurken çok daha büyük tehlikelerin gözden kaçırıldığı görüşünde.

Lord Rees her yeni teknolojinin olumlu yanları kadar olumsuz yanları da olabileceğini söylüyor. Örneğin tarım ve tıp için üretilen yeni organizmaların yan etkilerinin çevreyi etkileyebileceğini belirtiyor.

'Sarhoş muhabbeti' değil

Peki o halde kıyametten korkmamız mı gerekiyor?

Dr Bostrom teknolojik gelişmelerin hızı ile, bunu sonuçlarının anlaşılması arasında büyük bir uçurum olduğunu belirtiyor:

"İnsanlık tarihinde bir darboğaza girildi. İnsanlık değişecek. Bunun sonucu felaket de olabilir, insanların biyolojilerini kontrol altına alıp dönüşmeleri de.

Bu bilim-kurgu, din öğretisi ya da sarhoş muhabbeti değil. Ciddiye almamayı hoş gösterecek hiçbir gerekçe yok."
http://www.bbc.co.uk/turkce/cep/haberler/2013/04/130424_insan_nesli.shtml

 

Yukarıdaki konuyla ilgili olarak Her-an.org tarafından yapılan röportaj:

Nick Bostrom ile Süper-Zeka Röportajı

Nick Bostrom, İsveçli felsefe profesörü, Oxford üniversitesi bünyesinde kurulan “Future of Humanity” (İnsanlığın Geleceği) enstitüsünün direktörü, aynı zamanda eski adı WTA (Dünya Transhümanistler Derneği), yeni adı H+ olan organizasyonun David Pearce ile birlikte kurucu ortağı. Çalışma alanı özellikle teknoloji ile birlikte yeniden şekillendirilen insanlığın geleceğinin ne gibi riskler taşıdığı. Oxford’da düzenlenen AGI-12 etkinliği sonrasında ofisinde ziyaret ettiğimiz Nick Bostrom’la yakında çıkaracağı kitabın da konusu olan Süper-Zeka üzerine konuştuk. 

 

Eliezer Yudkowsky kendisiyle Singularity Summit 2012’deki görüşmemizde yapay zekanın inşa edilebilmesi için gerçekten çok büyük bir çalışma gerektiğini, bazı yeni problemleri çözmek için yeni bir Einstein’a ihtiyacımız olacağını söylemişti. Süper-zekaya ulaşabilmek için gerçekten bir Einstein mı bekliyoruz?

Ben meselenin ne kadar zor olduğunu bilmediğimizi düşünüyorum. İnsan seviyesinde ya da daha üstün süper-zekalı bilgisayarlar geliştirmenin gerçekten ne kadar zor olduğunu bilmiyoruz. Bunun ötesinde, bunu teknik olarak başarabilecek olsak bile, güvenli olacağını garanti altına almanın ne kadar zor olacağını da bilmiyoruz. Yani zorluğunu bilmediğimiz iki büyük problem var. Aslında zaten ilkini çözmeden önce ikincisini çözmemiz lazım. Teknik olarak yapay zekayı nasıl inşa edeceğimiz problemine çözüm bulmamız ne kadar zaman alırsa alsın, bunu gerçekleştirmeden önce onu nasıl [şerli değil de] dost/hayırlı yapabileceğimiz problemini çözmek zorundayız.

Ben Goertzel, 2019’da insan seviyesinde bir genel yapay zekaya ulaşılacağını ve kısa bir süre içinde de, 2023 gibi, yapay zekanın kendi kendini geliştirme özelliği kazanacağını öngördüğünü söyledi. Siz günümüzdeki genel yapay zeka çalışmalarını nasıl değerlendiriyorsunuz. Kendi kendini geliştirebilen genel yapay zekaya sizce bu kadar yakın mıyız?

Hayır, bu kadar yakın olduğumuzu düşünmüyorum. Ne kadar zaman alacağını bu kadar kesin bir şekilde tahmin etmenin de kesinlikle mümkün olmadığını kanaatindeyim. Yapay zeka alanında, kendinden emin bir şekilde şu aşama (insan seviyesinde yapay zeka gibi) yakında aşılacaktır diyen uygulamacılar tarafından yapılan yanlışlanmış bir sürü böyle öngörü var.  Yine başka birçok durumda insanların bilgisayarların bazı şeyleri asla yapamayacaklarını (mesela satranç bilgisayarının insanları yenmesi gibi) iddia ettiğini ama bunların gerçekleştiğini görüyoruz. Buradan çıkarılması gereken ders tahminlerdeki “güvenirlik aralığı”nı genişletmemiz gerektiği; yani belli bir tarihle alakalı kesin bir tahmin yapmak yerine, birçok muhtemel gerçekleşme tarihini kapsayan geniş bir olasılık dağılımı üzerinden düşünmeliyiz. Bu olasılık dağılımı da, yapay zekanın ortaya çıkmasının ne kadar süreceğinin hakikaten belirsiz olduğunu yansıtması için, olabildiğince geniş tutulmalı.

Ray Kurzweil’in bilgisayarların Turing testini geçeceğini iddia ettiği tarih de, bir iddiaya bile girmişti hatırladığım kadarıyla, yine aynı zamanlara denk geliyor. Tahminler niçin bu aralıkta yoğunlaşıyor sizce?

Tarihini tam hatırlamıyorum ama galiba Kurzweil’in tahmini biraz daha ilerideydi, 2040’lar gibi; yani Goertzel’in tahminine göre epey uzakta. Tabii başkaları da başka tarihler öne süreceklerdir, ama gerçek şu: Aslında kimse bilmiyor. Yine de bu bize bu olasılıkları dikkate almama salahiyeti vermez, çünkü daha yakın bir zamanda gerçekleşip gerçekleşmeyeceğini de bilmiyoruz. Bunun için meseleyi bir olasılıklar silsilesi olarak düşünmeli; erken, geç ve çok geç gerçekleşme ihtimallerini dikkate değer olasılıklar olarak görmeliyiz.

Siz yapay zekanın “dostluğu/hayırlılığı” konusuna nasıl bakıyorsunuz? Şimdiden bütün önlemleri almaya çalışmalı mıyız? Yoksa Goertzel’in dediği gibi bunun için daha erken ve yapay zeka son halini alıp tam anlamıyla ortaya çıkmadan önce zaten bunlara yoğunlaşma imkanımız olacak mı?

Şimdiden güvenlik önlemlerini “araştırmamız” gerektiğini düşünüyorum, çünkü daha önce de söylediğim gibi problemin ne kadar zor olduğunu bilmiyoruz. O yüzden bir zeka patlamasının sonuçlarının nasıl kontrol edileceği problemini ne sürede çözebileceğimizi de bilmiyoruz. Çok zor bir problem de olabilir bu. Ne kadar erken başlarsak, çözüme ihtiyaç duyduğumuz zaman, yani bu tarz bir yapay zeka ortaya çıktığında, elimizde somut sorunlar olma ihtimali o kadar artar. Bunların güvenli olduklarının nasıl garanti altına alınacağına dair farklı yaklaşımlar üzerinde ciddi bir şekilde düşünmek için hiç erken değil.

Aynı zamanda gelecek kitabınızı da merak ediyoruz? Yakında çıkacak mı?

Daha tam hazır değil. Şu anda hala nihai bölüm üzerine çalışıyorum. Kış tatilinde de yazmaya devam edeceğim. Umuyorum ki önümüzdeki senenin başında bitecektir, piyasaya girmesi de bir 6 ay daha alır. Yani muhtemelen 2013’ün sonlarında çıkacaktır.

Bize biraz bilgi verebilir misiniz kitap hakkında?

Kitabın başlığı “süper-zeka” (Super Intelligence). Her hangi bir formuyla, ama özellikle makine süper-zekası olarak süper-zeka yaratma kabiliyetine bir gün sahip olursak ne olacağı üzerine. Bunun risklerini, bu riskleri nasıl ortadan kaldırabileceğimizi, böyle bir geleceğin şu an için stratejik olarak neler gerektirdiğini, bugün ne yapabileceğimizi tartışıyor. Bunun tam olarak ne zaman gerçekleşeceği üzerine değil pek, ilk bölümde bu konuyla alakalı bir şeyler var. Ama ağırlıkla bu riskler ve zeka patlaması üzerine.

Bir süper-zeka yaratma kabiliyeti elde ettiğinizde bir zeka patlaması (yani insan zekası seviyesinden bundan çok çok daha üstün bir seviyeye çok kısa bir zamanda geçtiğiniz bir nevi Singularity) gerçekleşiyor. Bunun başlangıç şartlarını nasıl hazırlamalıyız ki sonunda her şeyi tahrip eden bir infilak yerine, bir nevi kontrollü patlama yaşayalım?

 http://www.her-an.org/2013/01/roportaj-nick-bostrom/#more-141



Bu haber 5,773 defa okundu.


Yorumlar

 + Yorum Ekle 
    kapat

    Değerli okuyucumuz,
    Yazdığınız yorumlar editör denetiminden sonra onaylanır ve sitede yayınlanır.
    Yorum yazarken aşağıda maddeler halinde belirtilmiş hususları okumuş, anlamış, kabul etmiş sayılırsınız.
    · Türkiye Cumhuriyeti kanunlarında açıkça suç olarak belirtilmiş konular için suçu ya da suçluyu övücü ifadeler kullanılamayağını,
    · Kişi ya da kurumlar için eleştiri sınırları ötesinde küçük düşürücü ifadeler kullanılamayacağını,
    · Kişi ya da kurumlara karşı tehdit, saldırı ya da tahkir içerikli ifadeler kullanılamayacağını,
    · Kişi veya kurumların telif haklarına konu olan fikir ve/veya sanat eserlerine ait hiçbir içerik yayınlanamayacağını,
    · Kişi veya kurumların ticari sırlarının ifşaı edilemeyeceğini,
    · Genel ahlaka aykırı söz, ifade ya da yakıştırmaların yapılamayacağını,
    · Yasal bir takip durumda, yorum tarih ve saati ile yorumu yazdığım cihaza ait IP numarasının adli makamlara iletileceğini,
    · Yorumumdan kaynaklanan her türlü hukuki sorumluluğun tarafıma ait olduğunu,
    Bu formu gönderdiğimde kabul ediyorum.




    En Çok Okunan Haberler


    ON ALTI YILDIZ'da Ara Internet'te Ara  

    Haber Sistemi altyapısı ile çalışmaktadır.
    8,790 µs