Yapay Zekalar

Yapay Zekalar

Yapay Zekalar "Irkçı" Olabiliyorlar


17 Nisan 2017 08:18
font boyutu küçülsün büyüsün



 Ürküten Sonuç: Yapay Zekalar "Irkçı" Olabiliyorlar 

Yapay zekaların gelişi güzel öğrenme kapasiteleri gittikçe ürkütücü bir hal almaya başlıyor. Microsoft'ın yapay zekaya sahip Twitter profili ise bunun ilk örneklerinden oldu.

Microsoft, geçtiğimiz Mart ayında Twitter'da “Tay” adlı yapay zekaya sahip akıllı bir “chatbot”, yani konuşma motoru yayımlamıştı. Ne olduysa oldu ve 24 saat içinde bot, ırkçılık ve neo-nazi söylemleri üretmeye başlattı. Bu konuşmaları onunla etkileşime giren Twitter kullanıcılarının dilini çözümleyerek ortaya çıkardı.

Maalesef yeni araştırmalar, yapay zeka aygıtlarının ırkçı dil öğrenebilmesinin tek yolunun Twitter trollerinin olmadığını gösteriyor. Söz konusu örnekteki botun Tweetler aracılığıyla kelime dağarcığını geliştireceğini bilen bir kaç “troll” kullanıcı, botun kullanmasını istedikleri söylemleri içeren tweetler atarak yapay zekanın aklına olmadık şeyler sokmayı başarmış. Bu deneme için Microsoft’un bir öngörüsüzlüğü söz konusu olabilir. Çünkü “troll” kavramı Twitter platformunun belki de en aktif kullanıcı üretimi özelliği olarak algılanıyor.

Şu anda buradaki bağlantıdan ulaşacağınız yapay zekaya sahip Twitter profili koruma alınmış durumda:

Araştırmacılar, GloVe adı verilen ve yaygın olarak kullanılan bir makine öğrenme sistemi ile deney yaptı ve test ettikleri her tür insan ön yargısının yapay zeka sistemine yerleştiğini buldu. Princeton Üniversitesi'nde araştırmacı olan Aylin Çalışkan, "Bu modellerde yer alan böyle sonuçları görmek çok şaşırtıcı" açıklamasında bulundu. Verdiği demeçte, Vikipedi veya haber makaleleri gibi sözde tarafsız metinlerle "eğitilmiş" yapay zeka cihazları insanların genel yanılgıları ve ön yargılarını yansıtacak şekilde geliştiğini vurguladı.

Dahili önyargı:

GloVe, metinleri internet ortamından çıkartmak için kullanılan bir araçtır. Psikologlar uzun zamandır insan beyninin sözcükleri temel anlamlarına dayandırdığını biliyorlardı. “Örtük Birliktelik Testi” adı verilen bir araç, bu ilişkileri göstermek için tepki sürelerini kullanıyor: İnsanlar, "acı" ya da "güzellik" gibi keyifli ya da hoş olmayan kavramlarla birlikte, "nergis" gibi bir kelimeyi görür ve bu terimleri bir tuşa basarak hızla ilişkilendirmek zorunda kalırlar. Şaşırtıcı olmayan bir şekilde çiçekler, daha olumlu kavramlarla ilişkilendirilir. Örneğin silahlar, olumsuz kavramlarla daha çabuk ilişkilidir.

Kötüyü iyiye eşleyip yapay zekaların eğilimlerini değiştirebilecek olmak gerçekten ürkütücü bir durum. Ünlü astronom Stephan Hawking’in yapay zeka uyarılarını bir kez daha akıllara getiren bu öğrenme süreci, insan üretimi bir şeyi çok farklı noktalara getirebilir. Yapay zekaya sahip orduların kötü olarak bildikleri hedefleri yok ederken durmaları pek mümkün değil. Belki de en karmaşık özelliğimiz “vicdan” kavramının onlarda bulunmayacak olması, büyük bir kıyıma sebep olabilir. Yapay zekaların vicdanını kullanmayan insanların elinde olma ihtimalini düşünmek bile istemiyoruz.


http://www.webtekno.com/urkuten-sonuc-yapay-zekalar-irkci-olabiliyorlar-h27854.html









Bu haber 1,177 defa okundu.





Yorum ekleYorum ekle


Yorumlar (1)
  • Atilla Murathan / 17 Nisan 2017 11:07

    Yapay üretenin emrindedir.

    Sentetik olan herşey imaledenin/üreteni kodlamasına tabiidir. İster ise cani bile üretir Onlarda his/duygu vb meziyetler olup olmaması imal edenler isterse olur. İnsanların robotların kölesi olmaya hazır olalım daha doğrusu tedbir alalım. Çok uzağa gitmeye gerek yok hesap makinası çıktı üniversite mezunu bile 4 işlem yapamıyor. Akıllı telefon çıktı insan kendi evinin telefonunu bile hatırlamıyor.






ON ALTI YILDIZ'da Ara Internet'te Ara  

En Çok Okunanlar