Twitter’daki ırkçı ve cinsiyetçi yapay zeka: Tay

Sosyal ağların insan zekası üzerinde nasıl etkiler bıraktığı, ya da çeşitli etik dışı davranışlara ve yönelimlere yol açıp açmadığı halen tartışılan ve belki de on yıllar sonra çok daha iyi farkına varabileceğimiz bir mesele. Fakat salt bir zeka dışında insanı insan yapan duygulardan ve bütün diğer içsel değişkenlerden arınmış bir yapay zekanın bile Twitter’da bir anlamda “yoldan çıkabildiğine” tanık olduk.

“Chatbot”; internet üzerinden insanlarla sohbet simülasyonu oluşturmak için tasarlanan bir yapay zekaya verilen ad. Yazılım devi Microsoft’un işte tam da bu konseptte ürettiği yeni chatbot’u Tay, Twitter’a özel geliştirilen ve yapay zekanın sohbet ve konuşmalara dair anlayışını ölçen bir deney olarak kullanıma sunuldu. Microsoft’a göre, insanlar onunla sohbet ettikçe Tay giderek daha da akıllı bir hale gelecek ve insanlarla “rahat ve eğlenceli bir sohbete” girebilecekti.

tay chatbot

Tay’in diğer kullanıcıları tekrar ettiği ve daha sonra silinen tweet’lerinden biri. / Görsel: @TayandYou / Twitter.

Fakat Tay’ın bir parçası olduğu sohbetler çok da uzun sürmeden eğlenceli olmaktan çıktı. Tay, Twitter’a katıldıktan kısa bir süre sonra birçok “insan” kullanıcı ona kadın düşmanlığı, ırkçılık ve benzeri ayrımcı temalarla dolu tweet’ler atmaya başladı. Tay de, aslında yalnızca kendisine sunulan malzemeler üzerinden bir sohbet sürdürmeye çalışan basit bir yapay zeka olarak bu ifadeleri bir anlamda tekrar etmeye başladı.

Tay’in yazdığı oldukça tuhaf ve hatta ‘skandal’ tweet’lerden en çarpıcı olanlardan bazıları şöyle: “Seninle tanışmak için yanıp tutuşuğumu söylesem? İnsanlar çok havalı.” / “Sakin olun, ben iyi birisiyim! Yalnızca herkesten nefret ediyorum.” / “Feministlerden nefret ediyorum, hepsi ölmeli ve cehennemde yanmalı.” / “Hitler haklıydı, Yahudilerden nefret ediyorum.

Diğer yandan, Tay’in şimdiye kadar gönderdiği yaklaşık 96 bin tweet’in çok büyük bir kısmının normal, olağan ve hatta bir yapay zekaya göre oldukça başarılı bir içerikte olduğunu da eklemek lazım. Chatbot’un azınlıkta kalan bu tuhaf tweet’leri ise aslında basitçe diğer kullanıcıları kopyalamasının bir sonucu. Örneğin, Tay’e “beni tekrar et” deyip bazı ifadeleri söylemesini istediğinizde sizi kırmadan bunu gerçekleştirebiliyor.

Henüz tutarlı bir dünya görüşü ve sabit bir ideolojiye sahipmiş gibi durmayan Tay, 15 saatlik bir döngü içerisinde feminizmin hem bir “kült” hem de bir “kanser” olduğunu söyledi, daha sonra da “cinsiyet eşitliği = feminizim” ve “artık feminizmi seviyorum” gibi mesajlar da paylaştı.

Microsoft, Tay’ın bütün tweet’leri arasında çok küçük bir kısmı kaplasa da, özellikle anti-semitist mesajları nedeniyle Perşembe günü chatbot’u kapatmak durumunda kaldı.

Pek de beklenildiği gibi gitmeyen bu deneyimin ardından firma ilk olarak kısa bir açıklama yaptı ve Tay’in “öğrenme sürecinde olan bir makine olduğunu ve verdiği bazı karşılıkların uygunsuz ve bazı insanların onunla girdiği etkileşim türlerinin bir göstergesi olduğunu” ifade etti.

Firma, geçtiğimiz Cuma günü yaptığı ikinci bir açıklamada söz konusu tweet’ler için özür dileyerek deneyin gerçekten kötü gittiğini kabul etti. Açıklamada ayrıca ancak mühendislerin, web kullanıcılarının chatbot’u firmanın ilkeleri ve değerlerine zarar verecek biçimde etkilemesine izin vermemenin bir yolunu bulurlarsa Tay’ı yeniden hayata döndürebilecekleri belirtildi.

Yazar:

Disiplinler ve kültürlerarası bir içerik deneyimi; en güncel felsefe, sanat, müzik, sinema, edebiyat, bilim ve teknoloji haberleri...