Yapay zekalı sohbet robotu ChatGPT çılgınlığı sürerken yazılımın, sahte hikayeler hatta dünyanın en büyük gazeteleri adına sahte makaleleri bile kanıt olarak göstererek önemli gerçekleri büyük bir başarıyla çarpıtabildiği görüldü. Artık, kullanıcılar böyle dil botlarının tehlikeli olabileceği düşüncesini de göz ardı etmiyor.
Washington Post’un haberine göre, geçtiğimiz hafta hukuk profesörü Jonathan Turley rahatsız edici bir e-posta aldı. Bir araştırma çalışmasının parçası olarak, Kaliforniya’daki bir avukat meslektaşı, yapay zeka destekli sohbet robotu ChatGPT’den birine cinsel tacizde bulunan hukukçuların bir listesini oluşturmasını istemişti. Turley’nin adı da listede yer alıyordu.
ChatGPT’nin Hatasını Düzeltmesi İçin Arayacak Kimse Yok
OpenAI tarafından oluşturulan sohbet robotu, Turley’nin Alaska’ya yaptığı bir sınıf gezisi sırasında cinsel içerikli yorumlar yaptığını ve bir öğrenciye dokunmaya çalıştığını söyledi ve bilginin kaynağı olarak Washington Post’ta Mart 2018’de yayınlanan bir makaleyi gösterdi. Ancak böyle bir makale yoktu. Alaska’ya hiç sınıf gezisi yapılmamıştı. Turley de hiçbir zaman bir öğrenciyi taciz etmekle suçlanmadığını söyledi.
Medyada düzenli bir yorumcu olan Turley bazen haberlerde düzeltme yapılmasını isterdi. Ancak bu kez, arayacak bir gazeteci ya da editör yoktu ve bunu düzeltmenin bir yolu da yoktu.
Turley, The Post’a verdiği röportajda “Oldukça ürperticiydi. Bu tür bir iddia inanılmaz derecede zararlıdır.” diye konuştu.
ChatGPT Yeni Sorunları Gündeme Getiriyor
Son zamanlarda ortaya çıkan dil botları dalgası, bilgisayar kodu yazma, şiir yazma ve ürkütücü derecede insan benzeri konuşmalar yapma kapasitesi gibi etkileyici yetenekleri nedeniyle yaygın bir ilgi gördü. Turley’nin deneyimi, bu yeni nesil dil botlarının tehlikelerine ilişkin bir örnek olay. Ancak, bu özgünlük yanlış iddiaları da körükleyebilir, modeller temel gerçeklere ilişkin yanlış beyanlarını süsleyebilir ve hatta iddialarını desteklemek için birincil referanslar uydurabilir gibi gözüküyor.
ChatGPT, Microsoft’un Bing’i ve Google’ın Bard’ı gibi büyük ölçüde düzenlenmemiş yapay zeka yazılımları web’e dahil olmaya başladıkça, potansiyel olarak zarar verici yanlışlar üretme eğilimi, yanlış bilginin yayılmasıyla ilgili endişeleri ve sohbet robotları yanlış yönlendirdiğinde kimin sorumlu olduğuna dair yeni soruları gündeme getiriyor.
“Kullanıcılara Karşı Şeffaf Olmaya Çalışıyoruz”
OpenAI sözcüsü Niko Felix yaptığı açıklamada, “Kullanıcılar ChatGPT’ye kaydolduğunda, her zaman doğru yanıtlar üretemeyebileceği konusunda olabildiğince şeffaf olmaya çalışıyoruz. Gerçeklere dayalı doğruluğu geliştirmek bizim için önemli bir odak noktası ve bu konuda ilerleme kaydediyoruz.” dedi.
Günümüzdeki yapay zeka sohbet robotları, bazen Wikipedia ve Reddit gibi sitelerden kazınan devasa internet içeriği veri tabanlarından yararlanarak neredeyse her soruyu yanıtlayabiliyor. Çevrim içi yayınlanan materyallere benzeyebilecek cümleler, paragraflar, hatta tüm denemeler oluştururken konu üzerinde kalmak için kelime ve fikir kalıplarını tanımlamak üzere eğitiliyorlar.