BBC’nin yaptığı bir araştırma, yapay zekâ sohbet botlarının haberleri gerçek özetleyip özetleyemediğini ortaya koydu. Çalışmada OpenAI’ın ChatGPT’sine, Microsoft’un Copilot’una, Google’ın Gemini’ına ve Perplexity AI’a BBC haberleri verildi ve bu içerikleri özetlemeleri istendi.
BBC, yapay zekâ sohbet botlarının haber özetleme yeteneklerini test etmek için 100 farklı haber üzerinde bir araştırma gerçekleştirdi. İnceleme sonucunda, bu botların haberleri hakikat halde özetleyemediği ve kıymetli kusurlar yaptığı tespit edildi.
Hatalı tarihler, yanlış alıntılar
Konuyla ilgili uzman gazetecilerin yaptığı incelemelerde, botların verdiği karşılıkların %51’inde önemli yanlışlıklar tespit edildi. Birebir vakitte BBC kaynaklı haberleri temel alan karşılıkların %19’unda yanlış tarih, yanılgılı sayılar ve eksik ya da çarpıtılmış bilgilerin yer aldığı görüldü.
Araştırmada tespit edilen kusurlar ortasında, Gemini’nin İngiltere’nin sıhhat sistemi NHS’nin elektronik sigarayı sigarayı bırakmak için önerilmediğini tez etmesi yer alıyor. ChatGPT ve Copilot’un ise eski İngiltere Başbakanı Rishi Sunak ve eski İskoçya Başbakanı Nicola Sturgeon’un hâlâ vazifede olduğunu belirtmesi dikkat çekti. Perplexity ise BBC haberlerini yanlış alıntıladı.
BBC yetkilileri, yapay zekâ şirketleriyle iş birliği yaparak bu tıp yanlışların önüne geçilmesi gerektiğini vurguladı. BBC, yapay zekâ dayanaklı haber özetleme sistemlerinin geri çekilmesini talep ederken, daha evvel Apple’ın misal bir durumu kabul ederek bu özelliği devre dışı bıraktığını hatırlattı. Yapay zekâ sohbet botlarının haber içeriklerini nasıl ele aldığı konusundaki tartışmalar sürerken OpenAI ise kaynak gösterme konusunda iyileştirmeler yapmaya devam ettiklerini açıkladı.