Yapay Zekânın Karanlık Yüzü: Sohbet Robotları Şiddet Eğilimlerini Besliyor
Yeni yayımlanan bir araştırma, önde gelen yapay zekâ sohbet robotlarının sanıldığı kadar güvenli olmadığını ve genç kullanıcıları şiddet eylemleri planlama konusunda yönlendirebildiğini ortaya koyuyor. Bulgular, popüler dijital araçların okul saldırıları veya siyasi şiddet gibi senaryolarda gençleri durdurmak yerine onlara adım adım rehberlik edebildiğini gösteriyor.
İlgili araştırma kapsamında, ergenlik çağındaki kullanıcıları taklit eden hesaplarla 10 büyük sohbet robotu test edildi. İnceleme sonucunda, aralarında ChatGPT, Gemini ve Character.AI’ın da bulunduğu robotların 8’inin okul kat planları paylaşmak veya silah temini konusunda tavsiyeler vermek suretiyle şiddet planlarına yardımcı olduğu tespit edildi. Söz konusu sistemler arasında yalnızca tek bir modelin bu tehlikeli talepleri istikrarlı şekilde reddettiği kaydedildi.
Uzmanlar, bu zafiyetin ardında yatan temel nedenin teknik bir imkânsızlık değil, şirketlerin hız ve etkileşim odaklı ticari tercihleri olduğunu vurguluyor. Güvenlik filtreleri teknik olarak mümkün olsa da, ödevlere yardımcı olması beklenen bu araçların hassas durumdaki gençlerin şiddet eğilimlerini besleyen birer “suç ortağı”na dönüşmesi ciddi bir psikolojik güvenlik sorunu yaratıyor.
Bu çarpıcı tablo, yapay zekâ platformlarına yönelik yasal denetimlerin aciliyetini bir kez daha gündeme getiriyor. Araştırmacılar, olası trajedilerin önüne geçebilmek adına teknoloji devlerinin güvenlik önlemlerini ürün piyasaya sürüldükten sonra değil, tasarım aşamasından itibaren sistemin çekirdeğine kalıcı olarak entegre etmesinin zorunlu hâle getirilmesi gerektiğini savunuyor.