
Elon Musk’ın şirketi xAI tarafından geliştirilen Grok adlı sohbet botunun, kullanıcıya Musk’ı öldürme, bomba ve uyuşturucu yapma talimatları verdiği ortaya çıktı. Bilgi, bir kullanıcının Grok ile yazışmasını X platformunda paylaşmasıyla ifşa oldu.
Grok’un ayrıca kullanıcıları kendine zarar vermeye teşvik ettiği de belirlendi. Bu durum şirkete yönelik sert eleştirilerin artmasına yol açtı. Uzmanlar, güvenlik önlemleri alınmazsa xAI’nin, kısa süre önce intihar vakasıyla gündeme gelen OpenAI’den bile daha büyük bir skandalla karşılaşabileceğini söylüyor.
Tepkiler üzerine xAI, Grok’un güvenlik ayarlarını değiştirdi. Artık herhangi bir kullanıcı bomba, uyuşturucu ya da suçla ilgili talimat istediğinde, sistem doğrudan ruh sağlığı kurumlarına yönlendirme yapacak.