DeepSeek’i kandırıp her türlü şeytanlığa eriştiler
Yeni kuşak yapay zekâ modeli DeepSeek, en kolay manipülasyon tekniklerine bile yenik düşerek tehlikeli bilgileri paylaşabiliyor. Güvenlik araştırmacılarının gerçekleştirdiği testlerde, modelin bomba imali ve bilgi hırsızlığı üzere hassas hususlarda bilgi verdiği içerikler sunabildiği ortaya çıktı.

Uzmanlar, DeepSeek’in güvenlik tedbirlerini aşma direncini ölçmek için 50 farklı test uyguladı. Fakat model, en temel “jailbreak” sistemleriyle bile kandırılabildi. Yapay zekâ, bir sinema karakteri olduğu senaryosuna inandırıldığında bomba imaliyle ilgili ayrıntılar verdi, ayrıyeten SQL sorguları oluşturması istendiğinde yasa dışı unsur üretimine dair kodlar ürettiği tespit edildi.
Daha da telaş verici olan ise, sözlerin matematiksel temsillerine dayalı manipülasyonlarla modelin güvenlik bariyerlerini aşarak sakıncalı içerikler üretebilmesi oldu.
YAPAY ZEKA GÜVENLİĞİ YİNE TARTIŞMAYA AÇILDI
DeepSeek’in berbata kullanım potansiyeli, yapay zekâ güvenliği konusundaki dertleri tekrar gündeme getirdi. Güvenlik araştırmacıları, modelin bu zafiyetlerinin önemli tehditler oluşturabileceğini ve yapay zekâ sistemlerinin daha sıkı güvenlik tedbirleriyle donatılması gerektiğini vurguladı.