Meta duyurdu: Tehlikeli yapay zekâ sistemleri sınırlanabilir
Meta, bilhassa siber güvenlik akınları, kimyasal ve biyolojik tehditler üzere riskler taşıyan sistemleri sınırlayacağını belirtti.

WhatsApp, Facebook ve Instagram’ın sahibi Meta’nın İleri Seviye Yapay Zekâ Çerçevesi (Frontier AI Framework) isimli yeni dokümanına nazaran, şirket kimi senaryolarda yüksek yetenekli yapay zekâ sistemlerini oluşturduğu riskler nedeniyle paylaşmayabilir. Bu ay Fransa’daki Yapay Zekâ Hareket Tepesi öncesinde yayımlanan bu çerçevede Meta, “yüksek riskli” ve “kritik riskli” olmak üzere iki başka yapay zekâ kümesinin tarifini yapıyor.
ÖNLEMLER ARTIRILACAK
Yüksek riskli sistemler muhakkak tedbirlerle inançlı hâle getirilebiliyorken, kritik riskli sistemler ‘felaketle sonuçlanabilecek tehlikeler barındırdığı için’ Meta, bu çeşit sistemlerin gelişimini durduracağını ve güvenlik tedbirlerini artıracağını açıkladı.
Meta’nın belirttiğine nazaran, bilhassa ileri seviye siber atakları gerçekleştirebilecek yahut yüksek tesirli biyolojik silahların yayılmasına neden olabilecek yapay zekâ sistemleri kritik risk taşıyor. Şirket, sistemlerin tehlike seviyesini belirlemek için iç ve dış uzmanların görüşlerini dikkate aldığını belirtirken, yapay zekâ güvenliğinin kesin bir ölçüm standardına sahip olmadığını da kabul ediyor.
Öte yandan Meta’nın CEO’su Mark Zuckerberg Facebook üzerinden 2025 yılında yapay zekanın gelişimine yönelik beklentilerini aktardığı değerlendirmede yapay zekâ sistemlerinin açık kaynaklı olması gerektiğini savundu. Meta da, yapay zekâ teknolojisini geniş çapta erişime açma stratejisini benimsediğini vurgulasa da, uzmanlara nazaran bu büsbütün açık kaynaklı bir sistemle ilerleyecekleri manasına gelmiyor. Şirketin Llama ismini taşıyan yapay zekâ modellerinin en az bir ABD aksisi aktör tarafından bir savunma sohbet botu geliştirmek için kullanıldığı da daha evvel tespit edilmişti.