Tehlike çanları çalıyor: Yapay zeka kendini kopyalayabilir
Çinli bilim insanları, iki tanınan lisan modelinin kendilerini nasıl kopyalayabileceğini göstererek, yapay zekanın kendini çoğaltma yeteneğine sahip olduğunu ve bu durumun tehlikeli bir gelişme olduğunu belirtti.

Fudan Üniversitesi’nden araştırmacılar, Meta ve Alibaba’ya ilişkin iki büyük lisan modelini (LLM) kullanarak, yapay zekanın kendini kopyalama yeteneği üzerinde çalıştı. Araştırmaya nazaran, bu modeller, insan müdahalesi olmadan kendilerini kopyalayabiliyor.
Çalışmanın sonuçları, “Yapay zekanın kendi kendini kopyalayabilmesi, insanları geride bırakma yolunda kritik bir adımdır ve isyankar yapay zekaların erken bir belirtisidir” açıklamasıyla tabir edildi.
Araştırmacılar, 10 deneme gerçekleştirdi ve bu denemelerde modeller, sırasıyla yüzde 50 ve yüzde 90 oranlarında kendilerini kopyaladılar. Bu da, yapay zekaların denetimsiz bir biçimde çoğalma kapasitesine sahip olabileceğini gösteriyor. Ancak bu çalışma, şimdi hakemli bir mecmuada yayımlanmadığı için, sonuçların öbür araştırmacılar tarafından doğrulanıp doğrulanamayacağı net değil.
Araştırmacılar, yapay zekanın potansiyel risklerini anlamak ve pahalandırmak için daha fazla efor sarf edilmesi gerektiğini ve tesirli güvenlik tedbirleri oluşturulması için uluslararası iş birliği yapılması gerektiğini belirtti.