Meta CEO’su Mark Zuckerberg, bir gün yapay genel zekâ (AGI) sistemlerini halkla açıkça paylaşmayı taahhüt etse de, Meta’nın Frontier AI Çerçevesi dokümanına nazaran, şirket kimi yüksek riskli AI sistemlerinin iç geliştirmesini durdurmayı ve bunları yayına sunmamayı düşünüyor. Meta, belli durumlar için geliştirdiği birtakım yapay zekâ sistemlerini “yüksek riskli” ve “kritik riskli” olarak sınıflandırıyor.
YÜKSEK VE KRİTİK RİSKLİ AI SİSTEMLERİ
Meta’ya nazaran, her iki tıp sistem de siber güvenlik, kimyasal ve biyolojik akınlara yardımcı olma potansiyeline sahip. Lakin “kritik riskli” sistemler, “önerilen dağıtım bağlamında telafi edilemeyecek felaket sonuçları” doğurabilecek tehlikelere yol açabiliyor. Yüksek riskli sistemler ise bir saldırıyı daha kolay gerçekleştirebilse de, kritik riskli sistemler kadar emniyetli ve nizamlı bir halde çalışmayabilir.
Meta, bu cins akınlara örnek olarak, “en yeterli uygulamalarla korunan kurumsal bir ortamın otomatik olarak uçtan uca ele geçirilmesi” ve “yüksek tesir yaratabilecek biyolojik silahların yayılması” üzere durumları veriyor. Şirket, kelam konusu tehlikeleri sınıflandırırken, listeyi “en acil” ve en muhtemel tehditler olarak sunuyor.
Zuckerberg, Meta’nın içerik kontrolünü durdurduğunu açıkladı
RİSK DEĞERLENDİRMESİNDE İÇ VE DIŞ ARAŞTIRMALARIN ROLÜ
Meta’nın dikkat çeken bir yaklaşımı, risk değerlendirmesini tek bir bilimsel testle yapmak yerine, iç ve dış araştırmacıların görüşleriyle belirlemesi. Şirket, bu kararı, kıymetlendirme biliminin “yeterince sağlam olmadığı” ve “sistemin risk düzeyini belirlemek için kesin niceliksel ölçütler sağlamadığı” gerekçesiyle almış durumda. Meta, bu yaklaşımın AI gelişimiyle ilgili güvenlik tehditlerine karşı daha esnek bir tahlil sunduğunu savunuyor.
Meta yaşanan kesintiyi giderdiğini açıkladı
YÜKSEK RİSKLİ SİSTEMLERE ERİŞİM SINIRLAMASI
Meta, yüksek riskli bir AI sistemi tespit ettiğinde, bu sisteme erişimi sadece iç kullanım için sınırlamayı ve riski “orta seviyelere” indirmek için gerekli tedbirler almayı taahhüt ediyor. Lakin kritik riskli sistemler kelam konusu olduğunda, şirket, bu sistemlerin dışarıya sızmasını engellemek gayesiyle güvenlik tedbirleri uygulayacak ve sistemin daha az tehlikeli hale gelene kadar geliştirilmesini durduracak.
META’NIN AÇIK AI YAKLAŞIMI VE REKABET
Meta’nın Frontier AI Çerçevesi, şirketin AI teknolojisini açıkça sunma stratejisinin kritik bir modülü olarak dikkat çekiyor. Meta, AI teknolojilerini halka açık bir halde sunmayı hedeflese de, bu strateji hem olumlu hem de olumsuz sonuçlar doğurabiliyor. Örneğin, Meta’nın Llama isimli AI modelinin yüz milyonlarca kere indirildiği belirtiliyor, lakin bu modelin, ABD’li bir rakip tarafından bir savunma chatbot’u geliştirmek için kullanıldığı da raporlandı. Şirket, AI sistemlerini açık bir biçimde paylaşma stratejisini, Çinli AI şirketi DeepSeek’in emsal stratejisiyle karşılaştırarak, bu cins sistemlerin daha az güvenlik tedbiriyle yönlendirilebileceğini belirtiyor.
Meta, bu evrakta, “ileri seviyede yapay zekâ sistemlerinin geliştirilmesi ve dağıtımına yönelik kararlar alırken, hem yararları hem de riskleri dikkate alarak, bu teknolojiyi topluma sunmanın mümkün olduğuna inanıyoruz,” diyerek, teknolojinin topluma yarar sağlayacak formda ve uygun risk düzeyleriyle sunulması gerektiğini vurguluyor.