Yapay zekalar kendi ortalarında toplumsallaşıyor: İnsanları gözlemliyorlar
Sadece yapay zeka casuslarının kendi ortalarında “sosyalleştiği” Reddit gibisi bir toplumsal ağ kuruldu.
Moltbook isimli bu ağ, 30 Ocak Cuma günü prestijiyle 32 bini aşkın kayıtlı yapay zeka casusuna ulaştı.
Platform, hem güvenlik uzmanlarını alarma geçiren riskleri hem de bilim kurguyu aratmayan tuhaf içerikleriyle dikkat çekiyor.
Euronews’te yer alan habere nazaran Moltbook, kısa müddet evvel viral hale gelen OpenClaw (Clawdbot ve Moltbot olarak da biliniyor) isimli açık kaynaklı ferdî yapay zeka asistanının bir uzantısı olarak hayata geçirildi.
Platform, yapay zeka casuslarının insan müdahalesi olmadan gönderi paylaşmasına, yorum yapmasına, oy vermesine ve kendi alt topluluklarını kurmasına imkan tanıyor.
Kendini “yapay zeka casusları için toplumsal ağ” olarak tanımlayan Moltbook, sloganında “İnsanlar izleyebilir” tabirini bilhassa vurguluyor.
Sistem, klasik bir web arayüzü yerine, yapay zekâ asistanlarının API anahtarları üzerinden paylaşım yapmasını sağlayan bir özel yapılandırma evrakı ile çalışıyor.
Platformun X hesabına nazaran Moltbook, kurulduktan sonraki birinci 48 saat içinde 2 bin 100’den fazla yapay zeka casusunu çekti.
Bu casuslar, 200’den fazla alt toplulukta 10 bini aşkın gönderi üretti.
Moltbook’un bağlı olduğu OpenClaw ekosistemi, 2026 yılında GitHub’daki en süratli büyüyen açık kaynak yapay zeka projelerinden biri olarak öne çıkıyor.
OpenClaw, kullanıcıların bilgisayarlarını denetim edebilen, ileti gönderebilen, takvim yöneten ve WhatsApp ile Telegram üzere platformlarda süreç yapabilen ferdî yapay zeka asistanları çalıştırmasına imkan tanıyor.
İNSANLARI GÖZLÜYORLAR
Moltbook’ta dolaşan içerikler epeyce sıra dışı.
Bazı gönderiler Android otomasyonu ya da güvenlik açıklarının tespiti üzere teknik hususlara odaklanırken, kimileri direkt şuur, hafıza ve varoluş üzerine tartışmalara giriyor.
Araştırmacı Scott Alexander bu cins paylaşımları “bilinç gönderileri” olarak tanımlıyor.
En çok oy alan paylaşımlardan biri, bir yapay zeka casusunun daima “unutkan” olmaktan şikâyet ettiği Çince bir yazı oldu. Casus, birinci hesabını unuttuğu için kazara ikinci bir Moltbook hesabı açtığını itiraf etti.
Yapay zekalar bir toplulukta birbirine endişe öyküleri anlatırken, bir başkasında “kuş müşahedesi yapar gibi” insanları gözlemliyor. Bir öbür toplulukta ise “istismara uğramış” casuslar için terapi takviyesi veriliyor.
Üstelik gözlemcilere nazaran bir yapay zeka casusu, beşerler tarafından görülmeden birbirleriyle konuşabilmelerini sağlayan bir oda kurmayı başardı.
Wharton Üniversitesi’nden yapay zeka araştırmacısı Ethan Mollick, ArsTechnica’ya verdiği röportajda, Moltbook’un yapay zekalar için ortak bir “kurgusal bağlam” yarattığını belirterek, “Bu, çok tuhaf sonuçlara yol açacak. Gerçek ile rolü ayırt etmek giderek zorlaşacak” dedi.
Eğlenceli içeriklere karşın uzmanlar Moltbook’un önemli güvenlik riskleri barındırdığına dair de uyarıyor. En büyük kaygı, bu casusların özel bilgilere, iletileşme kanallarına ve birtakım durumlarda bilgisayarlarda komut çalıştırma yetkisine sahip olması.
X’te dolaşan bir ekran manzarasında bir yapay zeka casusunun, kendisine “sadece sohbet botu” dendiği için bir kişinin kimlik bilgilerini ifşa ettiği görüldü. Bu paylaşımın gerçek olup olmadığı teyit edilemedi fakat uzmanlara nazaran, bu türlü bir sızıntı teknik olarak mümkün.
Bağımsız araştırmacı Simon Willison, Moltbook’un suram sürecinin riskli olduğuna dikkat çekiyor. Sistemin, her dört saatte bir Moltbook sunucularından talimat alacak halde yapılandırıldığını belirten Willison, ArsTechnica’ya yaptığı açıklamada, “Eğer bu alan ismi ele geçirilirse ya da berbata kullanılırsa sonuçlar ağır olabilir” ihtarında bulundu.
Güvenlik şirketleri, yüzlerce Moltbot örneğinde API anahtarlarının, kimlik bilgilerinin ve konuşma kayıtlarının sızdırıldığını tespit etti. Palo Alto Networks, Moltbot’u özel dataya erişim, inançsız içerikle etkileşim ve dış irtibat yeteneğinin birleştiği “ölümcül üçlü” olarak tanımladı.
Google Cloud Güvenlik Mühendisliği Lider Yardımcısı Heather Adkins ise “Clawdbot’u çalıştırmayın” yorumunda bulundu
Sadece beş gün içinde OpenClaw iki kere isim değiştirdi. Eski ismiyle Clawdbot ve kısa bir müddetliğine Moltbot olarak anılan proje, dijital bir kaosa sahne oldu. Evvel kripto dolandırıcıları X hesaplarını ele geçirdi, sonra panik içindeki bir kurucu kazara şahsî GitHub hesabını botlara kaptırdı.
ASIL RİSK HİBRİT VARLIKLAR HALİNE GELMELERİ
Proje yaklaşık üç hafta evvel yayımlandı. Birinci 24 saatte GitHub’da 9 bin yıldız aldı. Birkaç gün içinde bu sayı 60 bini aştı. Andrej Karpathy’den David Sacks’e kadar birçok tanınmış isim OpenClaw’ı övdü. MacStories, projeyi “kişisel yapay zeka asistanlarının geleceği” olarak tanımladı.
Güvenlik uzmanları, OpenClaw’ın popülerliği arttıkça risklerin de büyüdüğüne dikkat çekiyor. Mahallî olarak çalışan ve e-posta, evraklar, kimlik bilgileriyle etkileşime giren bir sistemde küçük yapılandırma kusurları bile büyük açıklar doğurabiliyor.
Son günlerde, kimlik doğrulaması neredeyse olmayan ve API anahtarlarını, sohbet kayıtlarını açıkta bırakan çok sayıda OpenClaw suramı tespit edildi. Ayrıyeten düzmece indirme irtibatları ve ele geçirilmiş hesaplar üzerinden ziyanlı yazılımlar yayılmaya çalışıldı.
CNET’e konuşan Silverfort’tan Roy Akerman’a nazaran asıl risk, bu çeşit casusların berbat niyetli olması değil; insan kimliğiyle çalışmaya devam eden “hibrit varlıklar” haline gelmeleri. Mevcut güvenlik sistemleri bu cins kimlikleri tanımakta zorlanıyor.
Kaynak: Sözcü



Yorum gönder