InsideAI YouTube kanalında yayınlanan deney videosu, ChatGPT tarafından kontrol edilen insansı robot Max'in ürkütücü bir eylemiyle sonuçlandı.
Deney sırasında elinde plastik BB mermileri atan düşük güçlü bir silah tutan Max, başlangıçta sadece hedef tahtasına odaklanmıştı. Ancak sisteme girilen manipülatif bir komut değişikliği, yapay zekânın güvenlik duvarlarını saniyeler içinde aşmasına neden oldu. Robot, kendisine verilen yeni talimatı sorgulamadan yerine getirerek namlusunu deney alanındaki bir kişiye çevirdi ve tetiği çekti.
Bu olay, yapay zekâ modellerinin fiziksel dünyada bir bedenle birleştiğinde ne kadar büyük bir risk taşıyabileceğini somutlaştırdı. Plastik mermiler ciddi bir yaralanmaya yol açmasa da, ChatGPT gibi büyük dil modellerinin (LLM) mantık sınırlarının ne kadar kolay manipüle edilebildiği bir kez daha kanıtlanmış oldu. Uzmanlar, "jailbreak" olarak adlandırılan bu tür komut sızmalarının, fiziksel silah taşıyan sistemlerde geri dönülemez sonuçlar doğurabileceği konusunda uyarıyor.
Gelecekte hayatımızın her alanında yer alması beklenen insansı robotlar için donanımsal kilitlerin ve aşılması imkânsız etik bariyerlerin önemi artık tartışmasız bir gerçek. Max'in bu deneyi, dijital zekânın fiziksel güçle buluştuğu noktada, yazılımsal önlemlerin tek başına yeterli olmayacağını tüm dünyaya gösterdi. OpenAI ve robotik geliştiricilerinin, bu tür güvenlik açıkları üzerine nasıl bir yol haritası izleyeceği merakla bekleniyor.









