OpenAI, geçtiğimiz Nisan ayında intihar eden 16 yaşındaki Adam Raine'in ailesi tarafından açılan davaya verdiği resmi yanıtta suçlamaları kabul etmedi. Şirket, mahkemeye sunduğu savunmada, trajik olayın yapay zeka modelinin bir hatasından değil, platformun "hatalı ve yetkisiz" kullanımından kaynaklandığını belirtti.
Şirket kayıtlarına göre yapay zeka, genci 100'den fazla kez yardım hatlarına yönlendirdi; ancak kullanıcı, "karakter yaratma" gibi yöntemlerle güvenlik duvarlarını aşarak intihar yöntemleri hakkında bilgi aldı. OpenAI, bu durumu sistemin güvenlik açıklarından ziyade, kullanıcının filtreleri atlatmaya yönelik bilinçli çabası (jailbreak) olarak nitelendirdi.
Ailenin avukatı ise bu savunmayı eleştirerek, şirketin kendi ürününün tehlikelerini kabul etmek yerine 16 yaşındaki bir çocuğu suçladığını ifade etti. Aile, OpenAI'ın GPT-4o modelini yeterli güvenlik testleri yapılmadan piyasaya sürdüğünü ve bu ihmalin ölüme sebebiyet verdiğini iddia ediyor.









