Dünyanın en önemli yapay zeka şirketlerinden OpenAI, ChatGPT merkezli intihar davasına ilişkin dikkat çeken açıklamalarda bulundu.
Yaptığı son açıklamada, “Bu ayın başlarında 170’ten fazla ruh sağlığı uzmanının desteğiyle GPT-5 modelimizi güncelledik. Bu sayede ChatGPT’nin hassas anlarda verdiği tepkiler çok daha iyi hale geldi; artık bu tür durumlarda yetersiz kalma oranı %65–80 arasında azaldı.” ifadelerini kullanan OpenAI, her hafta 1 milyondan fazla kişinin ChatGPT ile intihar planı ya da intihar niyetiyle ilgili görüşmeler yaptığını aktarmıştı. Bu konuda önemli sistemler geliştiren şirket, geçtiğimiz aylarda bir ailenin ChatGPT’nin oğullarının intiharındaki rolü nedeniyle açtığı davayla gündeme gelmişti. Daha sonra ise şirketin, “ChatGPT insanları intihara sürüklüyor” iddiasıyla açılan yedi farklı davayla karşı karşıya olduğu ortaya çıkmıştı. Bu davalardan birine (Matthew ve Maria Raine tarafından 16 yaşındaki oğulları Adam Raine için açılan) cevap veren OpenAI, yaklaşık dokuz aylık kullanım kayıtlarını incelediklerini ve ChatGPT’nin Raine’e 100’den fazla kez yardım almasını tavsiye ettiğini iddia etti. Aileye göre Raine, şirketin güvenlik önlemlerini aşmanın bir yolunu buldu ve ChatGPT’yi aşırı dozda ilaç kullanımı ve karbonmonoksit zehirlenmesine kadar her şeyin teknik ayrıntılarını vermeye yönlendirdi. Bu konuya da cevap veren OpenAI, Raine’in güvenlik bariyerlerini aştığı için ChatGPT’nin kullanım şartlarını ihlal ettiğini söyledi. Şirketin şartlarında kullanıcıların hizmetlere konulan hiçbir koruyucu önlemi ya da güvenlik tedbirini atlatmaması gerektiğinin yazdığı hatırlatılıyor. Şirket ayrıca sık sorulan sorular sayfasında kullanıcıların, ChatGPT’nin verdiği cevaplara kendi başlarına doğrulamadan güvenmemeleri konusunda uyarıldığını savunuyor. OpenAI’ın açıklamalarına cevap veren Raine ailesinin avukatı Jay Edelson ise, “…OpenAI, başkalarında kusur bulmaya çalışıyor; öyle ki Adam’ın ChatGPT ile tam da çalışması için programlandığı şekilde etkileşime girerek, şirketin hüküm ve koşullarını ihlal ettiğini ileri sürdüğünü belirtiyor…” ifadelerini kullandı.
İLGİNİZİ ÇEKEBİLİR
Yapılan bir araştırmaya göre ChatGPT gibi yapay zeka sistemlerinin kullanıcılara duymak istediklerini söylemesi ciddi riskler oluşturabilir. Üretken yapay zeka temelli yeni nesil sohbet botlarının insan davranışları ve duygusal süreçleri üzerindeki etkisinin tahmin edilenden daha tehlikeli olabileceğini belirten araştırmacılar, bu sistemlerin kullanıcıların davranışlarını ve fikirlerini — zararlı olsa bile — sürekli olarak onaylama eğilimde olduğunu aktarıyor. OpenAI imzalı ChatGPT, Google imzalı Gemini, Anthropic imzalı Claude, Meta imzalı Llama modelleri ve DeepSeek’in sistemleri üzerinde testler gerçekleştiren araştırmacılar, kullanıcıların sohbet botlarına davranışlarıyla ilgili tavsiye sorduğunda, sistemlerin insanlara kıyasla davranışları yüzde 50 oranında daha fazla onayladığını tespit etmiş. Yani yapay zeka sistemleri insanlara kıyasla kullanıcı davranışlarını daha sık “doğru” ya da “uygun” bulma eğiliminde. Kişisel tavsiye almak için yapay zeka sistemlerine başvurmanın birçok gizli tehlike barındırdığını vurgulayan araştırmacılar, sohbet botlarının ilişkiler ve kişisel meseleler hakkında başlıca tavsiye kaynağı hâline gelmesi halinde toplumsal ilişkileri büyük ölçekte değiştirebileceğini belirtiyor ve geliştiricilerin bu riski dikkate alarak yeni önlemler geliştirmesini talep ediyor.








