Dünyanın en önemli yapay zeka şirketlerinden OpenAI, ChatGPT’nin insanları intihara sürüklediğini iddia eden yedi farklı dava ile karşı karşıya.
Yaptığı son açıklamada, “Bu ayın başlarında 170’ten fazla ruh sağlığı uzmanının desteğiyle GPT-5 modelimizi güncelledik. Bu sayede ChatGPT’nin hassas anlarda verdiği tepkiler çok daha iyi hale geldi; artık bu tür durumlarda yetersiz kalma oranı %65–80 arasında azaldı.” ifadelerini kullanan OpenAI, her hafta 1 milyondan fazla kişinin ChatGPT ile intihar planı ya da intihar niyetiyle ilgili görüşmeler yaptığını aktarmıştı. Bu konuda önemli sistemler geliştiren şirket, geçtiğimiz aylarda bir ailenin, ChatGPT’nin oğullarının intiharındaki rolü nedeniyle açtığı davayla gündeme gelmişti. Bu endişe verici süreci şimdi yeniden gündeme getiren ise AP’nin son haberi oldu. Bu haber sayesinde şirketin, “ChatGPT insanları intihara sürüklüyor” iddiasıyla açılan yedi farklı davayla karşı karşıya olduğu ortaya çıktı. Davaların merkezindeki kişilerin intihar öncesinde herhangi bir ruhsal rahatsızlığa sahip olmadıkları söyleniyor ve ChatGPT’nin buna ek olarak bazı kişileri zararlı sanrılara yönlendirdiği iddia ediliyor.
İLGİNİZİ ÇEKEBİLİR
Yapılan bir araştırmaya göre ChatGPT gibi yapay zeka sistemlerinin kullanıcılara duymak istediklerini söylemesi ciddi riskler oluşturabilir. Üretken yapay zeka temelli yeni nesil sohbet botlarının insan davranışları ve duygusal süreçleri üzerindeki etkisinin tahmin edilenden daha tehlikeli olabileceğini belirten araştırmacılar, bu sistemlerin kullanıcıların davranışlarını ve fikirlerini — zararlı olsa bile — sürekli olarak onaylama eğilimde olduğunu aktarıyor. OpenAI imzalı ChatGPT, Google imzalı Gemini, Anthropic imzalı Claude, Meta imzalı Llama modelleri ve DeepSeek’in sistemleri üzerinde testler gerçekleştiren araştırmacılar, kullanıcıların sohbet botlarına davranışlarıyla ilgili tavsiye sorduğunda, sistemlerin insanlara kıyasla davranışları yüzde 50 oranında daha fazla onayladığını tespit etmiş. Yani yapay zeka sistemleri insanlara kıyasla kullanıcı davranışlarını daha sık “doğru” ya da “uygun” bulma eğiliminde. Kişisel tavsiye almak için yapay zeka sistemlerine başvurmanın birçok gizli tehlike barındırdığını vurgulayan araştırmacılar, sohbet botlarının ilişkiler ve kişisel meseleler hakkında başlıca tavsiye kaynağı hâline gelmesi halinde toplumsal ilişkileri büyük ölçekte değiştirebileceğini belirtiyor ve geliştiricilerin bu riski dikkate alarak yeni önlemler geliştirmesini talep ediyor.







