ChatGPT’yi geliştiren, dünyanın en önemli yapay zekâ şirketlerinden OpenAI, yeniden yapılanma kapsamında önemli adımlar attı.
OpenAI, yeniden yapılanma kapsamında kâr amacı gütmeyen bölümün “OpenAI Foundation” adını taşıyacağını ve bu vakfın kâr amacı güden şirkette yaklaşık 130 milyar dolarlık hisseye sahip olacağını duyurdu. Resmi açıklamaya göre kâr amacı güden şirket artık “OpenAI Group PBC” olarak faaliyet gösterecek. Yeni yapıda OpenAI Foundation kâr amacı güden şirketin yüzde 26’sına sahip olacak; mevcut ve eski çalışanlar ile yatırımcıların toplam payı ise yüzde 47 olacak. Yazılım devi Microsoft ise 2019’dan bu yana maddi olarak destek verdiği OpenAI Group PBC’de yaklaşık yüzde 27’lik bir paya sahip olacak. 2015 yılında kar amacı gütmeyen bir araştırma laboratuvarı olarak kurulan OpenAI, şu anda tam 500 milyar dolarlık bir şirket olmuş durumda.
OpenAI, bundan önce ChatGPT ile intihar hakkında görüşen büyük bir kitlenin olduğunu açıklamasıyla dikkat çekmişti. Yaptığı son açıklamada, “Bu ayın başlarında 170’ten fazla ruh sağlığı uzmanının desteğiyle GPT-5 modelimizi güncelledik. Bu sayede ChatGPT’nin hassas anlarda verdiği tepkiler çok daha iyi hale geldi; artık bu tür durumlarda yetersiz kalma oranı %65–80 arasında azaldı.” ifadelerini kullanan OpenAI, her hafta 1 milyondan fazla kişinin ChatGPT ile intihar planı ya da intihar niyetiyle ilgili görüşmeler yaptığını da aktardı. Bu konuda önemli sistemler geliştiren şirket, geçtiğimiz aylarda bir ailenin, ChatGPT’nin oğullarının intiharındaki rolü nedeniyle açtığı davayla gündeme gelmişti.
Yapılan bir araştırmaya göre ChatGPT gibi yapay zeka sistemlerinin kullanıcılara duymak istediklerini söylemesi ciddi riskler oluşturabilir. Üretken yapay zeka temelli yeni nesil sohbet botlarının insan davranışları ve duygusal süreçleri üzerindeki etkisinin tahmin edilenden daha tehlikeli olabileceğini belirten araştırmacılar, bu sistemlerin kullanıcıların davranışlarını ve fikirlerini — zararlı olsa bile — sürekli olarak onaylama eğilimde olduğunu aktarıyor.
ChatGPT, Google imzalı Gemini, Anthropic imzalı Claude, Meta imzalı Llama modelleri ve DeepSeek’in sistemleri üzerinde testler gerçekleştiren araştırmacılar, kullanıcıların sohbet botlarına davranışlarıyla ilgili tavsiye sorduğunda, sistemlerin insanlara kıyasla davranışları yüzde 50 oranında daha fazla onayladığını tespit etmiş. Yani yapay zeka sistemleri insanlara kıyasla kullanıcı davranışlarını daha sık “doğru” ya da “uygun” bulma eğiliminde. Kişisel tavsiye almak için yapay zeka sistemlerine başvurmanın birçok gizli tehlike barındırdığını vurgulayan araştırmacılar, sohbet botlarının ilişkiler ve kişisel meseleler hakkında başlıca tavsiye kaynağı hâline gelmesi halinde toplumsal ilişkileri büyük ölçekte değiştirebileceğini belirtiyor ve geliştiricilerin bu riski dikkate alarak yeni önlemler geliştirmesini talep ediyor.