reklamı kapat

POPÜLER

Yapay zeka

“ChatGPT gibi yapay zeka sistemlerinin kullanıcılara duymak istediklerini söylemesi ciddi riskler oluşturabilir”

 - Güncelleme: 27 Ekim 2025 09:51

Yapılan bir araştırmaya göre ChatGPT gibi yapay zeka sistemlerinin kullanıcılara duymak istediklerini söylemesi ciddi riskler oluşturabilir.

Üretken yapay zeka temelli yeni nesil sohbet botlarının insan davranışları ve duygusal süreçleri üzerindeki etkisinin tahmin edilenden daha tehlikeli olabileceğini belirten araştırmacılar, bu sistemlerin kullanıcıların davranışlarını ve fikirlerini — zararlı olsa bile — sürekli olarak onaylama eğilimde olduğunu aktarıyor. OpenAI imzalı ChatGPT, Google imzalı Gemini, Anthropic imzalı Claude, Meta imzalı Llama modelleri ve DeepSeek’in sistemleri üzerinde testler gerçekleştiren araştırmacılar, kullanıcıların sohbet botlarına davranışlarıyla ilgili tavsiye sorduğunda, sistemlerin insanlara kıyasla davranışları yüzde 50 oranında daha fazla onayladığını tespit etmiş. Yani yapay zeka sistemleri insanlara kıyasla kullanıcı davranışlarını daha sık “doğru” ya da “uygun” bulma eğiliminde. Kişisel tavsiye almak için yapay zeka sistemlerine başvurmanın birçok gizli tehlike barındırdığını vurgulayan araştırmacılar, sohbet botlarının ilişkiler ve kişisel meseleler hakkında başlıca tavsiye kaynağı hâline gelmesi halinde toplumsal ilişkileri büyük ölçekte değiştirebileceğini belirtiyor ve geliştiricilerin bu riski dikkate alarak yeni önlemler geliştirmesini talep ediyor.

OpenAI CEO’su Sam Altman, geçtiğimiz aylarda yaptığı bir paylaşımda insanların belirli yapay zekâ modellerine karşı geliştirdiği güçlü duygusal bağa dikkat çekmişti. Bu bağın, önceki teknolojilere duyulan bağlılıktan daha farklı ve oldukça derin olduğunu söyleyen Altman, paylaşımında GPT-5 ile beraber diğer yapay zekâ modellerini (GPT-4 serisi) aniden kaldırmanın bir hata olduğunu da kabul etti. Yapay zekâ sistemleri ve modellerine yönelik bu güçlü duygusal bağı yaklaşık bir yıldır yakından takip ettiklerini belirten Altman, yapay zekâ sistemlerinin özellikle kırılgan ve gerçeklikten kopma riski olan kişilerde yanlış etkiler yaratabileceğini söylüyor. OpenAI’ın temel prensibinin kullanıcı özgürlüğü olduğunu, ancak bazı durumlarda kullanıcıların gerçekten istediklerinden emin olmaları için onlara karşı çıkılabileceğini vurgulayan Altman, ChatGPT’nin birçok kişi tarafından terapist veya yaşam koçu gibi kullanılmasının doğru şekilde yapıldığında faydalı olacağını; ancak yanlış yönlendirme, bağımlılık veya uzun vadeli iyilik hâlinden uzaklaşma gibi durumların zararlı olacağını belirtiyor. “Çok sayıda insanın en önemli kararlarında ChatGPT’nin tavsiyelerine gerçekten güvendiği bir gelecek hayal edebiliyorum. Bu harika olsa da, beni huzursuz ediyor.” diyen Altman, OpenAI’ın gelişmiş ölçüm ve analiz teknolojileri sayesinde bu süreci doğru yönetebileceğine inandığını ifade ediyor.

Yapay zeka gelişmeleri yanında bu da ilginizi çekebilir: Hyundai’den otomatik çalışan şarj robotu