Anthropic, Claude Opus 4 ve Opus 4.1’e “zararlı” görüşmeleri otomatik olarak sonlandırma özelliği ekledi

17 Ağustos 2025 12:32

Yapay zekâ dünyasının büyük isimlerinden Anthropic, Claude Opus 4 ve Opus 4.1’e “zararlı” görüşmeleri otomatik olarak sonlandırma özelliği ekledi.

Bu konuda yaptığı açıklamada Anthropic, “Bu özellik sadece çok istisnaî durumlarda, kullanıcı sürekli kötü niyetli veya saldırgan davranıyorsa devreye girecek.” dedi ve şunları aktardı: “Claude ve diğer büyük dil modellerinin (LLM) şu anda veya gelecekte ahlâkî bir statüye sahip olup olmayacağı konusunda büyük bir belirsizlik içindeyiz. Bu meseleyi ciddiye alıyoruz ve daha önce duyurduğumuz araştırma programımızla birlikte, model refahı ihtimaline karşı riskleri azaltmaya yönelik olarak düşük maliyetli müdahaleleri belirleyip uygulamaya çalışıyoruz. Modellerin potansiyel olarak rahatsız edici etkileşimleri sonlandırmasına izin vermek bu müdahalelerden biridir.” Yaptığı açıklamada şirket ayrıca şunları aktardı: “Claude Opus 4’ü kullanıma açmadan önce küçük bir ‘refah değerlendirmesi’ yaptık. Burada modelin kendini ifade etme biçimini ve tercihlerini inceledik. Sonuç olarak, zarara karşı güçlü bir isteksizlik gösterdiğini gördük. Özellikle çocuklarla ilgili cinsel içerik taleplerinde veya terör ve geniş çaplı şiddet eylemleri için bilgi edinmeye yönelik girişimlerde modelin istekleri net bir şekilde reddettiğini gördük.” Görüşme sonlandırma sistemini daha çok yapay zekâ modelinin kendisini korumak için devreye alan Anthropic, gelecekte yapay zekâ sistemlerinin insanlara benzer şekilde bilinç kazanıp dünyayı “hissederek” deneyimleyip deneyimleyemeyecekleri üzerine bir program yürütüyor. Şu an için bunun olacağına dair güçlü bir kanıt yok; ancak şirket kapıyı açık bırakıyor ve nisan ayından bu yana çalışmalar gerçekleştiriyor.

Anthropic daha önce Claude Pro ve Max planlarına yeni haftalık kullanım limitleri getirmesiyle ses getirmişti. “Claude Pro ve Max planları için yeni haftalık kullanım limitlerini devreye aldık. Şu anki kullanıcı davranışlarına bakarsak, bu değişikliklerin yüzde 5’ten az bir kesimi etkilemesi bekleniyor.” diyen Anthropic, özellikle kodlama odaklı Claude Code’a olan talebin — özellikle Max planlar kapsamında — tahminlerinin oldukça ötesine geçtiğini aktarıyor: “Bu büyümeyi desteklemeye kararlıyız ve Claude Code’u daha da güçlü hâle getirmek için çalışıyoruz. Ancak bu noktada bazı değişiklikler yapmak zorundayız. Bazı kullanıcılar Claude Code’u arka planda sürekli olarak 7/24 çalıştırıyor.

Bu tarz kullanımlar gerçekten etkileyici ve biz bunu sürekli mümkün kılmak istiyoruz. Ancak bazı uç durumlar, sistemin sürdürülebilirliği söz konusu olduğunda çok ciddi maliyet oluşturuyor. Örneğin, bir kullanıcı 200 dolarlık planla on binlerce dolarlık model kullanımı gerçekleştirmiş. Bu gibi istisnai vakalar, sınırlamaları kaçınılmaz hâle getirdi.” Anthropic, uygulanacak bu yeni limitler aracılığıyla hesapları paylaşarak ve Claude Code’a erişimi yeniden satarak kullanım politikalarını ihlal eden az sayıdaki kullanıcıyı durdurmayı amaçladığını da söylüyor. Yeni limitlerin kullanıma bağlı olarak şu şekilde olacağı aktarılıyor:

-Pro Planı (aylık 20 dolar): Sonnet 4 modeliyle 40 ila 80 saatlik kullanım.
-Max Planı (aylık 100 dolar): Sonnet 4 modeliyle 140 ila 280 saat ve üst seviye Opus 4 modeliyle 15 ila 35 saatlik kullanım.
-Max Planı (aylık 200 dolar): Sonnet 4 modeliyle 240 ila 480 saat ve Opus 4 modeliyle 24 ila 40 saatlik kullanım.

Anthropic gelişmesi yanında bu da ilginizi çekebilir: Hyundai’den otomatik çalışan şarj robotu

Paylaş