reklamı kapat

POPÜLER

Anthropic

Anthropic, OpenAI’ın “Claude” erişimini ToS ihlali nedeniyle yasakladı

Yapay zeka dünyasının en büyük isimlerinden Anthropic, sürpriz bir adımla OpenAI’ın Claude erişimini ToS (Hizmet şartları / Kullanım koşulları) ihlali nedeniyle yasakladı.

Wired’a konuşan birden fazla kaynak, OpenAI’ın Claude API’ına erişiminin Anthropic tarafından kesildiğini doğruladı. Görünüşe göre bu karar, OpenAI’daki mühendislerin GPT-5’in geliştirme sürecinde Claude’u kullandıklarının anlaşılmasının ardından alındı. Anthropic’in ticari hizmet şartlarına göre müşterilerin Claude’u birebir rakip bir ürün veya hizmet geliştirmek (buna rakip yapay zeka modellerinin eğitimi de dahil) ya da hizmetleri tersine mühendislik ile analiz etmek veya kopyalamak amacıyla kullanmaları kesinlikle yasak. Bu kararın ardından bir açıklama yapan OpenAI sözcüsü, “Anthropic’in API erişimimizi kesme kararına saygı duyuyoruz, ancak bizim API’miz hâlâ onlara açıkken böyle bir karşılık almamız açıkçası hayal kırıklığı yarattı.” dedi. “Claude Code, yazılımcıların hemen her alanda tercih ettiği en büyük yardımcılarından biri oldu. Bu nedenle OpenAI’ın teknik ekibinin de GPT-5’in çıkışı öncesinde Claude Code’u kullanmış olmasına şaşırmadık.” diyen Anthropic, bundan önce Claude Pro ve Max planlarına yeni haftalık kullanım limitleri getirmesiyle ses getirmişti.

“Claude Pro ve Max planları için yeni haftalık kullanım limitlerini devreye aldık. Şu anki kullanıcı davranışlarına bakarsak, bu değişikliklerin yüzde 5’ten az bir kesimi etkilemesi bekleniyor.” diyen Anthropic, özellikle kodlama odaklı Claude Code’a olan talebin — özellikle Max planlar kapsamında — tahminlerinin oldukça ötesine geçtiğini aktarıyor: “Bu büyümeyi desteklemeye kararlıyız ve Claude Code’u daha da güçlü hâle getirmek için çalışıyoruz. Ancak bu noktada bazı değişiklikler yapmak zorundayız. Bazı kullanıcılar Claude Code’u arka planda sürekli olarak 7/24 çalıştırıyor.

Bu tarz kullanımlar gerçekten etkileyici ve biz bunu sürekli mümkün kılmak istiyoruz. Ancak bazı uç durumlar, sistemin sürdürülebilirliği söz konusu olduğunda çok ciddi maliyet oluşturuyor. Örneğin, bir kullanıcı 200 dolarlık planla on binlerce dolarlık model kullanımı gerçekleştirmiş. Bu gibi istisnai vakalar, sınırlamaları kaçınılmaz hâle getirdi.” Anthropic, uygulanacak bu yeni limitler aracılığıyla hesapları paylaşarak ve Claude Code’a erişimi yeniden satarak kullanım politikalarını ihlal eden az sayıdaki kullanıcıyı durdurmayı amaçladığını da söylüyor. Yeni limitlerin kullanıma bağlı olarak şu şekilde olacağı aktarılıyor:

-Pro Planı (aylık 20 dolar): Sonnet 4 modeliyle 40 ila 80 saatlik kullanım.
-Max Planı (aylık 100 dolar): Sonnet 4 modeliyle 140 ila 280 saat ve üst seviye Opus 4 modeliyle 15 ila 35 saatlik kullanım.
-Max Planı (aylık 200 dolar): Sonnet 4 modeliyle 240 ila 480 saat ve Opus 4 modeliyle 24 ila 40 saatlik kullanım.

 

Anthropic haberleri yanında bu da ilginizi çekebilir: Hyundai’den otomatik çalışan şarj robotu