reklamı kapat

POPÜLER

Apple LOG Tasarım

Apple, ekim ayında “Ferret” adı verilen bir açık kaynak LLM yayınlamış

Dünyanın en büyük teknoloji firmalarından Apple, ilginç olarak hiç gündeme gelmedi ancak ekim ayında bir açık kaynak LLM yayınlamış.

ChatGPT gibi sistemlerin arkasında LLM / Large Language Model ya da Türkçe karşılığıyla “Büyük Dil Modeli” yer alıyor. Örneğin ChatGPT şu an GPT-4 büyük dil modeli temelinde görev yapıyor, bu konuda teknoloji devi Apple da önemli çalışmalar gerçekleştiriyor hatta bugün firmanın ekim ayında “Ferret” isimli bir açık kaynak LLM yayınladığı gündemde ses getiriyor. Cornell Üniversitesi tarafından desteklenen bu LLM, şu an herhangi birisi tarafından ticari hale getirilemiyor, sadece araştırma / geliştirme odağında kullanılabiliyor. Üretken yapay zeka sistemleri üzerinde tahmin edilenden daha önce çalışmaya başladığı düşünülen Apple, Ferret için hiçbir duyuru gerçekleştirmemiş olmasıyla şaşırtıyor. Görsel algılama yeteneğinin çok yüksek olduğu aktarılan ve aynı zamanda bazı örnekler ile gösterilen LLM, açık kaynak yapısı sayesinde başka araştırmacıların katkılarıyla kısa sürede çok gelişmiş hale getirilebilir ve Apple’a ciddi zaman kazandırabilir. 80 GB belleğe sahip 8 adet Nvidia A100 GPU üzerinde eğitildiği aktarılan yani ürünlerinde hiçbir zaman Nvidia GPU kullanmayan Apple’ın ufkunu genişleten Ferret, şimdilik son kullanıcı için bir şey ifade etmiyor ancak bu LLM çalışmaları üretken yapay zeka tarafının çok güçlü olacağı bilinen iOS 18 için büyük önem arz ediyor.

Hatta geçtiğimiz günlerde çıkan bilgilere göre firma direkt olarak iPhone’larda “LLM” çalıştırmanın yolunu bulmuş durumda. Teknik detaylar elbette oldukça karışık ancak firma büyük LLM verisini direkt olarak flash bellek içinde tutmak istiyor. Yüksek sayıdaki veriye hızlı erişim için “çığır açıcı” özel teknikler geliştirdiği aktarılan şirket, bunu kod adı Ajax olarak geçen ve Apple-GPT de denilen kendi LLM altyapısı için kullanabilir ve böylece iPhone’lar internet bağlantısı olmadığı durumlarda dahi çok gelişmiş bir üretken yapay zeka deneyimi sunabilir.

“Geliştirdiğimiz çığır açıcı sistem, gelişmiş LLM’lerin kaynakların sınırlı olduğu ortamlarda kullanılması ve böylece uygulanabilirliklerinin ve erişilebilirliklerinin artırılması açısından çok önemli” diyen Apple araştırmacıları, paylaştıkları belgede aynı zamanda, “Geliştirilen bu verimlilik odaklı yöntemler, yapay zeka modellerinin iPhone’un mevcut olan belleğinin iki katına kadar çalışmasına olanak tanıyor” açıklamasını da yapıyor. Şirketin LLM’leri iPhone’lar getirme konusunda geliştirdiği tekniklerinden ikisi şunlar:

Pencereleme: “Bunu bir geri dönüşüm yöntemi olarak düşünün. Yapay zeka modeli her seferinde yeni veri yüklemek yerine daha önce işlediği verilerin bir kısmını yeniden kullanıyor. Bu, sürekli bellek çağırma ihtiyacını azaltarak süreci daha hızlı ve sorunsuz hale getirir.”

Paketleme: “Bu teknik bir kitabı her seferinde bir kelime yerine daha büyük parçalar halinde okumaya benziyor. Daha verimli bir şekilde gruplandırmak verilerin flash bellekten daha hızlı okunmasını sağlar, bu da yapay zekanın dil anlama ve üretme becerisini hızlandırır.”

Apple planları yanında bu da ilginizi çekebilir: Renault tarafından hazırlanan uçan araç çalışması