Yapay zeka dönüşümü çağına girerken, CEO Satya Nadella'nın Build 2024 geliştirici konferansının başlangıcında vurguladığı gibi, Microsoft kendisini bir kez daha temel bir dönüm noktasında buluyor. yalnızca duyurulan yapay zeka bilgisayarları gibi yeni platformlara ihtiyaç var, ancak geliştiricilerin bu tür uygulamaları oluşturmak için uygun araçlara ve yardımlara da sahip olması gerekiyor. Microsoft artık, Windows Copilot Çalışma Zamanı temelinde, diğerlerinin yanı sıra, Windows Copilot Kitaplığı ve Phi Silica da dahil olmak üzere Phi serisinden yeni Küçük Dil Modelleri (SLM) ile bunun koşullarını oluşturmak istiyor.
Duyuru
Açık yapay zeka geliştirme platformu olarak Windows Copilot Runtime
Yeni Windows Copilot Çalışma Zamanı, Microsoft'un geliştirici blogunda utanmazca duyurduğu gibi, Windows'un kendisini “Yapay Zeka gelişimi için en açık platform” olarak kurmasının temelini oluşturmayı amaçlıyor. Bir yandan Copilot Runtime, Nöral İşleme Birimlerine (NPU'lar) sahip Copilot+ PC'ler için yeni donanıma dayanıyor; örneğin Qualcomm'un ARM mimarisine sahip Snapdragon X serisi. Ayrıca Windows için Snapdragon Geliştirici Kiti de bulunmaktadır. Yerleşik Windows Copilot kitaplığı aracılığıyla geliştiricilerin kullanımına çok sayıda API sunulmaktadır. Windows ile birlikte sağlanan AI modellerine (Microsoft 40'tan fazla modelden bahsediyor) erişime izin vermeyi amaçlıyorlar ve bunlar doğrudan bilgisayarda yerel olarak kullanılabilecek.
Windows Uygulama SDK'sı aracılığıyla erişilebilen API'ler şu anda yeni Studio Efektleri, canlı çeviriler, metin tanıma ve Aramayı Geri Çağırma işlevi gibi işlevsel alanları kapsamaktadır. Vektör yerleştirme, artırılmış oluşturma (RAG) alımı ve metin özetleri için ek API'ler daha sonraki bir tarihte sunulacaktır. Yeni SLM Phi Silica, ilk Copilot+ PC'lerin satışa çıkmasının beklendiği Haziran ayından itibaren satışa sunulacak. Phi 3 Serisinin 3,3 milyar parametreli SLM'si, AI PC NPU'ları için özel olarak tasarlanmıştır. Phi Silica, AI algoritmasının yürütülmesini tamamen yerel olarak NPU'ya taşımayı ve yeni sistemlerin hem CPU'sunu hem de GPU'sunu boşaltmayı hedefliyor. Microsoft, yalnızca 1,5 watt civarında bir güç gereksinimiyle saniyede 650 tokenlik bir başlangıç token gecikmesinden bahsediyor.
Windows'ta daha fazla yapay zeka çeşitliliği için DirectML
Microsoft'un yukarıda bahsedilen yapay zeka modellerine ek olarak geliştiriciler, mevcut ve kendi modellerini tek tip Windows API DirectML'ye dayalı yapay zeka uygulamalarına entegre etme konusunda yeni fırsatlara da sahip. Bir soyutlama katmanı olarak DirectML, AI modellerinin farklı GPU'lar ve NPU'larda (CPU'lar da takip edecek) kullanılmasına olanak tanır ve PyTorch, ONNX Runtime ve WebNN gibi yaygın makine öğrenimi çerçeveleriyle kullanılabilir. Microsoft artık Windows'ta, en azından GPU'larda, PyTorch için yerel desteği bile duyurdu. Şirket bunu bir an önce NPU’lara sağlamak istiyor. Hugging Face'te erişilebilen çok sayıda yapay zeka modeli bugün Windows'ta zaten kullanılabiliyor.
Düşük seviyeli DirectML API'sinin şematik yapısı.
(Resim: Microsoft)
Yapay zekanın web uygulamalarında kullanımına ilişkin olarak geliştiriciler artık WebNN'den bir geliştirici ön izlemesine erişebilir. World Wide Web Konsorsiyumu (W3C) şu anda Web Sinir Ağı API'sini (WebNN) belirlemektedir. DirectML ve ONNX Web Runtime ile birlikte, ML modellerinin tarayıcıda yürütülmesini hızlandırmak amaçlanıyor. Bunun için GPU'ları kullanmak şu an için mümkün ancak Microsoft, NPU'lara ileriki bir tarihte destek sağlamak istiyor.
(harita)
Haberin Sonu
Duyuru
Açık yapay zeka geliştirme platformu olarak Windows Copilot Runtime
Yeni Windows Copilot Çalışma Zamanı, Microsoft'un geliştirici blogunda utanmazca duyurduğu gibi, Windows'un kendisini “Yapay Zeka gelişimi için en açık platform” olarak kurmasının temelini oluşturmayı amaçlıyor. Bir yandan Copilot Runtime, Nöral İşleme Birimlerine (NPU'lar) sahip Copilot+ PC'ler için yeni donanıma dayanıyor; örneğin Qualcomm'un ARM mimarisine sahip Snapdragon X serisi. Ayrıca Windows için Snapdragon Geliştirici Kiti de bulunmaktadır. Yerleşik Windows Copilot kitaplığı aracılığıyla geliştiricilerin kullanımına çok sayıda API sunulmaktadır. Windows ile birlikte sağlanan AI modellerine (Microsoft 40'tan fazla modelden bahsediyor) erişime izin vermeyi amaçlıyorlar ve bunlar doğrudan bilgisayarda yerel olarak kullanılabilecek.
Windows Uygulama SDK'sı aracılığıyla erişilebilen API'ler şu anda yeni Studio Efektleri, canlı çeviriler, metin tanıma ve Aramayı Geri Çağırma işlevi gibi işlevsel alanları kapsamaktadır. Vektör yerleştirme, artırılmış oluşturma (RAG) alımı ve metin özetleri için ek API'ler daha sonraki bir tarihte sunulacaktır. Yeni SLM Phi Silica, ilk Copilot+ PC'lerin satışa çıkmasının beklendiği Haziran ayından itibaren satışa sunulacak. Phi 3 Serisinin 3,3 milyar parametreli SLM'si, AI PC NPU'ları için özel olarak tasarlanmıştır. Phi Silica, AI algoritmasının yürütülmesini tamamen yerel olarak NPU'ya taşımayı ve yeni sistemlerin hem CPU'sunu hem de GPU'sunu boşaltmayı hedefliyor. Microsoft, yalnızca 1,5 watt civarında bir güç gereksinimiyle saniyede 650 tokenlik bir başlangıç token gecikmesinden bahsediyor.
Windows'ta daha fazla yapay zeka çeşitliliği için DirectML
Microsoft'un yukarıda bahsedilen yapay zeka modellerine ek olarak geliştiriciler, mevcut ve kendi modellerini tek tip Windows API DirectML'ye dayalı yapay zeka uygulamalarına entegre etme konusunda yeni fırsatlara da sahip. Bir soyutlama katmanı olarak DirectML, AI modellerinin farklı GPU'lar ve NPU'larda (CPU'lar da takip edecek) kullanılmasına olanak tanır ve PyTorch, ONNX Runtime ve WebNN gibi yaygın makine öğrenimi çerçeveleriyle kullanılabilir. Microsoft artık Windows'ta, en azından GPU'larda, PyTorch için yerel desteği bile duyurdu. Şirket bunu bir an önce NPU’lara sağlamak istiyor. Hugging Face'te erişilebilen çok sayıda yapay zeka modeli bugün Windows'ta zaten kullanılabiliyor.
Düşük seviyeli DirectML API'sinin şematik yapısı.
(Resim: Microsoft)
Yapay zekanın web uygulamalarında kullanımına ilişkin olarak geliştiriciler artık WebNN'den bir geliştirici ön izlemesine erişebilir. World Wide Web Konsorsiyumu (W3C) şu anda Web Sinir Ağı API'sini (WebNN) belirlemektedir. DirectML ve ONNX Web Runtime ile birlikte, ML modellerinin tarayıcıda yürütülmesini hızlandırmak amaçlanıyor. Bunun için GPU'ları kullanmak şu an için mümkün ancak Microsoft, NPU'lara ileriki bir tarihte destek sağlamak istiyor.
(harita)
Haberin Sonu