AWS ve NVIDIA, büyük makine öğrenimi modellerini eğitmek ve üretici yapay zeka uygulamaları oluşturmak için yeni nesil altyapıya odaklanan bir iş birliği yapıyor

EC2 UltraClusters’da kullanılan yeni Amazon EC2 P5 bulut sunucuları, üretici yapay zeka eğitimini ve büyük ölçekte çıkarımı hızlandırmak için NVIDIA Hopper GPU’lardan yararlanacak şekilde optimize edildi

Bir Amazon şirketi (NASDAQ: AMZN) olan Amazon Web Services (AWS) ve NVIDIA (NASDAQ: NVDA) giderek karmaşıklaşan büyük dil modellerini (LLM’ler) eğitmek ve üretici yapay zeka uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı yapay zeka (AI) altyapısını oluşturmaya odaklanan çok yönlü bir iş birliği yaptıklarını duyurdu.

Bu iş birliği, NVIDIA H100 Tensor Core GPU’lar tarafından desteklenen yeni nesil Amazon Elastic Compute Cloud (Amazon EC2) P5 bulut sunucularını ve AWS’in en büyük derin öğrenme modellerini oluşturmak ve eğitmek için 20 exaFLOP’a kadar işlem performansı sağlayacak son teknoloji ağ iletişimini ve ölçeklenebilirliğini kapsıyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme süreli, yüksek bant genişlikli ağ aktarım hızı sağlayarak müşterilerin EC2 UltraClusters’da 20.000 H100 GPU’ya kadar ölçeklendirme yapmasına olanak tanıyan ve böylece yapay zeka için istek üzerine süper bilgisayar sınıfı performansa erişebilmelerini sağlayan AWS’in ikinci nesil Esnek Yapı Bağdaştırıcısı (EFA, Elastic Fabric Adapter) ağ iletişiminden yararlanan ilk GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan şirketler arasında, ürün geliştirmelerini hızlandırmak ve müşterilerine yeni empatik yapay zeka tabanlı deneyimler sunmak isteyen dünya çapında tanınan şirketlerden biri olan Pinterest yer alıyor. 

AWS CEO’su Adam Selipsky konuyla ilgili olarak şunları söyledi: “AWS ve NVIDIA, AI/ML (yapay zeka/makine öğrenimi), grafik, oyun ve HPC (yüksek performanslı bilişim) gibi çeşitli uygulamalara yönelik, istek üzerine, büyük ölçekli, uygun maliyetli, GPU tabanlı çözümler sunmak için 12 yılı aşkın süredir iş birliği yapıyor. Bugün birçok müşterinin makine öğrenimi eğitimi iş yüklerini 10.000’den fazla GPU’ya ölçeklendirdiği de göz önüne alınırsa, AWS her nesilde ölçeklenebilirlik sınırlarını zorlayan GPU tabanlı bulut sunucuları sunma konusunda benzersiz bir deneyime sahip. İkinci nesil EFA, müşterilerin P5 bulut sunucularını 20.000’den fazla NVIDIA H100 GPU’ya ölçeklendirmelerine olanak sağlayarak startup’lardan büyük şirketlere kadar geniş bir yelpazede müşterilere istek üzerine süper bilgisayar yetenekleri sunabilecek.”

NVIDIA kurucusu ve CEO’su Jensen Huang ise, “Hızlandırılmış bilgi işlem ve yapay zeka tam zamanında geldi. Hızlandırılmış bilgi işlem, işletmeler daha az kaynakla daha fazlasını yapmaya çalışırlarken maliyetleri ve gücü düşürmenin yanı sıra kademeli işlevlerin hızlandırılmasını sağlar. Üretici yapay zeka, şirketleri, ürünlerini ve iş modellerini yeniden tasarlamaya teşvik etti ve yıkılan değil yıkıcı olan olabileceklerini fark etmelerini sağladı. AWS, uzun süredir çözüm ortağımız ve NVIDIA GPU’ları sunan ilk bulut hizmeti sağlayıcısı. Müşterilerimizin önlerindeki muazzam fırsatları değerlendirmek için hızlandırılmış bilgi işlem ve üretici yapay zekadan yararlanmalarına yardımcı olmak için uzmanlığımızı, ölçeğimizi ve erişimimizi birleştirmekten heyecan duyuyoruz,” şeklinde konuştu. 

Yeni Süper Bilgi İşlem Kümeleri ve Sunucu Tasarımları

NVIDIA GPU’lar tarafından desteklenen yeni P5 bulut sunucuları, soru yanıtlama, kod oluşturma, video ve görüntü oluşturma, ses tanıma ve daha fazlası dahil olmak üzere en zorlu ve bilgi işlem açısından yoğun üretici yapay zeka uygulamalarının arkasındaki giderek karmaşıklaşan LLM’leri ve görüntü işleme modellerini eğitmek için ideal olarak kullanılabiliyor. Yeni sunucu tasarımları ise, NVIDIA ve AWS mühendislik ekiplerinin termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve verimli yapay zekayı hedefliyor ve AWS altyapısında enerji verimliliğine odaklanarak geniş ölçekte yapay zeka sunmak için GPU’lardan yararlanan sunucular oluşturulmasını sağlıyor. GPU’lar genellikle belirli yapay zeka iş yükleri için CPU’lardan 20 kat daha fazla enerji tasarrufludur ve H100, LLM’ler için CPU’lardan 300 kata kadar daha verimlidir.

Kaynak: (BYZHA) – Beyaz Haber Ajansı

Exit mobile version