A­M­D­,­ ­R­A­M­’­i­ ­C­P­U­ ­ç­e­k­i­r­d­e­k­l­e­r­i­n­e­ ­y­a­k­l­a­ş­t­ı­r­m­a­y­ı­ ­p­l­a­n­l­ı­y­o­r­ ­–­ ­a­n­c­a­k­ ­y­a­k­ı­n­d­a­ ­P­C­’­l­e­r­d­e­ ­b­e­k­l­e­m­e­y­i­n­

A­M­D­,­ ­R­A­M­’­i­ ­C­P­U­ ­ç­e­k­i­r­d­e­k­l­e­r­i­n­e­ ­y­a­k­l­a­ş­t­ı­r­m­a­y­ı­ ­p­l­a­n­l­ı­y­o­r­ ­–­ ­a­n­c­a­k­ ­y­a­k­ı­n­d­a­ ­P­C­’­l­e­r­d­e­ ­b­e­k­l­e­m­e­y­i­n­

AMD, iletişim maliyetini azaltmak istiyor ve bellek ile bilgi işlem arasında bit aktarma maliyetini önemli ölçüde düşürmek için bir kampanya yürütüyor. Veri deposu üstünde İşlemci/GPU.

Şirket CEO’su Dr. Lisa Su kısa süre önce Uluslararası Katı Hal Devreleri Konferansı’nda (ISSCC) 2023’te üst düzey bir sunum yaptı ve hesaplama işlemleri (FLOPS) başına enerji miktarını (Joule cinsinden ifade edilir) azaltma ihtiyacı hakkında kapsamlı bir şekilde konuştu.

Aksi takdirde (kendi ifadesiyle) sonraki Zettaflop özellikli süper bilgisayarın bir nükleer enerji santraline ihtiyacı olacak koşmaya devam etmek – ve bu gerçekçi veya sürdürülebilir bir şey değil.

Bunun yerine Su, vat başına performanstaki en büyük iyileştirmelerin, bellek ile hesaplamanın yapıldığı yer (CPU veya GPU üzerinde) arasındaki fiziksel mesafeyi azaltarak sağlanacağına inanıyor. Örneğini kullandı MI300 hızlandırıcı yeni nesil AMD Instinct kullanan APU bazı önemli güç tasarrufları sağlamak için birleştirilmiş HBM (Yüksek bant genişliğine sahip bellek) ile.

Eşzamanlı olarak AMD, verilere erişmek için gereken enerjiyi azaltmak için bellekte işlemeyi zaten entegre etti.

Su’nun sunumunda, “Önemli algoritmik çekirdekler doğrudan bellekte yürütülerek değerli iletişim enerjisinden tasarruf edilebilir”den bahsedildi ve AMD bunun için DRAM konusundaki uzmanlığı yadsınamaz olan Samsung Electronics ile işbirliği yapıyor.

Çip üzerinde bellek zaten yaygın: AMD bunu kendi paketinde topluyor AMD Ryzen 9 7950X3D ve ondan önce onun üzerinde Ryzen 7 5800X3D (bu belleğin DRAM’den daha hızlı ve daha pahalı SRAM olduğunu unutmayın). HBM, AMD’nin Instinct MI hızlandırıcılarında ve Nvidia’nın popüler A100 hızlandırıcı, arkasındaki beyinler ChatGPT. Apple’ın M serisi kullanımları HBM işlemciye bağlı ama çip yerine paket üzerinde kalıp.

Son derece yüksek miktarlarda yüksek bant genişliği gerektiren iş yükleri, güç gereksinimlerini (ve ilgili maliyetleri) öncelik listesinde üst sıralara iterken, HPC sonunda, çip üzerinde bellek tam ölçeğine doğru ilerleyecektir.

Fujitsu’nun A64FX işlemcisi, 2019’da piyasaya sürülen, gerçek bir öncü ve öncüdür, düzinelerce Arm çekirdeğini 32 GB HBM2 bellekle birleştirir ve 1TBps’lik muazzam bir bant genişliği sunar ve halihazırda HBM3’te mevcuttur. Nvidia’nın Hopper H100’ü kurumsal GPU, işler daha da ilginçleşecek. Rambus, HBM3 spesifikasyonlarının ötesine geçmeyi planlıyor ve ima etti, geçen Nisan1,05TBps bant genişliğine kadar.

1 tonluk goril Apple’ın bulutu olan HBM’ye artan ilgi ve egzotik bir güç kaynağına (ve aynı derecede egzotik soğutma sistemine) ihtiyaç duymadan bitmeyen bant genişliği arayışı, HBM’nin – uzun vadede – yerini alması muhtemeldir. Ana bellek formatı olarak DIMM (ve GDDR): Suçu Apple’a atın.

Dr. Su, ilk Zettascale süper bilgisayarının 2035’ten önce piyasaya sürülmesini bekliyor: bu da bize mükemmel çözümü bulmak için 12 yıl bırakıyor. AI önce oraya varır.

Popular Articles

Latest Articles