-
ด้วยสถาปัตยกรรมใหม่ AMD CDNATM 2 ทำให้กราฟิกการ์ด AMD Instinct MI200 มาพร้อมข้อได้เปรียบด้านประสิ
ทธิภาพของการทำงานด้าน HPC ที่เหนือชั้นกว่า 4.9 เท่า กับงานด้านวิทยาศาสตร์และการค้ นคว้า เมื่อเปรียบเทียบกับกราฟิกการ์ ดกลุ่มดาต้าเซ็นเตอร์ของคู่แข่ง — -
กราฟิการ์ดซีรีย์ MI200 เป็นกราฟิกการ์ดแบบ multi-die ตัวแรกที่รองรับหน่วยความจำ HBM2e ขนาด 128GB และเพิ่มประสิทธิ
ภาพการทำงานบนแอปพลิเคชั่นสำคั ญๆ ที่ใช้เป็นพื้นฐานการทำงานด้ านวิทยาศาสตร์ —
AMD (NASDAQ: AMD) ประกาศเปิดตัวผลิตภัณฑ์กราฟิ
กราฟิกการ์ดซีรีย์ AMD Instinct MI200 สร้างขึ้นบนสถาปัตยกรรม AMD CDNA 2 มอบประสิทธิภาพการทำงานบนแอปพลิ
ฟอร์เรสต์ นอร์รอด รองประธานอาวุโสและผู้จัดการทั่
Exascale With AMD
AMD ทำงานร่วมกับกระทรวงพลั
โทมัส ซาชาเรีย ผู้อำนวยการศูนย์ปฎิบัติการแห่
การขับเคลื่อนอนาคตของ HPC
กราฟิกการ์ดซีรีย์ AMD Instinct MI200 ผสมผสานการทำงานร่วมกั
คุณสมบัติและฟีเจอร์หลั
-
สถาปัตยกรรม AMD CDNA 2: ด้วยคอร์ประมวลผล 2nd Gen Matrix Cores ที่ช่วยเร่งความเร็
วในการประมวลผลแบบ FP64 และ FP32 ทำให้ได้ประสิทธิภาพสูงสุ ดในทางทฤษฎีแบบ FP64 เพิ่มขึ้นถึง 4 เท่า เมื่อนำไปเปรียบเทียบกับกราฟิ กการ์ดรุ่นก่อนหน้าของ AMD i,3,4 -
เทคโนโลยีด้านบรรจุภัณฑ์ในระดั
บผู้นำ - การออกแบบกราฟิกการ์ดแบบ multi-die ตัวแรกของอุตสาหกรรมด้ วยเทคโนโลยี 2.5D Eleveated Fanout Bridge (EFB) ที่เพิ่มแกนคอร์ประมวลผลขึ้น 1.8 เท่า และแบนด์วิดท์หน่วยความจำเพิ่ มขึ้น 2.7 เท่า เมื่อนำไปเปรียบเทียบกับกราฟิ กการ์ดรุ่นก่อนหน้าของ AMD ซึ่งให้ภาพรวมในด้านประสิทธิ ภาพด้านหน่วยความจำดีที่สุดในอุ ตสาหกรรที่ 3.2 เทราไบต์ต่อวินาที 4,5,6 -
เทคโนโลยี 3rd Gen AMD Infinity Fabric - มีลิงค์เชื่อมต่อ Infinity Fabric เพิ่มขึ้นสูงสุด 8 ลิงค์ที่เชื่อมต่อกราฟิกการ์ด AMD Instinct MI200 เข้ากับโปรเซสเซอร์ 3rd Gen EPYC และกราฟิกการ์ดอื่น ๆ ในโหนด เพื่อให้หน่
วยความจำของโปรเซสเซอร์และกราฟิ กการ์ดมีความสอดคล้องกั นในการทำงาน และเพิ่มเวิร์ คโหลดการทำงานในระบบ ช่วยให้โค้ดโปรเซสเซอร์ทำงานง่ ายขึ้นผ่านประสิทธิภาพของกราฟิ กการ์ด
ซอฟต์แวร์สำหรับการค้นคว้าทางวิ
AMD ROCm เป็นแพลตฟอร์มซอฟต์แวร์แบบเปิ
นักวิจัย นักวิทยาศาสตร์ข้อมูล และผู้ใช้ทั่วไปสามารถค้นหา ดาวน์โหลดและติดตั้
ความพร้อมในการใช้งานโซลูชั่
กราฟิกการ์ด AMD Instinct MI250X และ AMD Instinct MI250 พร้อมวางจำหน่ายแล้วในรู
ในปัจจุบัน กราฟิกการ์ด AMD MI250X พร้อมให้ใช้งานแล้วบนซูเปอร์
MI200 Series Specifications
Models |
Compute Units |
Stream Processors |
FP64 | FP32 Vector (Peak) |
FP64 | FP32 Matrix (Peak) |
FP16 | bf16 (Peak) |
INT4 | INT8 (Peak) |
HBM2e |
Memory Bandwidth |
Form Factor |
||||||||||
AMD Instinct MI250x |
220 |
14,080 |
Up to 47.9 TF |
Up to 95.7 TF |
Up to 383.0 TF |
Up to 383.0 TOPS |
128GB |
3.2 TB/sec |
OCP Accelerator Module |
||||||||||
AMD Instinct MI250 |
208 |
13,312 |
Up to 45.3 TF |
Up to 90.5 TF |
Up to 362.1 TF |
Up to 362.1 TOPS |
128GB |
3.2 TB/sec |
OCP Accelerator Module |
Supporting Resources
- Learn more about AMD Instinct™ Accelerators
- Learn more about AMD HPC Solutions
- Learn more about AMD CDNA™ 2 architecture
- Learn more about the AMD EPYC™ processors
- Become a fan of AMD on Facebook
- Follow AMD on Twitter
- Connect with AMD On LinkedIn
-
World’s fastest data center GPU is the AMD Instinct™ MI250X. Calculations conducted by AMD Performance Labs as of Sep 15, 2021, for the AMD Instinct™ MI250X (128GB HBM2e OAM module) accelerator at 1,700 MHz peak boost engine clock resulted in 95.7 TFLOPS peak theoretical double precision (FP64 Matrix), 47.9 TFLOPS peak theoretical double precision (FP64), 95.7 TFLOPS peak theoretical single precision matrix (FP32 Matrix), 47.9 TFLOPS peak theoretical single precision (FP32), 383.0 TFLOPS peak theoretical half precision (FP16), and 383.0 TFLOPS peak theoretical Bfloat16 format precision (BF16) floating-point performance. Calculations conducted by AMD Performance Labs as of Sep 18, 2020 for the AMD Instinct™ MI100 (32GB HBM2 PCIe® card) accelerator at 1,502 MHz peak boost engine clock resulted in 11.54 TFLOPS peak theoretical double precision (FP64), 46.1 TFLOPS peak theoretical single precision matrix (FP32), 23.1 TFLOPS peak theoretical single precision (FP32), 184.6 TFLOPS peak theoretical half precision (FP16) floating-point performance. Published results on the NVidia Ampere A100 (80GB) GPU accelerator, boost engine clock of 1410 MHz, resulted in 19.5 TFLOPS peak double precision tensor cores (FP64 Tensor Core), 9.7 TFLOPS peak double precision (FP64). 19.5 TFLOPS peak single precision (FP32), 78 TFLOPS peak half precision (FP16), 312 TFLOPS peak half precision (FP16 Tensor Flow), 39 TFLOPS peak Bfloat 16 (BF16), 312 TFLOPS peak Bfloat16 format precision (BF16 Tensor Flow), theoretical floating-point performance. The TF32 data format is not IEEE compliant and not included in this comparison. https://www.nvidia.com/
content/dam/en-zz/Solutions/ Data-Center/nvidia-ampere- architecture-whitepaper.pdf, page 15, Table 1. MI200-01 -
AMD Instinct MI250X accelerator application and benchmark performance can be found at https://www.amd.com/en/
graphics/server-accelerators- benchmarks. -
Calculations conducted by AMD Performance Labs as of Sep 15, 2021, for the AMD Instinct™ MI250X accelerator (128GB HBM2e OAM module) at 1,700 MHz peak boost engine clock resulted in 95.7 TFLOPS peak double precision matrix (FP64 Matrix) theoretical, floating-point performance. Published results on the NVidia Ampere A100 (80GB) GPU accelerator resulted in 19.5 TFLOPS peak double precision (FP64 Tensor Core) theoretical, floating-point performance. Results found at:https://www.nvidia.com/
content/dam/en-zz/Solutions/ Data-Center/nvidia-ampere- architecture-whitepaper.pdf, page 15, Table 1.MI200-02 -
Calculations conducted by AMD Performance Labs as of Sep 21, 2021, for the AMD Instinct™ MI250X and MI250 (128GB HBM2e) OAM accelerators designed with AMD CDNA™ 2 6nm FinFet process technology at 1,600 MHz peak memory clock resulted in 128GB HBM2e memory capacity and 3.2768 TFLOPS peak theoretical memory bandwidth performance. MI250/MI250X memory bus interface is 4,096 bits times 2 die and memory data rate is 3.20 Gbps for total memory bandwidth of 3.2768 TB/s ((3.20 Gbps*(4,096 bits*2))/8).The highest published results on the NVidia Ampere A100 (80GB) SXM GPU accelerator resulted in 80GB HBM2e memory capaicity and 2.039 TB/s GPU memory bandwidth performance.https://www.
nvidia.com/content/dam/en-zz/ Solutions/Data-Center/a100/ pdf/nvidia-a100-datasheet-us- nvidia-1758950-r4-web.pdf MI200-07 - The AMD Instinct™ MI250X accelerator has 220 compute units (CUs) and 14,080 stream cores. The AMD Instinct™ MI100 accelerator has 120 compute units (CUs) and 7,680 stream cores. MI200-027
- Calculations conducted by AMD Performance Labs as of Sep 21, 2021, for the AMD Instinct™ MI250X and MI250 (128GB HBM2e) OAM accelerators designed with AMD CDNA™ 2 6nm FinFet process technology at 1,600 MHz peak memory clock resulted in 3.2768 TFLOPS peak theoretical memory bandwidth performance. MI250/MI250X memory bus interface is 4,096 bits times 2 die and memory data rate is 3.20 Gbps for total memory bandwidth of 3.2768 TB/s ((3.20 Gbps*(4,096 bits*2))/8). Calculations by AMD Performance Labs as of OCT 5th, 2020 for the AMD Instinct™ MI100 accelerator designed with AMD CDNA 7nm FinFET process technology at 1,200 MHz peak memory clock resulted in 1.2288 TFLOPS peak theoretical memory bandwidth performance. MI100 memory bus interface is 4,096 bits and memory data rate is 2.40 Gbps for total memory bandwidth of 1.2288 TB/s ((2.40 Gbps*4,096 bits)/8) MI200-33