NVIDIA DGX B200 특징
NVIDIA DGX™ B200은 AI 여정의 모든 단계에서 모든 규모의 기업을 위한 개발-배포 파이프라인을 위한 통합 AI 플랫폼입니다. 5세대 NVIDIA® NVLink®로 상호 연결된 8개의 NVIDIA Blackwell GPU가 탑재된 DGX B200은 이전 세대 대비 3배의 트레이닝 성능과 15배의 추론 성능을 제공하는 최첨단 성능을 제공합니다. NVIDIA Blackwell GPU 아키텍처를 활용하는 DGX B200은 거대 언어 모델, 추천 시스템, 챗봇 등 다양한 워크로드를 처리할 수 있어 AI 혁신을 가속화하려는 기업에게 이상적입니다.
NVIDIA DGX B200 특징
NVIDIA DGX™ B200은 AI 여정의 모든 단계에서 모든 규모의 기업을 위한 개발-배포 파이프라인을 위한 통합 AI 플랫폼입니다. 5세대 NVIDIA® NVLink®로 상호 연결된 8개의 NVIDIA Blackwell GPU가 탑재된 DGX B200은 이전 세대 대비 3배의 트레이닝 성능과 15배의 추론 성능을 제공하는 최첨단 성능을 제공합니다. NVIDIA Blackwell GPU 아키텍처를 활용하는 DGX B200은 거대 언어 모델, 추천 시스템, 챗봇 등 다양한 워크로드를 처리할 수 있어 AI 혁신을 가속화하려는 기업에게 이상적입니다.
NVIDIA DGX B200 사양
GPU
8x NVIDIA Blackwell GPU
GPU 메모리
총 1,440GB의 GPU 메모리
성능
72페타플롭스 훈련 및 144페타플롭스 추론
소비 전력
최대 14.3kW
CPU
Intel® Xeon® Platinum 8570 프로세서 2개 총 112개 코어, 2.1GHz(기본), 4GHz(최대 부스트)
시스템 메모리
최대 4TB
네트워킹
- 싱글 포트 NVIDIA ConnectX-7 VPI 8개를 제공하는 OSFP 포트 4개최대 400Gb/s InfiniBand/이더넷
- 2x 듀얼 포트 QSFP112 NVIDIA BlueField-3 DPU최대 400Gb/s InfiniBand/이더넷
관리 네트워크
- 10Gb/s 온보드 NIC(RJ45 포함)
- 100Gb/s 듀얼 포트 이더넷 NIC
- RJ45가 포함된 호스트 베이스보드 관리 컨트롤러(BMC)
스토리지
- OS: 2x 1.9TB NVMe M.2
- 내부 스토리지: 8x 3.84TB NVMe U.2
소프트웨어
- NVIDIA AI Enterprise: 최적화된 AI 소프트웨어
- NVIDIA Base Command™: 오케스트레이션, 스케줄링 및 클러스터 관리
- DGX OS / Ubuntu: 운영 체제
랙 장치(RU)
10RU
시스템크기
- 높이: 444mm(17.5인치)
- 너비: 482.2mm(19.0인치)
- 길이: 897.1mm(35.3인치)
작동 온도
5~30°C(41~86°F)
엔터프라이즈 지원
- 하드웨어 및 소프트웨어에 대한 3년 엔터프라이즈 비즈니스 표준 지원
- 연중무휴 엔터프라이즈 지원 포털 액세스
- 현지 업무 시간 동안의 실시간 에이전트 지원
Serverless Generative AI란 무엇인가요?
NVIDIA AI Workbench로 GPU 가속화하기
GPU 최적화에 대해 당신이 몰랐던 사실
생성형 AI, 비즈니스 도입하기 전에 알아야 할 2가지
멀티 클라우드 vs. 퍼블릭 클라우드 장·단점과 트렌드
NVIDIA Bluefield DPU의 AI 워크로드 최적화 전략
인피니밴드 vs. 이더넷, 정의와 차이점
기업형 AI 도입, 적정 예산은 얼마일까?
NVIDIA BlueField란 무엇인가요?
클라우드 비즈니스가 실패하는 진짜 이유 세 가지
NVIDIA Omniverse 플랫폼에 대한 8가지 오해와 진실
NVIDIA가 클라우드 네트워크 성능을 향상시킨 방법