딥러닝 서버 솔루션, IBM Power System AC922

-
최신, 최고의 GPU
PASCAL P100
· NVIDIA의 최신 PASCAL 아키텍처 P100 GPU 장착
· 딥러닝을 위한 Half- precision 성능 21TFLOPS
· 기존의 3배에 달하는 GPU메모리 대역폭
-
쉽고 빠른 딥러닝
프레임워크 제공 PowerA
· IBM의 딥러닝 소프트웨어 툴킷 PowerAI 제공
· CAFFE, Torch, TensorFlow 등 주요 딥러닝 프레임워크를 최적화하여 패키지로 제공
-
신기술에 의한
기존 문제의 해결
· Unified Memory로 GPU 메모리 한계 극복, P2P 문제 해결
· NVLink 기술로 GPU-CPU간 병목 해결, 획기적 성능 향상
-
진정한 오픈 아키텍처
OpenPOWER 플랫폼
· POWER 아키텍처 공개에 의한 진정한 오픈 아키텍처
· IBM / Mellanox / NVIDIA 협업을 통한 굳건한 GPU 솔루션 로드맵
· NVIDIA - IBM Acceleration Lab 지원

· 최신 Pascal 아키텍처의 P100 4장 장착
· 양방향 40+40GB/sec의 대역폭을 가지는 NVLink를 통해 GPU-GPU는 물론, CPU-GPU도 연결
· 물리적 core 1개당 8개의 HW thread (SMT-8)를 가지는 Power8 프로세서
· 2U 공간 안에 강력한 GPU 컴퓨팅 파워를 압축하여 성능 대비 상면적 및 전력 소비량에서 월등한 이점
-
마이크로프로세서
8코어 3.25GHz Power8 프로세서 카드 2개 또는 10코어 2.86GHz Power8 프로세서 카드 2개
-
L2(Level 2) 캐시
코어당 512KB L2 캐시
-
L3(Level 3) 캐시
코어당 8MB L3 캐시
-
L4(Level 4) 캐시
소켓당 최대 64MB
-
메모리 최소/최대
4GB, 8GB, 16GB, 32GB DDR4 모듈, 128GB ~ 1TB 총 메모리
-
프로세서-메모리 대역폭
소켓당 115GB/초, 시스템당 230GB/초(SCM에서 L4 캐시까지의 최대 지속 메모리 대역폭)
소켓당 170GB/초, 시스템당 340GB/초(L4 캐시에서 DIMM까지 최대 피크 메모리 대역폭)
-
표준 백플레인
하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 디스크(SDD)를 위한 SFF(small form factor) 베이 2개
-
미디어 베이
해당 없음
-
RAID 옵션
통합 PCIe 어댑터에서 하드웨어 RAID 지원
-
어댑터 슬롯
PCIe Gen3 슬롯 3개: x16 PCIe Gen3 2개, x8 PCIe Gen3 1개. 모두 CAPI 지원
-
I/O 대역폭
64GBps
-
GPU 액셀러레이터
최대 4개의 NVIDIA Tesla P100(NVLink GPU)
-
전원
200V ~ 240V
-
RAS 기능
프로세서 명령 재시도
선택 동적 펌웨어 데업이트
Chipkill 메모리
ECC L2 캐시, L3 캐시
결함 모니터링 기능이 있는 서비스 프로세서
핫스왑 가능 디스크 베이
핫플러그 및 이중 전원/냉각 팬(GPU 설치 시 전원 이중화 없음)
-
운영 체제
Linux on POWER
-
시스템 크기
441.5W x 86H x 822D mm