日本ヒューレット・パッカード（HPE）は2018年4月23日、ディープラーニング処理に最適化されたx86サーバーの新製品「HPE Apollo 6500 Gen10 System」を発売した。4U／1ノード構成で「NVIDIA Tesla V100」などのGPUを最大8個搭載可能、300GB／秒の高速なCPU－GPUバスである「NVLink 2.0（SXM-2）」にも対応する。企業のAI導入やデータ分析を支援するコンサルティングやトレーニング、エンタープライズクラスのサポートサービスなども合わせて提供し、一般企業におけるAI活用“AI For Business”を促す。

HPEでは、2016年に前世代モデルとなるApollo 6500 Gen9をリリースしている。Gen9モデルは4U／2ノードのCPUを高密度搭載したHPC向けサーバーだったが、今回のGen10では4U／1ノードとなった。

Apollo 6500 Gen10では、エヌビディアのGPU「Teslta V100/P100/P40」、またはAMDのGPU「Radeon Insitinct MI25」を最大8個搭載できる。CPU－GPU間のバス接続はNVLinkとPCIe x8の2種類に対応しており、PCIe接続の場合は1CPUに対し4つ（4:1）または8つ（8:1）のGPUを接続できる。NVLinkを利用することにより、従来モデル（PCIe）比でおよそ3倍のスループットが実現している。また、PCIe接続における4:1／8:1の接続トポロジー切り替えが、物理的変更不要でBIOS設定だけでできるようになっていることも特徴。

また、Apollo 6500 Gen10のマザーボード部は「ProLiant DL380 Gen10」サーバーと同一のものであり、CPUは最大28コア／3.0GHz／165WのXeon Scalable Processors（Xeon-SP）、メモリは2666MT／秒のDDR4×24枚（最大3TB）、ストレージは最大でSAS/SATA SSD×16台またはNVMe SSD×4台、100Gbpsのインターコネクトアダプタ（「Mellanox Infiniband EDR」または「Intel Omnipath」）を最大4台搭載可能と、Gen9モデルより大幅な性能強化が図られた。

こうした性能強化によって、Gen10モデルと「TensorFlow」や「Caffe2」フレームワークを使用したHPEのラボテストでは、Gen9比で「平均3.12倍」の高速化が実証されたとしている。

加えてApollo 6500 Gen10では、Gen9モデルで外付け筐体だった電源モジュールも内蔵されたうえ、業界標準ラック（奥行き1075mmラック）への搭載が可能になっている。また、ハードウェア管理機能「iLO 5」の搭載、UbuntuやCentOSだけでなくRed Hat Enterprise LinuxやSUSE Enterprise LinuxといったエンタープライズOSへの対応など、一般的な企業向けサーバーと同様の容易な運用管理が可能になっている。

Apollo 6500 Gen10 Systemの希望小売価格（税抜、最小構成価格、GPUは含まず）は、248万5000円。

コンサルティングやツール群でも企業のAI／ディープラーニング活用を支援

なお今回は上述のサーバー新製品に加えて、企業におけるディープラーニング／AIや戦略的データ分析の導入を支援するコンサルティングサービス「HPE Artificial Intelligence Transformation Workshop」の提供も発表されている。このサービスは、HPEの技術サービス「HPE Pointnext」の専門家が、企画段階からシステムのアーキテクチャ策定、実装、運用までトータルに支援するというもの。

加えてHPEでは昨年、ディープラーニング処理に最適な機能／構成を推奨するツール群「Deep Learning Cookbook」をリリースしているが、今回新たに「Deep Learning Performance Guide」が追加された。これは、HP Labsが収集した膨大な数の導入環境におけるベンチマーク測定値をナレッジとして、分析性能モデルを使って実際の測定値を解析、ワークロードのパフォーマンスを評価し、最適なハードウェア／ソフトウェアスタックを推奨するもの。同時に、既存ハードウェアでディープラーニング処理を行う場合のボトルネック検出にも使えるという。

これらの新しいツール／サービスに加えて、エンタープライズクラスの各種サポートサービス、オンプレミス環境を従量課金モデルで利用可能にする「HPE GreenLakeフレックスキャパシティ」なども提供することで、企業において高まるAI／ディープラーニング活用ニーズを支援していく。

HPE データセンター・ハイブリッドクラウド製品統括本部 統括本部長の本田昌和氏は、AIに対するHPEの取り組みのひとつとして、企業におけるAI活用を支援する“AI for Business”があると説明。そこにおいて現在の企業は「AI専門家の人材不足」「統合ソリューションの欠如」といった課題を抱えており、その課題解決を、特にインフラ領域で支援していくのがHPEの立ち位置だとした。

AI／ディープラーニング向けインフラ製品へのニーズは、従来から学術研究機関を中心に高かったが、近年では各種AI活用サービスの提供者（サービスプロバイダー）、金融機関、製造業などでも急速に需要が立ち上がりつつある。さらにさまざまな関連技術の進化によって、活用の幅も広がっている。こうした背景もふまえ、エンタープライズ領域での“AI for Business”を支援する今回の発表を行ったとした。

なお、発表会にゲスト登壇したエヌビディア エンタープライズ事業部 事業部長の井崎武士氏は、同社が3月に米国で開催した「NVIDIA GPU Technology Conference（GTC）」で披露されたさまざまなディープラーニング活用事例を紹介した。グローバルではインターネットサービスを始めとして、メディカル（医療）、工業／製造業、サイバーセキュリティ／社会セキュリティ、管理／物流など幅広いディープラーニング活用事例が登場しており、「日本国内でもこれから広めていきたいと事業を進めている」と語った。

「HPEとはこれまで、東工大『TSUMBAME 3.0』や東大情報基盤センター『Reedbush』といった大型計算機センターの領域で、一緒にビジネスをリードしてきた。今後、エンタープライズの顧客に対しても同じように協業をやっていきたいと考えている。特にHPEは包括的なサポート体制、堅牢性の高いシステムの実績を持っており、一緒に業界開拓を行っていきたい」（井崎氏）