お問い合わせE-mail:jasales@inspur.com 技術サポートE-mail:jatech@inspur.com
ホーム > ソリューション > 人気話題 > AI

一流AIトータルソリューションサプライヤー

Inspurは世界一流のAIトータルソリューション、最先端のハードウェア、総合的AIシステムソフト、強力なAIアプリ最適化能力を提供する

ソリューション

Inspurは世界一流のGPU / MIC / FPGA AI コンピューティングプラットフォーム、総合的 AIシステムソフト、強力なAIアプリ最適化能力及びエンドツーエンド垂直ソリューションを提供する

新しいもの

"コンピューティングにおける革新はAIの発展に最大な動力を提供している。Inspur はユーザに優れた AIコンピューティングプラットフォームの提供に努力しつづける。
当社はAI 向けにターンキー方式ソリューションのフールセットを提供する能力を持つ唯一なメーカである。Inspurは百度、テンセント及びアリババのような世界一流CSPの重要なパートナーとサプライヤである。InspurのAI プラットフォームは自動車技術、イメージ及び音声識別に幅広く利用されている。"

特徴

"膨大な数があるタグ及び深層学習モデル並びにアルゴリズムを持つデータサンプル以外、ハイパフォーマンスシステムプラットフォームも深層学習にとって重要である。深層学習 はオフライン教育とオンライン認証を含む。

前者について、GPU/KNM+IB/10GE/25GE高速度ネットワークと分散式平行ストレージの結合によるハイパフォーマンスクラスターシステムアーキテクチャを導入できる。

過去サンプルの成長速度により、サンプルデータのストレージ及び快速なアクセスには、教育及び大容量及び広い帯域幅のハイパフォーマンス平行ストレージが必要であることを判明した。例えば:100-百万-レベルピクセルのイメージ及びPB-レベルデータボリュームつきの100,000 時間のボイス
長い教育期間はGPUの加速化だけではなく、大規模クラスターシステムの平行処理も必要とする。

モデルによっては、パラメータは10億-レベルに達す可能性があるから、ノード間の快速なパラメータ更新並びにモデルの統合を確保するために、

広帯域幅と低遅延の快速なネットワークが必要である。

オンライン認証について、外部サービスの提供には、数千のノードが必要なので、厳しい消費電力課題にも直面している。

低電力FPGA構造でオンライン認証プラットフォームを構築することはこの課題を解決できる。

Inspur深層学習システムプラットフォームアーキテクチャ

  

Inspur は以下の図のように全体システムソリューションを作った。深層学習に専念することで、高速度ネットワークでハイ-パフォーマンス平行ストレージソリューションを計算加速ノードと結びつけ、データサービスを提供している。

オフライン教育に適合する計算加速ノードは単一精度を図れる高い浮動小数点計算能力を持つ高パワーGPUを導入するか、可能な場合、KNM 加速稼動を利用する。

一方、that are used for オンライン認証に使う計算加速ノードは強いINT8計算容量を持つ低パワーGPUを採用するか 認証プログラムに基づきカスタマイズを図った低パワーFPGAを採用する。

計算ノードでTensorFlow、Caffe、及びCNTK のような深層学習フレームワークを運営するとき、AIStation 管理プラットフォームはタスク管理、ログインインターフェイス、パラメータチューニング及びその他サービスを提供する。

AIStationもノードと計算加速コンポーネントのために、状態監視及びスケジューリングを実行する。

プラットフォームセット全体はトップ-レベル人工知能に基づきアプリをサポートする。"

4

"将来、深層学習に含まれたオフライン教育とオンライン認証は統合される。結果として、オンラインデータを直接にオフライン教育で利用され、オフラインで教育を実施されたモデルはオンラインの更新に利用される。

深層学習のオンライン-オフライン統合を実現する一つ可能なトレンドとして、ハイパフォーマンス且つ低-パワーシステム構成でGPU+FPGA+IB 高速度ネットワークと分散式 平行ストレージを結びつけることが考えられる。

    

    

深層学習フレームワークのリソースカプセル化

   

第三者ライブラリに依存じ、バージョンで区別されている現在のオープンソース深層学習フレームワークはフレームワーク配置及びAI アプリの発展に友好的ではない。特にバージョンの間の快速な繰り返し操作が必要な場合。OSの頻繁な更新並びに第三者ライブラリは開発者に余計作業をたくさん作った。
Inspurは深層学習フレームワークの統合したリソースカプセルとライブラリを一つのイメージに集約した。これでイメージは随時リソースカプセル化をサポートするいずれかのInspurプラットフォームにロードできる。ユーザは即時作業でき、生産性アップに繋がり、またその作業環境が最初の環境と完全に一致する。イメージ及ぶストレージにおける分散式マッピングストレージ、スケジューリング、管理及びミラー監視をサポートするInspur 深層学習システムソリューションはリソースカプセル化技術で深層学習フレームワーク配置の効率及びアプリ発展の生産性を改善する。それと同時に、リソースカプセル化技術とシステムソリューションの最適な統合を提供する。"

5

   

"エンドツーエンドシステム提供サービス

   

Inspur深層学習システムソリューションは総合的ハードウェアセットだけではなく、システムソリューション向けにエンドツーエンドでサービスも提供する。

●システ ソリューションのアプリシナリオとデザインに関する相談

Inspur AI ソリューション専門家とAI エンドユーザはアプリシナリオに適切なシステム ソリューションを設計するために、深層学習アプリシナリオを検討し、共同で計算ホットスポットとボトルネックを分析した。

●Transportation andアプリコードの割り当てと最適化

Inspur混合式アプリ専門家はクライアントによるCPUコードの特徴分析、混合式加速コンポーネントへの移転が適切か判断する、アプリの計算効率アップ及び時間短縮を目的とするコードホットスポットの割り当てと最適化に協力できる。

●ソフトウェアとハードウェアを統合する全体ソリューション

Inspurは深層学習向けの総合的サーバー製品ライン、高速度ネットワーク、並びに平行ストレージ製品を持っているだけではなくて、AIStationソフトウェア管理プラットフォーム 及びTeye特徴分析ツールも持っている。ソフトウェアとハードウェアを統合するこの全体ソリューションは深層学習フレームワークのパフォーマンスの最大化を発揮できる。

●計算加速コンポーネントパフォーマンスの横評価

InspurのGPU/FPGA/KNM及びその他主流混合式加速コンポーネントに関する発達した横評価はソリューション選択肢を提供する。

●主流深層学習フレームワークの実装と配置

Caffe、TensorFlow、及びCNTKなどの主流深層学習フレームワーク並びに、第三者ライブラリからもらったコードとファイルのリソースのカプセル化、またすぐにプラットフォームに配置できるイメージ作成に専念する。複雑な配置プロセスの勉強が要らなくて、簡単に実装し勉強できる。"

会社概要

Inspurグループ パートナー ニュース

サポート

ダウンロードセンター

購入方法

購入方法

連絡先

連絡先 当社と提携する

INSPURをフォローする

Facebook Instagram Twitter

Copyright © 2018 Inspur. All Rights Reserved.

inspur logo