投稿一覧に戻る スーパー・マイクロ・コンピュータ【SMCI】の掲示板 2024/04/13〜2024/04/20 708 貧民 4月20日 01:02 ↓これが原因ならわかるけど、去年の10月の記事だ。 従来のアーキテクチャーは物理サーバー単位で拡張する必要があり、無駄が生じやすかった。例えばAI(人工知能)でデータを処理するためにGPUを増強したい場合でも、他のIT資源も増強せざるを得ない。動作効率にも無駄が生じる。GPUの処理だけが必要なときもCPUを経由させる必要があるためだ。 物理サーバーをまたぐやりとりでは通常、外部ネットワークを介した通信が必要だ。サーバー内部のメモリーへのアクセスと比べると速度が低下しやすい。 この点、DCIではラック単位での拡張を想定する。1台のノードに複数のマザーボードやアクセラレーターを搭載し、「用途に応じて必要な資源を割り当てられるようにする」(NTTソフトウェアイノベーションセンタの水野伸太郎システムソフトウェアプロジェクトプロジェクトマネージャ) そう思う0 そう思わない2 開く お気に入りユーザーに登録する 無視ユーザーに登録する 違反報告する 証券取引等監視委員会に情報提供する ツイート 投稿一覧に戻る
貧民 4月20日 01:02
↓これが原因ならわかるけど、去年の10月の記事だ。
従来のアーキテクチャーは物理サーバー単位で拡張する必要があり、無駄が生じやすかった。例えばAI(人工知能)でデータを処理するためにGPUを増強したい場合でも、他のIT資源も増強せざるを得ない。動作効率にも無駄が生じる。GPUの処理だけが必要なときもCPUを経由させる必要があるためだ。
物理サーバーをまたぐやりとりでは通常、外部ネットワークを介した通信が必要だ。サーバー内部のメモリーへのアクセスと比べると速度が低下しやすい。
この点、DCIではラック単位での拡張を想定する。1台のノードに複数のマザーボードやアクセラレーターを搭載し、「用途に応じて必要な資源を割り当てられるようにする」(NTTソフトウェアイノベーションセンタの水野伸太郎システムソフトウェアプロジェクトプロジェクトマネージャ)