投稿一覧に戻る エヌビディア【NVDA】の掲示板 2024/05/23 1970 私はデフ投資家です 5月23日 17:26 1️⃣NVIDIAの新しい年次開発サイクル NVIDIAのCEO Jensen Huangは、本日の決算コールで同社が今後新しいAIチップを2年ごとではなく毎年設計する計画であるとコメントし、次世代AIチップ「Rubin」の登場が近いことを示唆した。 これまでNVIDIAは、2020年にAmpere、2022年にHopper、2024年にBlackwellと、おおよそ2年ごとに新しいアーキテクチャを発表してきたが、次のアーキテクチャ「Rubin」が2025年に登場する可能性がある。 「Rubin」は新デザインのAIチップとはなるが、これまでのGPUとの後方互換性を持ち、同じソフトウェアを実行できるため、顧客は既存のデータセンターでH100からH200、B100へ簡単に移行できる 2️⃣ 次世代AIチップ Rubin/R100 GPUの技術的特徴 アナリストの郭明錤(Ming-Chi Kuo)のレポートによると、「Rubin」 シリーズのGPUであるR100はTSMCのN3プロセスを採用し、より高いトランジスタ密度と電力効率を実現すると期待されている。 B100と同様にCoWoS-L(Chip-on-Wafer-on-Substrate with Large Interposer)パッケージング技術を採用し、高性能なインターポーザを使用してチップ間の通信速度を向上させる見込みである。 また、約4xリティクル設計を採用すると推測されており、B100の3.3xリティクル設計よりも大きく、チップの計算能力が大幅に向上する。 さらに、8つのHBM4(High Bandwidth Memory 4)ユニットを搭載し、大容量のデータを高速で処理する能力を強化すると予想されている。 3️⃣市場への影響と展望 AIサーバーの消費電力が顧客の調達やデータセンター建設において大きな課題となっていることから、Rシリーズでは消費電力の改善が設計の重要な要素となっている。 N3プロセスの採用とリティクル設計の拡大により、R100は従来のチップよりも高い性能を発揮し、AIモデルのトレーニングや推論の速度が向上すると期待される。 📍今後の展望 NVIDIAの次世代AIチップRシリーズ(R100)は N3プロセスやCoWoS-Lパッケージング技術の採用といった推測が真実であれば、性能とエネルギー効率の両面で大幅な改善が見込まれ、現在、世界的に求められている「高いエネルギー効率を達成したデータセンターソリューションの統合パッケージ」としての早期提供開始が期待される。 具体的な提供時期については、NVIDIAの年次開発サイクル戦略やジェンセンの発言を考慮すると、R100は2025年第4四半期の量産開始と2026年上半期のシステム量産となることが推測されるだろう。 NVIDIAは開発サイクルの大幅な短縮により、市場の需要に迅速に対応し、競合他社に対して大きな優位性を維持することができる。そして、ソフトウェア技術観点のモートと合わさることで、NVIDIAはAIチップ市場でのリーダーシップをさらに強化すると考える。引き続き、動向をチェックしていく。 そう思う15 そう思わない3 開く お気に入りユーザーに登録する 無視ユーザーに登録する 違反報告する 証券取引等監視委員会に情報提供する ツイート 投稿一覧に戻る
私はデフ投資家です 5月23日 17:26
1️⃣NVIDIAの新しい年次開発サイクル
NVIDIAのCEO Jensen Huangは、本日の決算コールで同社が今後新しいAIチップを2年ごとではなく毎年設計する計画であるとコメントし、次世代AIチップ「Rubin」の登場が近いことを示唆した。
これまでNVIDIAは、2020年にAmpere、2022年にHopper、2024年にBlackwellと、おおよそ2年ごとに新しいアーキテクチャを発表してきたが、次のアーキテクチャ「Rubin」が2025年に登場する可能性がある。
「Rubin」は新デザインのAIチップとはなるが、これまでのGPUとの後方互換性を持ち、同じソフトウェアを実行できるため、顧客は既存のデータセンターでH100からH200、B100へ簡単に移行できる
2️⃣ 次世代AIチップ Rubin/R100 GPUの技術的特徴
アナリストの郭明錤(Ming-Chi Kuo)のレポートによると、「Rubin」 シリーズのGPUであるR100はTSMCのN3プロセスを採用し、より高いトランジスタ密度と電力効率を実現すると期待されている。
B100と同様にCoWoS-L(Chip-on-Wafer-on-Substrate with Large Interposer)パッケージング技術を採用し、高性能なインターポーザを使用してチップ間の通信速度を向上させる見込みである。
また、約4xリティクル設計を採用すると推測されており、B100の3.3xリティクル設計よりも大きく、チップの計算能力が大幅に向上する。
さらに、8つのHBM4(High Bandwidth Memory 4)ユニットを搭載し、大容量のデータを高速で処理する能力を強化すると予想されている。
3️⃣市場への影響と展望
AIサーバーの消費電力が顧客の調達やデータセンター建設において大きな課題となっていることから、Rシリーズでは消費電力の改善が設計の重要な要素となっている。
N3プロセスの採用とリティクル設計の拡大により、R100は従来のチップよりも高い性能を発揮し、AIモデルのトレーニングや推論の速度が向上すると期待される。
📍今後の展望
NVIDIAの次世代AIチップRシリーズ(R100)は
N3プロセスやCoWoS-Lパッケージング技術の採用といった推測が真実であれば、性能とエネルギー効率の両面で大幅な改善が見込まれ、現在、世界的に求められている「高いエネルギー効率を達成したデータセンターソリューションの統合パッケージ」としての早期提供開始が期待される。
具体的な提供時期については、NVIDIAの年次開発サイクル戦略やジェンセンの発言を考慮すると、R100は2025年第4四半期の量産開始と2026年上半期のシステム量産となることが推測されるだろう。
NVIDIAは開発サイクルの大幅な短縮により、市場の需要に迅速に対応し、競合他社に対して大きな優位性を維持することができる。そして、ソフトウェア技術観点のモートと合わさることで、NVIDIAはAIチップ市場でのリーダーシップをさらに強化すると考える。引き続き、動向をチェックしていく。