検索結果
-
(続き) "Millions of GPU Data Centers are Coming.” On June 2nd, Jensen Huang made a very important statement about the future of AI that answers quite succinctly why Nvidia is on the verge of becoming the World’s Most Valuable Company: Forbes Daily: Join over 1 million Forbes Daily subscribers and get our best stories, exclusive reporting and essential analysis of the day’s news in your inbox every weekday. And so the amount of generation we're going to do in the future is going to be extraordinary.” - Jensen Huang, CEO of Nvidia, Computex keynote Today, there are tens-of-thousands of GPUs in data centers. By end of 2025, there will be hundreds-of-thousands of GPUs in data centers. Due to the market’s forward-looking nature, 2025 is getting close to being fully priced in. Here is a slide of what this looks like from the perspective of scaling the ethernet networking to support a million-plus GPU cluster. Today, there are tens-of-thousands of GPUs in data centers. By end of 2025, there will be ... [+]NVIDIA, COMPUTEX KEYNOTE PRESENTATION Here’s what we know about Big Tech’s purchases, thus far. Microsoft is reportedly looking to triple its GPU supply to 1.8 million GPUs this year to meet elevated demand for Azure, while Meta has disclosed its GPU orders with an announcement for 150,000 H100s last year and 350,000 H100s or H100-equivalents this year. Musk announced that X’s 100,000 H100 cluster would be online in a few months and hinted at a possible 300,000 B200 GPU purchase. (続く)
-
-
【先手先勝のエヌビディア】 エヌビディアが初の4兆ドル株になる可能性 - 2025年には5兆ドルへ CEO Jensen Huangは、最も近い競合企業よりもいくつも先の手を打っていると、投資家のLouis Navallier氏は言っています。 多数の株が壮大な高みに到達しますが、Nvidiaの技術的な実力を持った株は例外的です。 Nvidiaが高度になるにつれて、抵抗が少なくなり、4兆ドル、5兆ドル以上に向かって前進し続けるでしょう。 MarketWatchより。2024/06/13
-
SupermicroはCOMPUTEX 2024で、10U空冷式、および、4U水冷(液冷)式のNVIDIA HGX B200システムを含む、NVIDIA Blackwell GPUに最適化した今後リリース予定のシステムを発表します。さらに、Supermicroは、8U空冷式NVIDIA HGX B100システムと、NVIDIA NVLinkスイッチで相互接続された72基のGPUを搭載したSupermicroのNVIDIA GB200 NVL72ラック、NVIDIA H200 NVL PCIe GPU、新たに発表されたNVIDIA GB200 NVL2アーキテクチャーをサポートする新しいNVIDIA MGX™ システムも提供します。 NVIDIAの創設者兼 CEOであるジェンスン・フアン(Jensen Huang)氏は次のように述べています。「生成AIは、コンピューティングスタック全体のリセットを促しています。、新しいデータセンターはGPUで高速化されており、AI向けに最適化されています。Supermicroは、最先端のNVIDIAのアクセラレーテッド・コンピューティングと、ネットワークソリューションの設計を行い、1兆ドル規模のグローバルなデータセンターを、AI時代に合わせて最適化されることを可能にしています。」
-
エヌビディアCEOはロボットがお気に入り「AIの次の波はロボットだ」 6/10(月) 8:10配信 エヌビディアのジェンスン・フアンCEOが6月2日、台湾で行われたテックカンファレンスでまたもやロボットをプッシュした。 自動運転車やヒューマノイド・ロボットが数年内に大量生産されるだろう、とフアンは予言した。 エヌビディアは、ロボット用のソフトウェアとハードウェアを作っている。 ジェンスン・フアン(Jensen Huang)はロボットが大好きだ。 エヌビディア(Nvidia)のフアンCEOは今年初め、人間のようなロボットを9体、ステージ上で紹介した。6月2日、台湾で行われたテックカンファレンスでの講演で、再び「彼ら」をプッシュし、とりわけ2種類のロボットが「大量生産される」だろうとフアンは述べた。彼によるとそれは、自動運転車と人型ロボットだ。 「AIの次なる波は、物理的なAIだ。物理法則を理解するAI。我々とともに働くことのできるAIだ」とフアンは述べた。この日もトレードマークの、黒い革のジャケットを着ていた。 「あらゆるものがロボット化されるだろう。すべての工場がロボット化されるだろう。工場がロボットを指揮し、ロボットがロボット製品を作ることになるだろう」 半導体大手であるエヌビディアが、ロボットの普及で得るものは大きい。同社のソフトウェアとハードウェアが、ロボットの生産やトレーニング、継続利用に使われる可能性が高いからだ。 フアンが6月2日に述べたところによると、同社は自動運転車用のオペレーティング・システムを構築し、来年にもメルセデス(Mercedes)と提携した自動車の製造を開始する予定だという。 また、ロボットが仮想環境で学習するためのオペレーティング・システムも開発している。フアンによると、ロボットは実世界で働く前に、「ロボットジム」でシステムを改良される。そこで物をつかむなどの運動スキルから倉庫内の移動などまで、仮想環境ですべて事前に微調整が可能だという。
-
革ジャンおじさんの哲学について。関連記事を引用抜粋します。 ===================== エヌビディアの社内メールは「6行以内」…フアンCEOがそれを求める理由 Jun. 11, 2024, 09:00 AM エヌビディアの元従業員がBusiness Insiderに語ったところによると、「ジェンスン・フアンのメールは6行以内」だという。 エヌビディアのCEOであるフアンのメールは、「TL;DR」型のアプローチに従っており、彼は社員にも同じことを求めているという。 エヌビディア(Nvidia)のCEOジェンスン・フアン(Jensen Huang)は、メールの書き方が独特で、エヌビディアの従業員にも同じことを期待しているという。 ===================== 『革ジャンおじさんと愉快な仲間達』に全文掲載
-
エヌビディアの社内メールは「6行以内」…フアンCEOがそれを求める理由 Jun. 11, 2024, 09:00 AM エヌビディアの元従業員がBusiness Insiderに語ったところによると、「ジェンスン・フアンのメールは6行以内」だという。 エヌビディアのCEOであるフアンのメールは、「TL;DR」型のアプローチに従っており、彼は社員にも同じことを求めているという。 エヌビディア(Nvidia)のCEOジェンスン・フアン(Jensen Huang)は、メールの書き方が独特で、エヌビディアの従業員にも同じことを期待しているという。 同社の内部関係者は最近、ザ・ニューヨーカー(The New Yorker)に「フアンのメモは日本の俳句のようだ」と話しており、エヌビディア(Nvidia)の元従業員は、彼のメールのコミュニケーションスタイルについて新たな詳細をBusiness Insiderの取材で語った。 同社の元従業員3人によると、フアンのメールは通常6行以内の簡潔なもので、彼は人々が即座に本題に入ることを期待しているという。 ある人は、彼のメールを「Too Long; Didn't Read(長すぎて読めなかった)」の略である「TL;DR」型(もとの意味から転じて「長すぎるという人のための要約という意味)のアプローチと例えている。その元従業員は次のように話している。 「スタッカート(音を短く切って演奏すること)のように歯切れのいいメールにまとめななければならないことは、早い段階で説明されていた。ジェンスンだけでなく、会社全体がそうだった」 (続く)
-
データセクション、米Supermicro・シャープ・KDDIとの間でAIデータセンター構築に向け協議開始に合意 2024年6月3日 10:41 【プレスリリース】発表日:2024年06月03日 AIデータセンター構築に向けた4社間基本合意のお知らせ 本合意に基づき、4社は今後、シャープ堺工場跡地に、NVIDIA(本社 : アメリカ カリフォルニア州、社長 兼 CEO : Jensen Huang、以下 NVIDIA)の最先端のAI計算基盤である「GB200NVL72」などを搭載したAIデータセンターを構築し、早期に稼働を開始することを目指して、協議を開始いたします。 記 1.本AIデータセンター構築の背景 AIをめぐる技術が加速度的に進化しているなか、日本においても、急増するAI処理に対応できるAIデータセンターの構築が求められております。一方で、大規模なAI計算基盤を持つAIデータセンターを構築するには、最先端の演算装置の調達、設備の発熱を抑える高効率な冷却システムの整備、大規模な電力・場所の確保といった点が重要となります。このため、各パートナー企業のアセットを集結し、これらの課題に素早く対応し、本AIデータセンターの構築を目指してまいります。 2.本AIデータセンター構築に向けた取り組み 本合意に基づき、当社、シャープ及びKDDIの3社は合弁会社を設立し、シャープの堺工場跡地にアジア最大規模のAIデータセンターを構築、早期に稼働を開始することを目指してまいります。 本AIデータセンターにおいては、当社の提携先であるSupermicroから、NVIDIAの最先端のGPU(画像処理半導体)であるGB200 NVL72及びオペレーションコストを低減可能なリキッド・クーリング・ソリューションを含むAIサーバーを調達する計画です。大規模な電力の調達については、シャープの堺工場跡地に構築することで、十分な電力と場所を確保できる見込みであり、ネットワークの構築・運用面においては、KDDIからのサポートが得られます。 当社においては、本AIデータセンターの構築に参画するほか、AIクラウドサービスの運営を推進してまいる予定です。
-
台湾を拠点とする製造業者兼サービス プロバイダーである Pegatron は、NVIDIA Metropolis マルチカメラ ワークフローを導入し、NVIDIA Omniverse と Metropolis工場デジタル ツイン ワークフローをNVIDIA NeMo ™ およびNVIDIA NIM ™に接続して、工場の作業員がリアルタイムで「チャット」できるようにする新しいサービス スイートを開始します。このテクノロジの進歩は、2,100 万平方フィート以上に及び、毎月 1,500 万個を超えるアセンブリを生産する Pegatron の大規模な工場ネットワークで、作業員の安全性と生産性を向上させるのに役立ちます。 電子機器製造の世界的リーダーである Wistron は、NVIDIA DGX ™ およびNVIDIA HGX ™ サーバーの生産を加速するために、自社工場のデジタル ツインを構築しました。現在、同社は Omniverse の使用を拡大し、新しく組み立てられた NVIDIA HGX システムの品質、パフォーマンス、エネルギー消費をテストして保証するために使用されるデータ センターのデジタル ツインを開発しています。 Wistron は、まず NVIDIA Omniverse を使用して施設とワークフローをシミュレートし、通常の半分の時間 (5 か月ではなくわずか 2 か月半) で工場をオンライン化し、レイアウトのテストと最適化を通じて作業者の効率を 50% 以上向上させました。 「NVIDIA Omniverse と NVIDIA Metropolis を組み合わせることで、新しいレイアウトを仮想的にテストして新しいプロセスを特定し、生産ライン上のすべてのマシンからのライブ IoT データを使用してリアルタイムの操作を監視できるようになります」と、Wistron のグローバル製造担当プレジデントであるアレック ライ氏は述べています。「工場計画プロセスをデジタル化することで、エンドツーエンドのサイクル タイムが 50% 短縮されました。」 産業用アプリケーションへのエコシステムの拡張 台湾の大手システム インテグレーターである Kenmec は、Giant Group などの大手メーカー向けに Omniverse と Metropolis のワークフローとサービスを早期に実装した企業です。 エコシステム全体の開発者を支援するために、これらのデジタル ツイン ワークフローはリファレンス アーキテクチャ シリーズとして利用できます。 NVIDIA Isaac の新しく利用可能になったアップデートの詳細をご覧ください。 AI と産業デジタル化の最新情報を知るには、Huang の COMPUTEX 基調講演をご覧ください。
(続き) According …
2024/06/15 05:30
(続き) According to Next Platform, Meta has roughly 600,000 GPUs deployed including previous generations, such as Ampere. This could include some from AMD, although AMD is more likely to ramp in 2025 and beyond. Right now, Nvidia has a $100 billion run rate on its data center compared to AMD’s $4 billion, therefore, any portion of GPUs from AMD is nominal as it stands for 2024. If we look closer at semantics, Huang used the word “millions” and not the singular word “million,” and “data centers” rather than the singular “data center.” Therefore, my firm is making the assumption that companies like Meta will grow their data center GPUs by a minimum of 233% from 600K to 2M by 2030. Broadcom shares a similar view, noting that management expects million-GPU clusters by 2027, compared to clusters with tens of thousands of GPUs today. This is even more bullish than Jensen Huang’s comments. Coming back to Meta, even with 600,000 H100 equivalents, it’s building clusters of 24,000 GPUs. In order to see singular clusters scale to the hundreds of thousands and millions, as Broadcom is predicting, we would need to see GPU shipments far in excess of those levels. This alone could get us to $10 trillion market cap based off Big Tech’s data centers, and we have not factored in the enterprise. The enterprise includes companies like the Fortune 500 or Global 2000 that build on-premise AI systems. (続く)