検索結果
-
>>[サンフランシスコ 11日 ロイター] - 米アップル<AAPL.O>は10日、音声アシスタント「Siri(シリ)」などのアプリに、米オープンAIの生成人工知能(AI)「チャットGPT」を取り入れると発表したが、その後公表した技術面に関する文書では、AIモデルの訓練にグーグルの助けも借りることが明記されている。 それによると、アップルの技術者はAIの基盤モデルを構築するため、幅広いハードウエアを伴うフレームワークソフトウエアを利用。中でも、グーグルのクラウド「TPU(テンサー・プロセッシング・ユニット)」上だけで入手できる画像処理半導体(GPU)と半導体を使っている。 TPUはグーグルが約10年かけて自社開発してきた特定用途向け集積回路(ASIC)。AIの訓練に使えるその第5世代は、半導体大手エヌビディア<NVDA.O>の「H100」に対抗する性能を備えているとグーグルは説明している。 グーグルはTPUの周辺にクラウドコンピューティングのハードとソフトを構築している。 グーグルは先に、第6世代を今年公表すると発表している。 スゴい🤩
-
>エヌビディアのような高額のGPUをDMPが将来製品として出すようになるのかは分かりませんが、挑戦して欲しいです。 > >DMPは安く低消費電力で高性能の製品を差別化で出しています。 > >高い製品で低消費電力で高性能の商品なら差別化計れて利益もかなり出ますね。 DMPのGPUは、パチパチ等向けの画像処理専用GPU DMPのAIプロセッサは、Deep Learningの推論処理専用でGPUではない NVIDIAのGPUは、2種類あって、 GeForce ( in Tegra等)等は、ゲーム等向けの画像処理専用GPU V100 ( in Tesla等)等は、Deep Learningの学習処理専用GPU (GP-GPU) Deep Learningの学習処理専用GPU (GP-GPU) 以外は要らないんだよ。 Deep Learningの学習処理専用GPUはNVIDIAに到底及ばないんだよ。AMDのGPUもGoogleのTPUでさえ、NVIDIAに到底及ばないんだよ。 DMPみたいなGPUはARMでもAppleでもQualcommでもどこでもつくれるんだよ。 DMPのAIプロセッサなんて、DSPでもソフトウェアでも数百種類のやり方があるから、そんなので勝負してもダメなんだよ。 これらがDMPがダメな理由だよ。いい加減わかってよ。
-
他社もGPU,NPU,TPU出揃ってきました。競争激化は必死。従来の利益率確保が維持できるか特に注視中。
-
デスクトップにもNPU、TPU載せないとあかんよ、遅くとも2025年には、Ryzen AI 9000とかね、IODかチップセットに載せればいいだけなのに
-
NVIDIA、AI半導体市場を支配も顧客が競合になる恐れ AI半導体市場で70~95%のシェア、粗利益率78% 2024.6.7(金) 米NVIDIA(エヌビディア)は、AI(人工知能)向け半導体の需要増に支えられ快走が続く。一方、クラウドサービス大手が独自AI半導体の開発に注力しており、今後顧客がライバルになる恐れも出てきた。 AI半導体市場で圧倒的優位性 みずほ証券の分析によると、米オープンAIの「GPT」のようなAIモデルに使われる半導体の市場で、エヌビディアは70~95%のシェアを持つ。同社の強力な価格決定力を裏づけるのは、78%という高い売上高総利益率(粗利益率)だ。これはネット上のサービスではなく、モノを販売するハードウエア企業として、驚異的に高い数字だ。 米CNBCによると、エヌビディアはAI半導体市場で圧倒的な優位性を持ち、一部の専門家から「堀に囲まれた城」といわれている。主力のGPU(画像処理半導体)「H100」とソフトウエア「CUDA」によって大きく先行しており、代替製品への切り替えが考えにくい状況だ。CUDAはCPU(中央演算処理装置)からエヌビディアのGPUに命令を送り、実行処理するためのソフトウエア開発環境である。 NVIDIAの大口顧客はITビッグ3 しかし、エヌビディアにとって今後課題になるのは、最大の顧客と競い合わなければならないことかもしれないと指摘されている。 米アマゾン・ドット・コムや米グーグル、マイクロソフトなどクラウドサービスを手がける企業は、自社サービス向けAI半導体を独自開発しており、エヌビディアへの依存を減らそうとしている。今後これら企業の半導体開発が進めば、エヌビディアにとって顧客はライバルと化す。現在、これらIT(情報技術)ビッグ3に米オラクルを加えた4社がエヌビディアの大口顧客である。この4社から得ている収益はエヌビディアの売上高の4割以上を占める。 米アマゾン・ウェブ・サービス(Amazon Web Service、AWS)は、18年にAI専用プロセッサー「Inferentia」を開発した。機械学習(マシンラーニング)の推論に特化しており、処理コストを大幅に削減できるというものだ。AWSは21年に機械学習のトレーニング専用半導体「Trainium」を発表し、23年には、その第2世代版「Trainium2」を発表した。 マイクロソフトは23年、データセンターで生成AIを動かすための半導体「Maia」と、クラウドサービス用半導体「Cobalt」を発表した。グーグルは機械学習のトレーニングや推論に特化した「Tensor Processing Unit(TPU)」を自社のクラウドサービス「Google Cloud Platform(GCP)」で提供している。24年5月には第6世代のTPU「Trillium」を発表した。 AI処理はサーバーから端末へ エヌビディアのデータセンター向け半導体事業に対する最大の脅威は、処理が行われる場所の変化かもしれないとCNBCは指摘する。 オープンAIが開発したような大規模モデルは、推論のためにGPUの巨大なクラスターを必要とするが、アップルやマイクロソフトのような企業は、より少ない電力とデータで動作し、バッテリー駆動のデバイス上で動作する「小規模モデル」を開発している。 これらモデルの能力は最新の「Chat(チャット)GPT」のようなレベルには達しない。しかし、テキストの要約や画像検索など、日常生活の様々な用途に利用できる。こうしたIT大手の新たな動きもエヌビディアにとっての潜在的な脅威だと指摘されている。
-
Cudaをラインセンス付与可能にして TPUやMI300でも動くようになればまた話は変わるけどね 窓口は広がるが薄利多売になりそう 現状はNvidiaの自社チップ以外使用できなくしてるけど
アップル、インテルなんかはニュ…
2024/06/14 15:55
アップル、インテルなんかはニューラルのNPUだし、 NVDAは元々、並列処理お得意の画像なしGPUのGPGPUだし、 GoogleはテンソルのTPUだしさ まぁ、色々あるってことだ 良く分かんないけどさ、今日も、株上がって欲しいよね