検索結果
-
HBM(High Bandwidth Memory、高帯域幅メモリ)は、特に高速なデータ転送を必要とするアプリケーションのために設計された、新しいタイプの半導体メモリです。以下に、HBMの主な特徴と用途を詳しく説明します: 3Dスタッキング技術:HBMは複数のメモリ層を垂直に積み重ねる3Dスタッキング技術を使用しています。これにより、従来の平面メモリよりも多くのデータを高速に処理できます。 幅広いインターフェース:HBMは非常に広いインターフェースを提供し、これにより高い帯域幅が実現できます。例えば、HBM2では1024ビットのインターフェースが一般的です。 比較的低い消費電力:HBMは、高帯域幅を維持しながらも比較的低い消費電力で動作します。これは、データ転送に必要な電力が少ないためです。 インターポーザ経由の接続:HBMはインターポーザと呼ばれるシリコンの層を介してGPUやCPUに接続されます。この接続方法により、データの転送速度が向上し、信号の品質が保たれます。 HBMは、高性能コンピューティング、サーバー、高度なグラフィックス処理、AI、機械学習など、高いメモリ帯域幅を必要とするアプリケーションに適しています。 帯域幅とは、メモリとプロセッサを結んで信号を交換する入出力回路(IO:Input/Output)のことを「バス」と呼び、このバスを1秒間に通過するデータ信号の数を帯域幅(Bandwidth)と表現します。帯域幅の数値が大きいほどデータ処理が速いことを示します。 帯域幅は以下の式で表現できます:帯域幅=(信号線1本の伝送速度)×(バスの本数) HBM (High Bandwidth Memory)は、DDRタイプのメモリと比較して、バス本数が1024本という驚異的なバス本数を実現できます。
-
HBMとは? HBM(High Bandwidth Memory)とは非常に高い帯域幅(データ転送速度)を持ったDRAMです。 HBMの特徴1:3Dスタッキング技術 HBMは複数のメモリ層を垂直に積み重ねる3Dスタッキング技術を使用しています。これにより、従来の平面メモリよりも多くのデータを高速に処理できます。 例えば、HBM2では1024ビットのインターフェースが一般的です。 HBMの特徴3:低い消費電力 HBMは、高帯域幅を維持しながらも低い消費電力で動作します。 この接続方法により、データの転送速度が向上し、信号の品質が保たれータ転送に必要な電力が少ないためです。 HBMの特徴4:インターポーザ経由の接続 HBMはインターポーザと呼ばれるシリコンの層を介してGPUやCPUに接続されます。 HBMの用途 HBMは、高性能コンピューティング、サーバー、高度なグラフィックス処理、AI、機械学習など、高いメモリ帯域幅を必要とするアプリケーションに適しています。 HBMに欠かせないTSVという技術 HBMで高い帯域幅を実現できる理由は、バス本数の多さにありました。 多くのバス本数を実現できる理由は、TSV(Through Silicon Via)という技術です。 TSV(Through Silicon Via)とは、英語で表現するとシリコンを通り抜ける、と直訳できます。 実際のTSV技術は、メモリの材料(母材)であるシリコンに小さな穴をあけて、その穴を電極で埋めて、高層ビルのように、電気配線を垂直方向につなげる技術です。 TSVを活用することで、横方向に電気配線を接続する「ワイヤーボンド接続」と比較して決められたメモリの面積内で、高さ方向が有効活用できるようになったため、より高密度な配線が可能になります。 さらに、上下層の間の配線距離が、ワイヤーボンド接続よりも非常に短くなるので、信号の伝播遅延も減少し、高い動作周波数が実現できるのです。 また、シリコンの3次元構造を生かして、メモリーの下にロジックICを形成して接続することもでき、ロジックICでメモリーの制御ができ、データ転送の効率化も可能になります。 HBMに、TSVという技術は欠かせない重要なものなのです。
-
インテルはAI向け半導体の開発を急いでいる。9日にはデータセンター向けAI半導体の新製品「ガウディ3」を数カ月以内に投入すると発表した。米メタの大規模言語モデル(LLM)で比較した場合、米エヌビディアの主力AI半導体「H100」に比べてデータ学習速度が平均で1.5倍速いという。 インテルは生成AIの追い風で業績が急拡大したエヌビディアと明暗が分かれている。エヌビディアは株価が1年間で約3倍に伸びた一方、インテルは同期間で2割程度の上昇にとどまる。インテルはAI半導体に開発資金を投じて巻き返しを狙う。 もう一つの注力分野であるファウンドリー(半導体製造受託)事業は立ち上がりに時間がかかっている。インテルは1〜3月期のファウンドリー事業の売上高が前年同期比10%減の43億6900万ドルだった。同部門の営業損益は24億7400万ドルの赤字だった。 インテルの主力のパソコン向けCPU(中央演算処理装置)を中心とする「クライアントコンピューティング」部門は1〜3月期の売上高が前年同期比31%増の75億3300万ドルだった。パソコンでは端末側でAIを処理するための半導体の出荷を増やしている。 米政府は3月、インテルに最大85億ドルの補助金を支給すると発表した。同社は補助金を活用して西部アリゾナ州などの投資を増やし、製造能力を引き上げる。ゲルシンガー氏は補助金を得るために米国で半導体の自国生産を促す法律が成立するように働きかけてきた。 半導体産業は水平分業の構造転換で台湾積体電路製造(TSMC)などが台頭し、かつて市場をけん引したインテルの停滞感が強まっていた。21年に古巣のインテルのCEOに就いたゲルシンガー氏による立て直しは、市場が期待するよりも時間がかかっている。
-
クアルコム、ノートパソコン向け「Snapdragon X Plus」を発表 2024年4月24日 22:43 ---------------- クアルコムでは、競合他社と比べてCPU性能が最大37%高速化される一方で、消費電力は最大54%削減されるという。発表と同時に公開された動画では、インテルのCPU製品と性能を比較する場面もあり、優位性をアピールする。 ---------------- いまだにほとんどの日本のメーカーはインテルのcore ultraを搭載したノートPCを発表していない💻 ファンレスで15時間動き、処理速度も価格も現状のwindowsノートPCと大して変わらないというmacbook airを触ってしまったらみんなあっちに行ってしまうわなー😁 今夏以降のwindowsノートPCはほとんどがarmコアのsnapdragonに切り替わってしまうのかー? intelどうする?🤪
-
この記事通りになりつつある訳ね! 57まで下がるか😨 こうなる前に見てても、受け入れなかっただろうけど😅 アームに弱気な見方 AIストーリーは誇張され過ぎ=米国株個別 材料 2024年4月10日 4時27分 (NY時間15:27)(日本時間04:27) アーム<ARM> 126.84(-2.42 -1.87%) 半導体設計のアーム<ARM>が下落しており、一時124.50ドルまで下落する場面が見られた。同社株は2月の決算発表で急伸し、一時164ドルまで上昇する場面が見られたが、その後は上げが一服している。しかし、調整色を強めることもなく、120-140ドルの間での上下動が続いてい状況。 底堅さは堅持しているものの、アナリストからはここから50%超下落するリスクが指摘されている。同社のAI絡みのストーリーは誇張され過ぎだという。AI絡みのストーリーと、最新のチップ・アーキテクチャの発表後にロイヤルティを増額できたことが追い風となり、株価は50%上昇している。 同社はマイクロプロセッサーの設計図を開発しており、エヌビディア<NVDA>やアップル<AAPL>などを最大の顧客としている。同社のビジネスモデルは、顧客が同社の設計を使用してチップを製造するごとに発生するロイヤルティ収入に依存している。 アナリストは、現在の株価は割高で、ここから50%超下落の57ドルまで下落するリスクがあると指摘。同社がAIの成長から利益を得ていることは確かだが、同社のAIストーリーはエヌビディア<NVDA>と比較して補助的な位置づけでしかなく、エヌビディアのような利益の伸びを達成できるとも思えないという。 57ドルの株価が適正価値と思われ、これは向こう10年間、年17%の売上高の伸びと最大44%の利益率を反映させたとしている。一方、現在の株価は年22%の売上高の伸びと55%の営業利益率を示唆しており、このシナリオ達成には僅か8年間でロイヤルティ収入を4倍に引き上げる必要がある。しかし、顧客がより安価な代替アーキテクチャを求める可能性がある中で、その達成は困難と指摘している。 対照的に別のアナリストからは、同社の長期的見通しについてより楽観的な見方が出ており、目標株価を160ドルに引き上げた。現在の水準から28%高い水準。 2025年からの3年間、同社の売上高は毎年25%成長すると予想しているという。同社はモバイルCPU分野で99%以上の市場シェアを持つ不動のリーダーであり、今後3年間でより多くのOEMがv9プラットフォームに移行することで、売上高がさらに拡大する可能性があると指摘している。 MINKABU PRESS編集部 野沢卓美
-
TSMCギャンブルで7750円で買い追加。 それはともかく… 優れたエネルギー効率でサーバー台数と電力を削減する、AMDの最新サーバー向け第4世代AMD EPYC™プロセッサー https://cloud.watch.impress.co.jp/docs/cdc/report/1579821.html 途中で出てくるベンチマーク比較で、そこまで差があったか??と疑問に思って裏付け調査。 Arm側:Ampere Altra Max (7nmプロセスノードで製造) https://amperecomputing.com/briefs/ampere-altra-family-product-brief ※プロセスの世代が気になったから他も調べたけど、Neoverse N1 …らしい。 ※AWSで言えば、Gravitonの1の世代 AMD:EPYC™ 9754 (5nmプロセスノードで製造) https://www.amd.com/ja/products/cpu/amd-epyc-9754 スループットだけ比較してもなぁ… まぁ、一般的に手に入るCPUってことでの比較だとは思うが、釈然としない。
-
p.1 ArmのIPが有料だから、無料のRISC-Vに取って代わられるといった予想をする人がいる。 本当にそんな事が起こるのか、一エンジニアとしての考察を披露する。 【現状確認】 Armについて ・ArmはCPUコアIPをチップベンダーに売る事で収益を得ている。 ・ArmのCPUコアIPを使用したチップは多くのチップベンダーで多数開発させており、多くの技術資産が蓄積されている。 ・Armはチップベンダーに対し、十分な技術サポートを提供しており、それが多くのチップベンダーに採用される理由にもなっている。 RISC-Vについて ・RISC-Vとは単なるインストラクションセットアーキテクチャ(ISA)の仕様であり、実装は含まない。 ・RISC-V準拠のオープンソースのコアIP(実装設計)が存在している。 ・RISC-Vについては発展途上であり、チップベンダーの技術資産はまだ大きくない。 ・ISAやコアIPがタダなのは結構だが、技術サポートはタダではできない。それを誰がやるのかは不明。 【ARMとRISC-Vの比較】 ・コアIPの金額については、RISC-Vが安価で有利 ・これまでに蓄積した技術資産を利用するには、Armが有利 ・コアIPのサポート力においてはArmが有利 【RISC-VがARMに取って代わるに必要な事】 この状況をRISC-Vがひっくり返すには、次のような事が求められる ・Armのコアよりも性能の高いRISC-Vコアが開発される ・RISC-VコアIPベンダー又はサポート業者の提供するサポートの質とコストが、Armに優っている ・チップベンダーがRISC-Vを採用したとして、その技術資産を蓄えるだけの時間
-
Nvidiaの株価は最近下落し、株価は最新の史上最高値から10%以上修正されましたが、バンク・オブ・アメリカは、チップ・タイタンがまだ支配する絶好の位置にあるため、最近の下落を心配しないように投資家に伝えています。 ヴィヴェック・アーヤが率いるBofAのアナリストは、水曜日のメモで、3月下旬から11%急落したにもかかわらず、Nvidiaに強気であり続け、同社は活況を呈する人工知能スペースに電力を供給するチップの業界をリードする生産者としてトップの座を保持すると予測していると述べた。 アナリストは、最新の暴落は、ChatGPTが2022年11月にデビューして以来、株価が10%以上下落したのは9回目であると指摘している。 銀行は1株当たり1,100ドルの価格目標を維持し、水曜日のセッション中に株式が取引されていた場所から26%の上昇を表しています。株式は午後12時45分頃に867.62ドルで変更されました。 「NVDA株(昨年8月から12月に見たように)の短期的な夏の統合の可能性は常にありますが、ファンダメンタルズはしっかりと軌道に乗っており、統合の期間(横向きの取引)は、後で強い動きのために株式を設定する傾向があると考えています」とアナリストはメモに書いています。 彼らは、Nvidiaの最近の株価下落は、インフレの回復、他のチップメーカーとの競争の激化、市場のボラティリティ、AI株式の疲労、循環的なセクターへのローテーション、収益シーズン前のいくつかのポジションの潜在的な剪定など、多くの要因に起因する可能性があると付け加えた。しかし、これらの要因は会社の物語を変えていません。 Nvidiaの最新のAIパフォーマンスは5倍に向上し、AI推論コストとエネルギー使用量を最大25倍に削減することを目指しています。これは、Nvidiaの強力な企業足場と相まって、BofAアナリストは、チップ分野で市場シェアを維持し、獲得する同社の能力に自信を持つようになります。 NvidiaはGoogleとIntelとの競争に直面しているが、銀行は彼らのプロセッサがNvidiaの優位性に限られた脅威をもたらすと考えている。 発表されたばかりですが、NvidiaにはGraceと呼ばれる独自のものがあります。しかし、NvidiaはCPUをGoogleに販売していないため、銀行はGoogleの新しい立ち上げはNvidiaに影響を及ぼさないと述べた。 一方、Nvidiaの2年前のH100チップと比較して50%優れた推論性能を誇ると発表しました。しかし、バンク・オブ・アメリカは、ガウディ3がAIアクセラレータの市場シェアの1%未満を獲得すると予想しています
-
> (Intel) Gaudi 3は、大規模言語モデル(LLM)の「TensorRT」をはじめとするAIモデルのトレーニングを、NVIDIAの主力GPU「H100」の2倍近い速度で実行できると、Gelsinger氏は言う。 > (NVDIA) 2基のB200と1基のNVIDIA Arm CPU(Grace)を1モジュールにした「GB200」も用意。GB200とH100と比較すると、AI学習時の性能が4倍、推論時の性能は30倍になっており、 さて、どちらの性能が良いのかな?
お昼に比べれば、先物市場も少し…
2024/05/01 22:34
お昼に比べれば、先物市場も少し戻ってきてるので、純粋に今回の決算の影響は、結局5~6%程度といった感じでしょうか。しかし、このくらいの結果については十分に想定できる範囲の話でもあった訳ですから、もうあまり、このことばかりをいつまでも、ああだこうだと言っていても仕方がないと思いますし、ここからは、また今夜、日本時間午前3時に予定されているFOMCの発表と、週末の雇用統計の発表などを見据えた上での戦略を、しっかり考えた方が良いでしょうね。 あと、AMDとNVDAの比較については、目下のところAMDは、価格競争力を優先してコスト増を嫌った戦略を取っているものと考えられ、無理にハイエンドな製品に注力はしていない訳ですが、一方で製品開発も順調に進んではいるようなので、このあたりの戦略が大きく変わってくる可能性があるとすれば、Zen6 CPUとRDNA5 GPUの融合が期待され、2025年~2026年にかけて登場してくるとの話もある”Medusa”が出てくる頃になるのかな…と個人的には思ったりもしています。