(株)日本マイクロニクス【6871】の掲示板 2024/03/20〜2024/03/28
-
1032
>>1026
https://www.kedglobal.com/korean-chipmakers/newsView/ked202403270023
これか
5年で23倍、しかもHBM
まだ思惑だろうけど実現できれば特大材料だ
頑張ってくれ -
1036
>>1026
いやいや、韓国のサムソンと米国のインテルは大風呂敷をひろげるだけで、負け組から脱することはできないよ。
HBM3ではSKhynixが90%のシェア占めて独走。
サムソンとマイクロンは完全な負け組となった。
ただし、SKの供給能力には限界があり、すでに2024年の出荷予定分(大半がNVIDIAのH100製造を受託するTSMC向け)は完売済。
その隙間を狙ってサムソンも年度後半にAMDのMI300向けにHBM3を出荷するよういだ。
しかし、最先端のHBM3eについてはサムソンの状況は絶望的だ。
すでにSKが今春から出荷し始めているが、HBM3では負け組だったマイクロンがHBM3eの開発に成功し、SKとほぼ同時に今春から出荷を始めたのだ。
それが話題となってマイクロンの株価は爆騰している。
これに対し、サムソンはHBM3eでは大幅に出遅れており見通しがたっていない。
かつて、ロジックのファウンドリーでも、インテルでも出来なかった4ナノ工場を建設してTSMCに勝利すると豪語していたが、良品率が60%とTSMCの80%に比べて圧倒的に低く、惨敗。
唯一の顧客だったクアルコムでさえTSMCに奪われていた。
つまり、サムソンの大風呂敷を鵜呑みにしてはいけない。
ふるふる 3月28日 17:21
韓国経済新聞
サムスン電子、2024年にHBMの生産量を3倍に増やし、AIチップの時代をリード
この予測は、今年HBMチップの数量を倍増させるというSamsungの1月の予測を上回っています
シリコンバレー – 世界最大のメモリチップメーカーであるサムスン電子は、人工知能チップセグメントで主導権を握ることを目指しており、今年の高帯域幅メモリ(HBM)チップの生産量を昨年の3倍に増やす可能性があります。
火曜日にカリフォルニア州サンノゼで開催された世界の半導体メーカーの集まりであるMemcon 2024で、サムスンのコーポレートエグゼクティブバイスプレジデント兼DRAM製品および技術責任者であるファン・サンジュン氏は、今年のHBMチップの生産量を昨年の生産量と比較して2.9倍に増やすことを期待していると述べました。
この予測は、サムスン電子が今年初めのCES 2024で発表した、2024年に2.5倍のHBMチップを生産する可能性が高いという予測よりも高いものです。
「すでに量産を開始している第3世代HBM2Eと第4世代HBM3に続き、今年上半期には12層の第5世代HBMと32ギガビットベースの128GB DDR5製品を大量に生産する予定です」とHwang氏はMemcon 2024で述べました。
これらの製品により、AI時代における高性能・大容量メモリでの存在感が高まることが期待されます」と述べています。
サムスン電子はカンファレンスで、2026年のHBMの出荷台数を2023年の13.8倍に増やすというHMBロードマップを発表しました。HBMの年間生産量は、2028年までに2023年の水準の23.1倍にさらに増加するとしています。
第6世代HBMチップ(コードネーム「Snowbolt」)であるHBM4では、サムスンは効率を上げるために、制御デバイスであるバッファダイをスタックメモリの最下層に適用することを計画しています。
サムスン電子は、業界初の12スタックHBM3E DRAMである最新のHBM3E 12Hチップのデモを行い、HBM技術でこれまでに達成された最大容量のブレークスルーを参加者に認めました。
Samsungは現在、HBM3E 12Hチップを顧客にサンプル出荷しており、上半期に量産を開始する予定です。
カンファレンスには、SK Hynix Inc.、Microsoft、Meta Platforms、Nvidia、AMDが参加しました。
MEMCON 2024でのCXL技術
Samsungはまた、Memcon 2024でCompute Express Link(CXL)メモリモジュールポートフォリオの拡張を発表し、AIアプリケーション向けの高性能・大容量ソリューションにおける同社の技術を紹介しました。
基調講演で、サムスン電子のデバイスソリューションリサーチアメリカのチェ・ジンヒョク執行副社長は、サムスン電子はAI時代の可能性を最大限に引き出すためにパートナーとの協力に取り組んでいると述べました。
「AIのイノベーションは、メモリ技術のイノベーションなくしては継続できません。サムスン電子は、メモリ市場のリーダーとして、業界最先端のCMM-B技術から、ハイパフォーマンスコンピューティングや要求の厳しいAIアプリケーション向けのHBM3Eのような強力なメモリソリューションまで、イノベーションを推進し続けることを誇りに思っています。」
Samsungは、CXLエコシステムの勢いの高まりを強調し、最先端のCXL DRAMメモリ製品であるCXL Memory Module – Box(CMM-B)を発表しました。
また、CXL Memory Module Hybrid for Tiered Memory(CMM-H TM)およびCXL Memory Module – DRAM (CMM-D)技術も展示した。
CXLは次世代高性能サーバーシステムの中央処理装置(CPU)で使用されるアクセラレータ、DRAM、およびストレージデバイスの効率を高めるインターフェイス。
HBMセグメント
で出遅れている HBMチップセグメントで出遅れているSamsungは、SK Hynixや他のメモリプレーヤーに対抗するためにHBMに多額の投資を行ってきました。
HBMは、従来のメモリチップよりも高速な処理速度を提供するため、AIブームに欠かせないものとなっています。
先週、サムスン電子の半導体事業責任者であるキョン・ギヒョン氏は、同社が次世代AIチップ「マッハ1」を開発しており、先進的なHBMセグメントで支配的なライバルであるSKハイニックスをひっくり返すことを目指していると述べた。
同社は、今年末までに最大1兆ウォン(7億5200万ドル)相当の契約でマッハ1チップをネイバーコーポレーションに供給することにすでに合意したと述べた。
この契約により、ネイバーは世界トップのAIチップ設計者であるエヌビディアへのAIチップへの依存を大幅に減らすことを望んでいます。