検索結果
-
MicrosoftのWindowsを搭載するPCは、数十年にわたってIntelのプロセッサを採用してきました。しかし、Copilot+ PC対応モデルはインターネット接続なしで画像生成やテキスト要約といったAI機能を利用できるようにするべく、Qualcomm製のArmアーキテクチャを採用したチップを搭載しています。しかし、これまでとは異なるCPUアーキテクチャを採用しているため、Intel製チップに最適化されていたソフトウェアで互換性の問題が発生し、利用できなくなっている可能性があるとウォール・ストリート・ジャーナルは指摘。 初期のCopilot+ PC対応モデルはすべてQualcommのSnapdragon X EliteあるいはSnapdragon X Plusを搭載しているため、チップが原因でAdobeやフォートナイトといったソフトウェアが利用できなくなっている場合、初期のCopilot+ PC対応モデルはすべてこれらのソフトウェアに対応していない可能性があります。なお、ウォール・ストリート・ジャーナルは「他メーカーのCopilot+ PC対応モデルでも同様の問題が発生しているのかはすぐにはわからなかった」と報じました。 ソフトの互換性かあ ソフトを作ってるメーカーに対応してもらうしかないね
-
CPUとGPUは全くもってアーキテクチャも得手不得手分野も違うから学び直してこい GPUはIF文が得意じゃ無いんだよ
-
小泉純一郎のおもろいところはそもそも日本の成功モデルについてできないように 特許関係がどんどん整備されているのに、その辺は全く無視してる点である もともと日本のコア半導体は、インテルのアーキテクチャやIBMのアーキテクチャを解析し、向こうのオフコンとは別のプログラムでそれ用のソフトが走るようにしてただけで、今は技術盗用になる その当時でも日本のシェアは40パーセントあったが、今は2パーセントである
-
電力は重要な問題ですね。 下記にあるようにブラックウエルの電力効率は従来品比1/25に抑えることに成功しているようです。 米NVIDIAは3月18日(現地時間)、高度なデータセンターなどで使われるGPUの新アーキテクチャ「Blackwell」(ブラックウェル)を発表した。同技術を採用する製品は、コストとエネルギー消費を従来製品の25分の1に抑えながら、数兆規模のパラメータを持つ大規模言語モデル(LLM)による生成AIを構築、実行できるようになるという。搭載製品は2024年後半から市場に投入される予定だ。
-
カニだよカニ(蟹江天直)さん、b0d*****さんともに誤りが多すぎて、いちいち指摘するのが面倒なので、Perplexity君に添削してもらいました。 (自分は"生成"AIとは、こういう使い方をするものだと思っています) 以下、投稿者Aはカニだよカニ(蟹江天直)さん、投稿者Bはb0d*****さん ーーーーー 【投稿者Aのコメントについて】 ■生成AIの限界: 投稿者Aが指摘しているように、生成AI(例えばGPT-3.5やGPT-4.0)は時折誤った回答を提供することがあります。 これはAIが完璧ではなく、特に複雑な数学的問題や論理的推論が必要な問題に対しては誤答を出すことがあるためです。 ■生成AIの特性に関する誤解: 生成AIは、確かに大量のデータを基に学習していますが、単に「まとめサイト」のように意見を集約しているわけではありません。 これらのAIは、自然言語処理の高度な技術を用いて、文脈を理解し、適切な回答を生成する能力を持っています。 したがって、「思考力が皆無」という表現は正確ではありません。 ■AIの能力に関する誤解: GPT-3.5やGPT-4.0が「高校生以上」や「大学院生レベル」の頭脳を持つという表現は、あくまで比喩的なものであり、実際の知識や思考能力を正確に反映しているわけではありません。 これらのAIは特定のタスクにおいて非常に優れた性能を発揮しますが、全ての問題に対して完璧な回答を提供できるわけではありません。 【投稿者Bのコメントについて】 ■GPUの特性に関する誤解: GPUは足し算や引き算、ループ処理が苦手というのは誤解です。 GPU(Graphics Processing Unit)は並列計算に特化しており、大量のデータを高速に処理する能力があります。足し算や引き算などの基本的な算術演算も得意です。 またGPUは並列処理に優れており、特定の種類のループ処理(特にデータ並列な処理)に対して非常に効率的です。 実際、GPUは並列処理に非常に優れており、大量の計算を高速に処理する能力があります。 AIのトレーニングや推論においても、GPUは重要な役割を果たしています。 ■量子コンピュータとの比較の誤解: 量子コンピュータとGPUは全く異なる技術であり、同じ問題を抱えているわけではありません。 量子コンピュータは量子ビット(qubits)を用いて計算を行い、特定の問題に対しては非常に高速な解決が可能ですが、現在の技術ではエラー率やデコヒーレンスなどの課題があります。 ■アップル社のシリコンチップ開発の目的: アップル社が独自のシリコンチップ(Apple Silicon)を開発した主な目的は、性能の向上とエネルギー効率の改善、そしてハードウェアとソフトウェアの統合による最適化です。 これにより、より高性能で省電力なデバイスを提供することが可能となりました。 ARMベースのアーキテクチャを採用したのは、これらの目標を達成するための一環です。 ■投稿者A、投稿者Bのコメントの正確性を100点満点で採点 ・投稿者Aのコメント: 50点 AIの特性や能力に関する誤解が含まれているため、正確性に欠ける部分があります。 ただし、生成AIが全ての問題に対して完璧な回答を提供できないという点は正しいです。 ・投稿者Bのコメント: 30点 GPUの特性や量子コンピュータとの比較に関する誤解が多く含まれており、正確性に欠けます。 また、アップル社のシリコンチップ開発の目的についても誤解があります。
-
バンク・オブ・アメリカが、 アームの目標株価を150ドルから180ドルに引き上げ‼️ v9アーキテクチャが重要な成長ドライバー
-
BofAがアーム・ホールディングス株の目標株価を引き上げ、v9アーキテクチャからの成長を期待 ARM 1.52% 月曜日、BofA証券はアーム・ホールディングス(NASDAQ:ARM)株の見通しを更新し、目標株価を前回の150ドルから180ドルに引き上げ、同時に同株の「買い」レーティングを再確認した。 同社の分析によると、アーム・ホールディングスは、v9アーキテクチャの採用の加速と、インテルやAMDなどの競合他社に対する市場シェアの拡大という2つの主な要因によって、成長態勢にあるという。 同社は、4倍または8-10%増加する可能性のある完全なコンピュート・ソリューションと並んで、ロイヤリティ率を2倍または4-5%増加させる可能性のあるArmのv9アーキテクチャへの移行が重要な成長ドライバーになると予想している。 さらに、より多くのライセンシーがArmテクノロジーを採用することで、クライアントやデータセンター・アプリケーション向けの電力効率に優れたプロセッサーを提供することが期待され、x86アーキテクチャに依存する既存のライバル企業に対する市場シェア拡大の起爆剤になると見られている。
-
最新の関連記事です。 サプライチェーンの動向も抑えておきましょう。 何故、マイクロンなのか理由があるはずです。 ===================== エヌビディア「7万ドルのチップ」の隣の席をマイクロンがつかむ 6/17(月) 8:43配信 台北国際コンピュータ見本市開幕を控えた3日、エヌビディアは次世代人工知能(AI)スーパーチップ「GB200」の量産製品を内外の一部取材陣に公開した。GB200は2個のブラックウェルグラフィック処理装置(GPU)とArmアーキテクチャーをベースにエヌビディアが独自に設計した中央処理装置(CPU)1個をつなげた次世代AIアクセラレータだ。 今年末から発売されるGB200の価格は1個当たり7万ドル(約1102万円)を超える。これすらも品物がなくて買えない。業界1位のアマゾンウェブサービス(AWS)など世界のサーバー企業はチップが作られる前に先買いに入った。 ほとんどの半導体企業はチップにロゴを刻印して自社で生産したチップであることを表示する。エヌビディアはこの日GB200のGPUにケースをかぶせており、今年の半導体業界最大の関心事のひとつだった第5世代広帯域メモリー(HBM3E)の供給会社は明らかにならなかった。ただチップ下部に当たるCPUとメモリー半導体は特別な措置なく公開された。エヌビディアのチップの隣の席をつかんだ主人公は「DRAM最強者」のサムスン電子でも、「HBMのリーダー」のSKハイニックスでもない、米マイクロンだった。 ===================== 『革ジャンおじさんと愉快な仲間達』に全文掲載
-
エヌビディア「7万ドルのチップ」の隣の席をマイクロンがつかむ 6/17(月) 8:43配信 台北国際コンピュータ見本市開幕を控えた3日、エヌビディアは次世代人工知能(AI)スーパーチップ「GB200」の量産製品を内外の一部取材陣に公開した。GB200は2個のブラックウェルグラフィック処理装置(GPU)とArmアーキテクチャーをベースにエヌビディアが独自に設計した中央処理装置(CPU)1個をつなげた次世代AIアクセラレータだ。 今年末から発売されるGB200の価格は1個当たり7万ドル(約1102万円)を超える。これすらも品物がなくて買えない。業界1位のアマゾンウェブサービス(AWS)など世界のサーバー企業はチップが作られる前に先買いに入った。 ほとんどの半導体企業はチップにロゴを刻印して自社で生産したチップであることを表示する。エヌビディアはこの日GB200のGPUにケースをかぶせており、今年の半導体業界最大の関心事のひとつだった第5世代広帯域メモリー(HBM3E)の供給会社は明らかにならなかった。ただチップ下部に当たるCPUとメモリー半導体は特別な措置なく公開された。エヌビディアのチップの隣の席をつかんだ主人公は「DRAM最強者」のサムスン電子でも、「HBMのリーダー」のSKハイニックスでもない、米マイクロンだった。 マイクロンは2022年11月に世界で初めて10ナノ級1βプロセスを使ってLPDDR5X開発を終え顧客に送ると明らかにして半導体業界を驚かせた。サムスン電子、SKハイニックスより1世代先を行く工程に最初に旗を掲げたためだ。先端DRAM工程は1x、1y、1z世代を超え、最近は1a(α)、1b(β)、1c(γ)に入り込んだ。このように作られたDRAMはHBM、DDR、LPDDR、GDDRなどDRAM基盤のメモリー半導体製品として完成される。サムスンは下半期から1b工程基盤のLPDDR5Xの量産に入る。 当時マイクロンが世界で初めて開発したLPDDR5XはアップルのiPhone15シリーズに搭載されたことがわかった。結果的にアップルに続き今度はAIのトップを走るエヌビディアまで、マイクロンが相次いで高性能メモリー製品の供給に成功した形だ。 業界では実際のDRAM性能を左右する集積度の側面でマイクロンがサムスン電子とSKハイニックスを確実にリードしたと断言するのは難しいとしながらも、少なくともメモリー3社の先端工程技術格差がほぼ完全に消えたとみる。業界関係者は「生産量と歩留まりは依然として問題が多いが、性能そのものだけ見ればマイクロンが最も先を行くという評価が多い」と話した。 一方、SKハイニックスから半導体関連特許を譲り受けた特許管理企業ミーミルIPは3日、米テキサス東部地裁と米国際貿易委員会(ITC)にマイクロンとマイクロン製品を使ったテスラ、デル、HP、レノボなどを特許侵害容疑で提訴した。SKハイニックスが最近マイクロンに転職した自社のHBM担当研究員に対し転職禁止の仮処分訴訟を提起したのに続き、メモリー業界の競争激化により技術流出に対する警戒も増している姿だ。
【情報提供 : NVIDIA…
2024/06/21 07:53
【情報提供 : NVIDIA、OpenAI、AI向けクラウドの拡張に向けてOracleと提携】 ★引用 :2024/06/21 Code Zune ★URL :https://codezine.jp/article/detail/19686 米OpenAIと米Oracleは、提携を6月11日に発表した。OpenAIはChatGPTなどのAIサービスを提供する基盤として、MicrosoftのクラウドサービスであるMicrosoft Azureを利用しているが、AIモデルの学習をさらに加速させ、増加するユーザーに対応するためにOracle Cloud Infrastructureも併用する。 Oracle Cloud Infrastructureでは、NVIDIAの「H100」や「A100」などのGPUを提供しているほか、NVIDIAが2024年3月に発表した新アーキテクチャ「Blackwell」を採用したGPU「B100」の提供も予定している。NVIDIAはB100の提供開始時期について2024年後半としている。 Oracleはさらに、NVIDIAの「GB200」の提供も予定している。GB200は、NVIDIAが開発したArmアーキテクチャのプロセッサである「Grace」1基と、GPU「B100」を2基組み合わせて、NVIDIAの高速インターコネクト「NVLink」で接続したもので、B100と同様に2024年後半に提供が始まる予定だ。 Oracle Cloud Infrastructureでは、ノードのメモリ上にあるデータをほかのノードのメモリに直接転送するRDMA(Remote Direct Memory Access)に対応したネットワークでノード間を接続することで、スケールアウト構成での性能を底上げするとしている。 【コメント】URLで真偽をご確認。投資は自己責任で願います。 エヌビディアのAI向けの支援態勢です。