ここから本文です
Yahoo!ファイナンス
投稿一覧に戻る

(株)ディジタルメディアプロフェッショナル【3652】の掲示板 2017/12/14〜2017/12/15

>>1215

簡単に答えからいえば、この会社のチップ搭載のIntelのプロダクトは、FPGAとあります。
従って、Asicではありません。

次のURLをご覧ください。
自動運転のための学習済み周辺環境3次元地図の作成の現場です。h ttps://www.youtube.com/watch?v=-W-UOFGXG1o  映像から学習済みモデルはどのように作られるでしょうか。それがASICやFPGAにどう関係するか。

FPGAもASICも、目的に合わせてIC内部の「ロジック」をカスタムメイドで作りこむ点では共通しますが、FPGAは何度もプログラミング可能で、ASICは、決った作業で汎用的な作業であれば、作業工程全部を書き込み不能なROMにして集積回路をつくりってしまいます。ASICはROMをつくりこむまでの初期投資の費用がけっこうかかりますが、IC1つあたりの単価はとんでもなく安くなる。FPGAはそうした初期投資はいりませんが、IC1つあたりの単価は、ASICより、とてもに高くつく。
ASICでは、作業コストを吸収するだけの大量の個数の量産が必要になります。たとえば、30億円のコストがかかれば、利益率30%では、100億円を販売しないともとがとれません。プロセスの微細化されるほど、商品サイクルが短いほどい、ASICはコスト高になります。そうした事情から、最近では、ASICがFPGAに食われてきている。
例えば、ASICが使われるのは、GMOやDMMが9月ビットコインのマイニングに参入して、工場や半導体やら含めて100億円と報道されましたが、マイニングにはロジックが固まっているので、ASICをつくってやっているはずです。工場やら周辺環境にも金がかかるでしょうけれど、単純ロジックとはいえ、煩雑ゆえ、5億円ではすまないでしょう。
システムをつくる現段階では、不透明で、いろんなことが起りえる場合には、ASICは使えませんので、FPGAとなります。もし、そんなこと、あんなことが起こったらとか、それ以外の場合は、全部推論プロセスから捨てるとか。不測の障害物がでてくる自動車運転に適しています。 

上の学習済み周辺環境3次元地図作成とASICについては、あとで、時間があるとき、追加します。

  • >>1316

    すげえ勉強になりました。

    ありがとうございます。

    ビットコインのマイニングは、まさに中国のジハン・ウーの会社の商品の「エイシックブースト」のエイシックですね。

    DMPの技術もすごいってことですね。

    自動運転とか、ハンパ無いですね。

  • >>1316

    先のURLは、3次元地図を作成するための映像集めです。
    自動運転AIといいますが、60km/h(秒速16.7m)で走る車のセンシングカメラから入ってくる情報を同時にICにアップロードして、画像解析するためには、Tegra のvolta最新アーキテクトの毎秒20兆円算でもできません。さらに20Wもでてしまい、60℃の発熱では、冷却が必要で、小さなスマホであれば燃えてしまいます。バッテリーが持ちません。だから演算を抑えますと、60km/hを走行で障害物を「知覚」(センシングカメラ)して、危険と探知することができなければ、前方の何かを障害物と判定認識(AI)できない。1秒で16m走りますから、160m先が見渡せるカメラでは、障害物を見つけて、周辺に安全場所をみつけて車体スピンなく安全に停止するのに10秒ありますから、50msで知覚して危険物探知できて、50msで停止場所を探知し、ステアリングに停止の命令を出す。0.1秒ですから、1.6m空走していますが、3秒で車体を止めるには(障害物との距離から安全停止の時間を判断して)、20mはいります。
    もし10m先の障害物から人がでてきたら、どうでしょう。
    時速15km/hの自転車よりのろい速度なら、事故はおこりまえんが、10m先では横によけるのに2秒ありません。障害物までの距離、速度、カメラの性能できまります。ソニーの10月発売のカメラは160m視界、40fr/sです。1秒に40コマ映像を撮りますから、16m/秒走行であれば、50cmおきに1まい撮ります。
    それらの周辺環境情報を全部取り込んで、学習済みのデジタルマップをつくるとき、何をつかいますか?
    車載SoCのtegraを使ってとするといいますが、演算量、消費電力の関数から、時速60キロは、突如でてくる障害物との距離を考えると難しい。三菱電機デバイスで収集したデータは、Tesla V100(1700万円の最新のアーキテクチャVolta)など搭載のHPCで処理されたでしょう。解析処理のためのフォームで読み込むだけで数日かかるでしょうか。画素数によりますが。そんな動画を車載SoCで処理しながら走るのか? 実験は何も周りにない田畑の一本道700mが名古屋大学の現代技術限度?(詳細は、NVDAサイトにいき私を探すか、否、私をクリックしてNo92降の投稿をお読みください)
    (続く)