Kudan(株)【4425】の掲示板 2021/05/15〜2021/05/23
-
981
>>972
visual SLAMは、確かにいくつかの優れたオープンソースソフトウェア(OSS)が主に大学発で無償公開され、コンピュータビジョンに関わる企業もこれらのOSSを使って製品をリリースしてます(Tier IV等)。
artisenseのものは(というかcremers教授がその半生を懸けて研究してこられたのは)、「direct 」visual SLAMであり、一般的な「indirect 」visual SLAMとは、全くの別物です。
名前だけ見れば同じ様に感じますが、directは、文字通りカメラ画像から一般に処理情報を減らす為に一旦特徴点を抽出し、それから3D点群マップを構築するという遠回りをする事なく(ただでさえ重いSLAMデータを軽くする工夫)、カメラ画像から情報量を落とさずに直接的に3D点群マップを作り上げます。こうする事でよりヒトに近い周辺把握を実現できます(この動画の通りです。2021/04/27 @YouTube Beyond the Patterns 26 - Daniel Cremers - Deep Direct Visual SLAM)。ただ、これは実際にはかなり大変で、これまでは実用困難な卓上理論的扱いでした(2014/12/22 第2回cv勉強会@九州 LSD-SLAM - SlideShare、専門家の方でさえも驚く技術)。更に、今後GoogleやMPIと共同でSTEP論文を基礎に、リアルタイムでの環境把握技術を進化させる技術を開発中(2021/10/11 ICCV2021 Segmenting and Tracking Every Point and Pixel: 6th Workshop on Benchmarking Multi-Target Tracking)。あと、OSSではデータ処理の重さから、都市スケールの点群マップ構築は難しいとされてますが、Cremers教授の技術は、この点も克服してます(LSD-SLAM: Large-Scale Direct Monocular SLAM、決算資料で都市スケールへの対応と言っている事と関連)
今回、embedded award 2021を受賞できたのも、こういったOSSベースの改良商品等と比較して早く軽く、またカメラを使うvisual-SLAMならではの弱点である照度変化への脆弱性を克服している点(GN-Netや4Seasons)等が高く評価されてます。この辺は、vinsや4Seasons-datesetへのツイート等の反響の大きさが象徴する通りです。
なんとなく自動運転関連の記事や、場合によっては専門家でさえも、DeepLearning 〉〉SLAMと解釈している印象を受けますが、SLAM自体は昔からあるもののデータ処理の重さやロバスト性の課題から商用レベルでの実用化が遅れていたというだけで、DeepLearning/AIという脳だけでは、その後の自動運転技術の進捗具合、例の事故等から、精度に限界があることが改めて明白に。2020年以降ワークショップへ招聘されることが急増していることは、SLAM、つまり目の重要性を再認識、かつ商用レベルで実用可能であるkudan/artisenseの認知度向上の証拠では?この辺に関しては、また盲信者と言われるでしょうが、今回の決算資料でのkudanのコメント通りと私も思ってます。
2019/6/27
TRI-ADにおける自動運転向け Deep Learning 学習パイプラインの構築
AWS Summit 2019 (Tokyo / Osaka)で、TRI-ADが発表した際のスライドを見ても、この時点では、Deep Learningを磨けば自動運転が完成すると考えていたよう。
しかし、、、
2021/1/27 Tier Ⅳの技術ブログ
Visual SLAMの可能性と技術的チャレンジ
上記ブログ等、改めてvisual-SLAMの自動運転における重要性、と同時にOSSでのロバスト性の限界、実用レベルのソフトウェアへの喫緊の需要の高さが、専門家の視点から窺われます。
Workshop on AI for Autonomous Driving
July 17, 2020 (noon - 10 pm UTC)
Workshop at ICML 2020
1210 - 1240
Daniel Cremers (TMU)
Deep Direct Visual SLAM
〈Sponsors〉
NVIDIA
TRI(Toyota Research Institute)
上記は、これまで投稿したワークショップとはまた別のものですが、下記もあり、こんだけ招聘されまくって、散々チャレンジ企画しまくっており、先方もかなり急いでいるよう。因みに、題名のDirect Visual SLAMにDeepが付いているのは、「Direct Visual SLAM × DeepLearning」の意味です。これをしてstate-of-the-art、最先端技術と形容されており、自信の程が伺えます。
2019/3/20
トヨタ子会社TRI-ADがNVIDIAを全面採用、シミュレーションから車載コンピュータまで
NVIDIAは2019年3月18日(現地時間)、ユーザーイベント「GTC 2019」(2019年3月19~21日)において、トヨタ自動車、デンソー、アイシン精機の共同出資会社であるToyota Research Institute Advanced Development(TRI-AD)との協業範囲を拡大すると発表した。
トヨタ自動車とNVIDIAは2017年から協業している。今回の協業拡大も、トヨタ自動車やトヨタの米国研究子会社Toyota Research Institute(TRI)、TRI-ADとのこれまでの開発の取り組みがベースとなっている。
3倍金マン 2021年5月23日 07:33
国内ではkudanオンリーワンかと思っていたが、
デジタルメディアプロも
ZiaSLAMで参入していたのですね。
kudanからの情報が乏しいので、
このことについて
この板の賢者であられる
無人さん、titititizueさんからのコメント頂けると嬉しいです。