ここから本文です
Yahoo!ファイナンス
投稿一覧に戻る

Kudan(株)【4425】の掲示板 2020/11/10〜2020/12/17

毎度毎度、変質的長文、大変失礼致します。私用もあり、基本的に投稿はこれで最後にしようと思いますので御容赦下さい。悪しからず。
既に最大の難所は通過しつつあると思いますので、ホルダー皆様の御武運を陰ながらお祈り申し上げます。

artisense、クレマーズ教授、ガンガン邁進されてますよ。

vinsのデリバリー遅延は、当初技術的問題かと心配してましたが、公式に材料調達難からとのコメントあり、実際公式にデリバリー開始もアナウンスされ無事杞憂に終わりました。
研究については、例えばdeepai daniel cremersと検索して頂ければ明らかですが、高頻度で論文投稿されている事が確認できます。そこから窺い知るのは、特に4SeasonsやLM-Reloc論文を根拠として、これまで売りにしていたGN-Net方からLM-Net方という新たな解析方を既に開発している事等が分かり、visual-slamの技術的弱点であった外部環境変化への脆弱性(カメラを使うため急な照度変化に弱い、雪や霧、水溜り等大きく見た目が変わった場合に同じ場所と認識しにくい)を大きく改善し、リアルワールドでの使用に耐え得るロバスト性、リローカリゼーション(一度通った場所を起点に地図全体の歪みを補正する技術)精度を実現している事が分かります。
実際には、artisense側から公式な解説文や音声は全くなく推測するしかないのですが(本当に自己アピールに無頓着な企業です)、その実力を垣間見れるのが2020/10/15公開動画です。これはGNSS(GPS)を使わずvSLAM単独でマッピングしているのですが、理論は別にして動画の最後に SLAM作成マップが衛生写真と寸分違わず鋳型の如く重なり合う様は鳥肌ものです。私は単なる素人で感覚的に凄い事は分かったものの、それが他企業と比較してどの程度技術的に優位なのかは当初計りかねていましたが、CES 2020で世界トップのMobileyeがわざわざGNSS非依存下で自動運転実現!と大々的に発表している事からも(しかもこれは12個のカメラシステムなどめちゃめちゃリッチに武装あり。vinsの二つのカメラとIMUというお安いセットとは別次元)、artisenseが HPで標榜するGNSS非依存というワードは、自動運転領域において大変大きなインパクトを持つと確信しています(かつartisenseはGNSSを否定してる訳ではなく、素の性能をアピール。実際シーメンスとは重要パートナー)。

  • >>129

    最近公開されたteslaのβ版やMercedes/nvidiaの動画等を見ると AI(DeepLearning)に対してSLAMの優位性は何なのかと危惧もしましたが、Intel-Mobileye間でも意外と自動運転-ロボティクス領域での連携にチグハグさが見て取れたり、kudanの説明にもある通り、むしろ大手やDeepLearningと競合するというより、相互補完的にシナジーしていく関係性であり、 SLAMは現在進行形で進歩しやっと需要拡大に対応できつつある技術段階でkudan/artisenseはそのトップオブトップにいると、少々楽観が過ぎるかもですが、個人的には現時点ではそう確信するに至ってます。
    kudanが今後自動運転領域でシェアを取る為には、現段階ではIntel/Mobileyeと、2023を目処に将来的にはQualcomm/Veoneerと関わる必要があると考えますが、実際その様にkudanは動いていますし。特にQualcommは、Synopsysと共にチップ化(SoC)における最重要パートナーであり、もしもsnapdragonにkudanSLAMが直接組み込まれたら本当にIntel入ってる状態になるのでは?その視点から、12/1の875発表以降、QualcommとのSoC関連ニュースには特段の注意を要します。
    ただ、それでも現状は未だ一流のSLAM屋に留まり、周辺環境把握というよりは周辺との精密位置把握に過ぎず、本当の意味でのartificial perception企業とは言えないと思います。Event-based 3D SLAMは、実現すれば、かなりAPに近付くと思われ強い関心が持たれます。
    2014 Daniel Cremers
    Event-based 3D SLAM with a depth augmented dynamic vision sensor
    が、決算資料で使われた写真の元ネタであり、 SLAM技術については既に原型があり、
    2020/2/19
    Sony and Prophesee Develop a Stacked Event-Based Vision Sensor with the Industry’s Smallest Pixels and Highest HDR Performance
    からsonyのcmosイメージセンサー(CIS)は重要なパーツで、こちらも既にtofカメラのCISにて関係構築済であり、必要最低条件はクリア、困難ではあるけど絵空事でもないと期待されます。Event-based Cameraは以前からあり、既にいくつか発表されてますが、当然どこのでもいい訳ではなく、sonyの積層型CISが搭載されているものでなければ意味がありません(kudan 項大雨 CEOの先見の明にはいつも驚かされます)。2020/5/15にsonyは AI機能を持たせたCISを発表しており、これは多層化した階層の一部にAIチップを直接貼り付け実現したもので、イメージセンサーそのものである程度の画像識別を可能としています。Prophesee社とのEvent-based Cameraはヒト網膜構造インスパイアであり、おそらくこのAI CISが今後も深く影響していくものと思われます。
    末梢センサーに関してはsony/Intelと、中枢チップに関してはQualcomm/Synopsys/Intel?と、モバイルからロボティクス、自動運転まで、正に領域横断的視点で着実に深層から技術拡散させており、賛否あるとは思いますが、kudanは上場以前からの信念の元、全くブレなくdeeptech街道を歩んでおり、個人的には驚嘆の思いで見させて頂いております。私の投資人生の中で、日本の小さなスタートアップ企業が、単に世界に羽ばたくに終わらず、よもや世界を席巻する瞬間に立ち会えるやもしれず、本当に稀有な企業と思います。
    大変タフな世界環境下ではありますが、私はもう少しこの壮大な物語に参加してゆきたいと思います。