検索結果
-
あれから考えたけど、本当にTeslaがLuminarのLiDARをロボタクシーに使うなら、8/8発表に合わせるわな。わざわざ決算で言う必要はない。むしろTeslaがLiDARを使うかもという匂わせをLuminarがしたってところの方がしっくりくるか。
-
>テスラは視覚情報だけで自動運転を実現しようとしている。外界の対象物を映像から、走行に関係あるものと関係ないものに分け、そこから走行戦略を演算する。写真では停止しているバスは走行に関係ない障害物(赤)と認識され、動き始めたバスは走行に影響する物体(青)と認識されている。 >将来にわたってLiDARが必要とされ続けるかどうかはわからない。LiDAR自身も進化をするし、また違った技術が登場するかもしれない。技術が切り替わると、流用できるものはあるとは言え、ノウハウもいったんリセットをされる。そこでプロジェクトを再起動するようなことを繰り返すのであれば、最初から最もシンプルな視覚情報を使った方がいいと考えたのがテスラだ。
-
カメラシステムを捨ててLidarを導入するコストとサンクコストを考えたらTeslaがLidarを導入するのは絶対ありえないね そんな経営判断が出来るなら宇宙人レベルの有能だ
-
個人的な意見だが、どう考えてもCyberCabに使うとしか考えられない! LiDAR2100個は、テスト用としては多過ぎ、一般車向けには少な過ぎる!→ テスラ、「自動運転の松葉杖」呼ばわりしたLiDARの購入発覚!方針転換か Luminarから210万ドル分、株価急騰 自動運転ラボ編集部 - 2024年05月15日 06:40 https://jidounten-lab.com/u_47281/amp
-
既に使われている?! Kudanが機械知能に特化したマシーン・マップ・プラットフォームの提供を開始 Kudan株式会社(本社:東京都渋谷区、代表取締役:大野 智弘、以下Kudan)は、自動運転車やドローン、AGV(無人搬送車)など、最小誤差数mm以内という精密な自動ナビゲーションを実現するマシーン・マップ・プラットフォームの提供を開始しましたのでお知らせいたします。 マシーン・マップ・プラットフォームは、その名の通り、人間ではなく機械知能の処理に最適化されたマシーン・マップの生成と利活用を可能とするプラットフォームです。人間が分かる言語や色彩、形状を中心とする地図様式ではなく、データ形式を機械知能に最適化することで、解決が困難であった様々な問題を克服しています。Kudanのマシーン・マップ・プラットフォームは、これら機械知能向けの地図の生成と再利用を可能とする様々な機能を提供するものです。 このプラットフォームによって、自律的に制御される様々なスマートマシーン(自動運転車、ドローン、AGVから家庭用ロボットまで)から柔軟にマップデータを生成、それらのデータをクラウド側に統合し、これまでの地図データとマージしながら、刻一刻と変化する状況を統合されたデータ上に更新していくことが可能となります。プラットフォームは多岐にわたる機能が実装されており、エッジ側ではカメラはもちろんのこと、LiDARのみでのマップ生成、そして各種センサーとの統合までを可能とし、これまでにない高精度・低負荷の双方を実現しながら、取得したデータからマシーン・マップを生成しています。これには、絶えず更新する機能や複数のマシーン・マップの統合機能、マップの中での自己位置を特定する機能、HDマップ(高精度三次元地図)や衛星地図との統合機能、5Gネットワークを利用したエッジ処理・クラウド処理分散統合機能など、スマートマシーンが自律的に活動するための高度な機能が含まれています。 Kudanのマシーン・マップ・プラットフォームを活用することにより、膨大な台数が稼働するスマートマシーンそれぞれに、低価格でマップ生成や自動ナビゲーションの機能をもたせることや、すでにカメラやLiDARなどのセンサーが搭載されているスマートマシーンに利活用可能なダイナミックマップやナビゲーション機能を付与することで価値向上を図ることも可能となります。 当社は今後も、人工知覚(AP)領域における技術イノベーションを起こし、幅広い産業にインパクトを与えてまいります。
-
テスラ、「自動運転の松葉杖」呼ばわりしたLiDARの購入発覚!方針転換か https://jidounten-lab.com/u_47281 テスラがLuminarのLiDARを大量購入していたことは、Luminarが2024年5月8日に発表した決算報告書により明らかになった。 また、この報道とほぼ同じタイミングで、LiDARが装着されたテスラの「モデルY」の写真がTwitter(現X)で投稿され、話題になった。 テスラ社はADAS(先進運転支援システム)である「AutoPilot」や「FSD(Full Self—Driving)」をすでにリリースしており、随時アップデートしている。ただしこれは自動運転レベル2相当の機能であり、完全自動運転車にはほど遠い。 自動運転タクシーや完全自動運転車を発表するとたびたび発言しているマスク氏であるが、実際に自動運転車が実用化するというニュースはなかなか聞こえてこない。 ----- 前にも詳しい人ら(野村氏含む)のテスラ3次元空間・物体認識の脆弱性についてのまとめを上げ大好評だった(笑) 金になるロボタクシーを目指すなLiDARは必須だろうが、ソフトなど大幅なみなおしは避けて通れないだろうな。
-
2024年03月05日13時53分・・・過去の記事です!! 【材料】KudanがS高カイ気配、エヌビディアのエッジAIプラットフォーム向けKdVisualをリリース Kudan <日足> 「株探」多機能チャートより Kudan<4425>がストップ高の1473円水準でカイ気配となっている。正午ごろ、エヌビディア<NVDA>のエッジAIプラットフォーム向け「Kudan Visual SLAM」(KdVisual)をリリースすると発表しており、これを好感した買いが入っているようだ。 エヌビディアのエッジAIプラットフォーム「Jetson」は、生成AIを含むあらゆるAI技術のために提供されているGPU付きプラットフォーム。今回、Jetson向けに、深層学習技術も盛り込んだKdVisualに対する最適化開発を完了したことで、Kudanとエヌビディアの顧客となるロボット・自動運転・デジタルツインなどの開発者は、従来のLiDARに加えてカメラを使用する環境においても、両社双方の製品能力を最大限に引き出した製品開発ができるようになったという。なお、これにあわせて3月18~21日にアメリカで開催される世界最大規模のAI技術カンファレンス「NVIDIA GTC 2024」に出展するとしている。 出所:MINKABU PRESS
-
【世界中のAIトップ企業がクダンとエヌビディアの協業したプラットフォームを使用するだよ】 日本初だよ❗ 【重要】 エヌビディアのエッジAIプラットフォーム「Jetson」は、生成AIを含むあらゆるAI技術のために提供されているGPU付きプラットフォーム。 今回、Jetson向けに、深層学習技術も盛り込んだKdVisualに対する最適化開発を完了したことで、Kudanとエヌビディアの顧客となるロボット・自動運転・デジタルツインなどの開発者は、従来のLiDARに加えてカメラを使用する環境においても、両社双方の製品能力を最大限に引き出した製品開発ができるようになったという
-
Kudan の機械の目 Kudan Grand SLAMソフトウェアとNerian Ruby 3D深度カメラの組み合わせによって、3D深度カメラ、2Dまたは3D LiDAR、慣性計測装置などのセンサーデータを統合することで、未知の場所を移動している環境下での運用が可能になる。 カメラ(ビジュアル)、2D / 3D-LiDARの個別または組み合わせでセンチメートルレベルの地図作成と自身の位置を正確に把握する事が可能で、迅速で確かな地図作成、そして低消費電力で費用対効果の高い大規模システムの展開と運用のための地図処理が可能になる。 Kudanのモバイルロボット開発キット(MRDK)は、Kudan Grand SLAMを含む先進的なナビゲーション技術によって製品開発サイクルを短縮するハードウェア-ソフトウェア統合パッケージ。 KudanとAllied Visionの新しいコラボレーションにより、自律型移動ロボットにとって強力なナビゲーションおよび地図作成ソリューションを提供し、幅広い産業での利用や大規模システムの展開において、迅速かつ効率的な製品開発と運用を実現する。 Kudanって凄いだろう‼️ いよいよ大暴騰
イーロンは何を根拠にLiDAR…
2024/05/17 21:45
イーロンは何を根拠にLiDARを拒否るんだろ? テスラ好きの方々は 知ってるのかな? 知ってたら教えてほしいです テスラのFSDがどれだけ優れてるか?とか FSDをユーザーが拒否してるのに何故?かとか カメラだけにこだわる理由とかね