検索結果
-
奥行のオブジェクト置き換えは開発者と有志の感性で行われているため AIが行えるものではないですよ そこまで行ったらAIが自我を持つレベルになる
-
オブジェクトが消えたり ムービーが多いのは海外で受けないかも モーションはもっとシンプルな方が良い
-
-
FSD 12.4 リリース開始 1)以前のバージョン(以前のバージョンが何かはわかりませんが)より5〜10倍介入が減るらしい。 2)特定の条件が揃っているとステアリングに手を添える必要がなくなる。 >ドライバー監視システムは、ドライバーの注意力を判断するために主にキャビンカメラに依存しています。この強化は、キャビンカメラを装備した車両で利用でき、キャビンカメラがドライバーの目を明確かつ継続的に視認できる場合にのみ利用可能です(例えば、カメラが隠されておらず、十分なキャビン照明があり、ドライバーは前方の道路を前方にしており、サングラス、つばの低い帽子、または目を覆う他のオブジェクトを着用していません)。
-
Daniel Cremers教示の論文一覧です。 ↓↓↓ https:// + scholar.google.com/citations?user=cXQciMEAAAAJ&hl=en こんな難しい事をいちいち特許なんか申請したって無意味では無いでしょうか??? RGB-D カメラの堅牢なオドメトリ推定 C・ケルル、J・シュトゥルム、D・クレーマース 2013 ロボット工学とオートメーションに関する IEEE 国際会議、3748-3754 、2013 754ステレオカメラによる大規模ダイレクトSLAM J・エンゲル、J・シュテュックラー、D・クレーマース 2015 インテリジェントロボットおよびシステムに関する IEEE/RSJ 国際会議 … 、2015 723Flownet: 畳み込みネットワークによるオプティカル フローの学習 P・フィッシャー、A・ドソヴィツキー、E・イルグ、P・ホイセル、C・ハズルバシュ、V・ゴルコフ、... arXiv プレプリント arXiv:1504.06852 、2015 710Mot20: 混雑したシーンでの複数オブジェクト追跡のベンチマーク P デンドルファー、H レザトフィギ、A ミラン、J シ、D クレメルス、I リード、S ロス、... arXiv プレプリント arXiv:2003.09003 、 2020 656画像解析のトータルバリエーション入門 A シャンボール、V カセル、D クレメール、M ノヴァガ、T ポック スパース回復の理論的基礎と数値的手法 9 (263-340 … , 2010 ) 625TV - L1 オプティカル フローの改良されたアルゴリズム A ヴェーデル、T ポック、C ザック、H ビショフ、D クレメルス 視覚動作分析への統計的および幾何学的アプローチ … 、2009
-
-
>2024年5月7日 Microsoft、NVIDIA、ソフトバンクが自動運転会社Wayveに10億5000万ドル投資 >人工知能(AI)を用いた自動運転システムを手がける英国の新興企業ウェイブ(Wayve)は7日、シリーズCの資金調達で10億5,000万ドルを調達したと発表した。ソフトバンクが主導し、米半導体大手エヌビディアが新たに出資者に加わったほか、既存の出資者では米マイクロソフトが追加で資金を提供している。 今回の調達額は英国のAI企業としては過去最大で、これまでの総額では13億ドルを超えた。また、ソフトバンクはウェイブの取締役会に加わっている。 ロイター通信によると、ウェイブの技術は現在、6種類のプラットフォームで採用されており、英高級車メーカーのJLR(旧ジャガー・ランドローバー)の「I-PACE」や米フォードの「マスタングマッハE」の先進運転支援システム(ADAS)にも搭載されている。 >2019.04.12 15:00 自動運転に「LiDARは不要」宣言で注目、英スタートアップWayve Wayveの強化学習モデルは、データや過去の経験を活用して、人間が運転を学ぶように、機械が運転の仕方を覚えていく。他の自動運転車と大きく異なるのは、エンジニアが与えたデータに頼るのではなく、車が独自にルールを学んでいく点だ。Wayveの車両は、運転席に座る人間のハンドルやブレーキ操作を学習し、それを模倣する。 Wayveはこの学習モデルを「エンドツーエンド型のディープラーニング」と定義し、この手法で自動運転の活用場面を拡大できると考えている。同社のアプローチであれば、高価なLiDARや高精度な地図は必要がない。その代わりにWayveは、複数のレイヤーにまたがるニューラルネットワークやコンピュータビジョンを用い、周囲のオブジェクトの動きを予測する。
-
乗用車は現状レベル2のまま、ほぼ自動運転化していこうという流れ。 自動運転にはLiDARのみ、LiDAR+高精細地図、視覚情報のみのアプローチがあり正解はまだ出ていません。 現状自動運転で先進的なシステムはテスラが業界初で発表したBEV+Transformer+OCCで次いで中国企業が追従(パクリ)しています。 BEV(Birds Eye of View鳥瞰図の略で、車両に備わった3次元知覚のことを指す)+Transformer(AI[人工知能]モデルの1種)+OCC(Occupancy Network 空間のどこに障害物があるか計算する能力。障害物をオブジェクト判定せず塊として避ける) 車両の走行方向の先にある路面に見知らぬ物体が現れた場合、OCCが同物体を過去に認識済みかどうかにかかわらず、また同物体を車両が仮想世界の小さな格子の範囲内で識別する限り、その体積や運動状態などに基づいて、車両がこのまま道路を走行可能かどうか判定する。 これによって、人間が運転する状態に近い「本能的な障害回避」へと限りなく近づけることに成功しており、運転をより安全かつ信頼できるものにしている。 BEV+Transformer+OCCを採用している中国企業の代表例としてはNIO、Lixiang、Xpeng、Baidu、Horizon、Haomo.aiなど。
NVIDIA GTC 2024…
2024/06/06 00:27
NVIDIA GTC 2024 Keynote by ジェンセン・ファン(翻訳) FabyΔ @FABYMETAL4 さんのXより一部抜粋 全文読むのは長すぎるので最後の非常に力がこもった部分を.......! 今日は、この信じられないほど高度な新しいSDKを発表します。Isaac Perceptorと呼んでいます。今日のロボットのほとんどは、事前にプログラムされています。 地面のレール、デジタルレールに沿って動くか、April Tagに沿って動くかのどちらかです。しかし、将来はパーセプションを持つようになるでしょう。その理由は、簡単にプログラムできるようにするためです。 Isaac Perceptorには、最先端のビジョンオドメトリ、3D再構成、さらに3D再構成に加えて、深度知覚の機能があります。これは、世界で起こっていることを2つのモダリティで監視するためです。 今日最も使われているロボットは、製造アームのマニピュレータです。これらも事前にプログラムされています。コンピュータビジョンアルゴリズム、AIアルゴリズム、ジオメトリを認識した制御とパス計画のアルゴリズムは、非常に計算量が多いものです。 我々はこれらをCUDAで高速化しました。世界で初めて、ジオメトリを認識したCUDA高速モーションプランナーを開発したのです。何かを前に置くと、新しい計画を立てて、その周りを動き回ります。3Dオブジェクトのポーズ推定に優れた知覚能力を持っています。