検索結果
-
事前学習、ファインチューニング、RAG、アノテーション。この辺の単語の意味が分からない株主がまだ多そうだから、まだまだ買えるね゙。
-
ChatGPTなどLLMの弱点“ハルシネーション” 「GPTは要素技術だ。商用という意味では遠い」 2023年05月23日 15時10分 公開 PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏(左)とPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏 ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。 「GPTは要素技術だ。そのままでは商用という意味では遠い。検討すべき課題がある」。 こう話すのはPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏だ。 課題としては、精度、コスト、レスポンス速度、セキュリティなどが挙げられる。 例えば、現在商用利用でほぼ唯一の選択肢となるOpenAIのGPT系APIは、上位のモデルになるほどコストがかかる。GPT-4モデルを使ったChatGPTの応答を見れば分かるとおり、速度も決して速いとはいえない。 ハルシネーション(人工知能の幻覚) コストや精度という課題は、基本的に演算リソースによるもので、今後の半導体の進化によって自然と解決されていくものだろう。しかし精度については、解決は容易ではない。 LLMが、堂々ともっともらしいウソをつくことはよく知られている。これは、ハルシネーション(人工知能の幻覚)と呼ばれLLMが根本的に抱える課題だ。 PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏は「ハルシネーションは一定は抑えられるが100%は難しい」と話す。 商用利用において、ハルシネーションを防ぎ、精度を上げる手法はいくつかある。例えばFAQに相当する内容を持ったデータベースを事前に準備しておき、それをLLMがアクセスしやすいようにベクトル化した上でマッチさせる、データベースの内容を事後学習(ファインチューニング)させるなどだ。 花塚氏は「ファインチューニングはコストがかかるので、外部のリソースを持ってきて、それをChatGPTに入力し、それをもとに回答する」形を解決策として挙げる。 既存AIモジュールとの組み合わせ、人が介入するUX とはいえ、現時点ではChatGPTの精度を向上させるよりも、既存のAIモジュールと組み合わせるほうが、精度、コスト、速度のバランスが取れるようだ。 花塚氏は「LLMが得意とする部分を見極め、体験の中心ではなく、システム全体の1パーツとして利用する。既存モジュールを組み合わせて、コスト、精度、速度など最適なシステムを作るべき」だと指摘する。 PKSHAグループでは、機械学習を用いたLLM以外のAIモジュールを多数保有しており、特化した用途においては、こうしたAIモジュールと組み合わせるほうが利点が大きいとしている。 またLLMの入出力においても「人の確認や入力する情報をマスクするなど、人が介入するUXを検討すべきだ」(花塚氏)としている。 今後の方向性として中島氏が指摘したのが、OpenAIのGPT以外のモデルの可能性だ。特に、米Metaが開発したLLaMAをベースに、世界各地で軽量LLMモデルの開発が進んでいる。 また、オープンソースのLLMも各所から登場しており、画像生成AI同様、オープンソース起点で次の大きなイノベーションが起きる可能性もある。「テックジャイアントではなく、オープン系に期待したい」(中島氏)
-
MSが日本に投資するって事は、日本が生成AIを推進すると言う確信を得たからであって、産業規模が大きくなればさくらにも恩恵かあるはず。 しかしながらopenAIのsoraはサービス提供にあたってH100が75万台必要だったりと、現状のさくらではサービス提供には明らかに貧弱なのも事実。 企業の社内LLMのファインチューニング程度にしか使えなそう。
LLMのファインチューニングは…
2024/04/23 16:47
LLMのファインチューニングは、完全に出遅れてる。 故にJapanは常に後進国