ここから本文です
Yahoo!ファイナンス
投稿一覧に戻る

(株)PKSHA Technology【3993】の掲示板 2024/04/11〜2024/04/22

>>730

知らなかったんですがPKSHA LLMsってやはり複数のLLMを最適な配置で組み合わせる概念のことなんですね。LLMにもコストや速さ含め、モデルによって苦手な部分と得意な部分があるので

後半のLLMを使ってハルシネーションを防ぐ考え方は最近出てきた考え方なのですが、すでに発信できるレベルまで取り入れてるんですねぇ。やはり日本企業の中では一番進んでそうだなあ

  • >>731

    ChatGPTなどLLMの弱点“ハルシネーション” 
    「GPTは要素技術だ。商用という意味では遠い」
                 2023年05月23日 15時10分 公開

    PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏(左)とPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏

    ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。

    「GPTは要素技術だ。そのままでは商用という意味では遠い。検討すべき課題がある」。
    こう話すのはPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏だ。

     課題としては、精度、コスト、レスポンス速度、セキュリティなどが挙げられる。
    例えば、現在商用利用でほぼ唯一の選択肢となるOpenAIのGPT系APIは、上位のモデルになるほどコストがかかる。GPT-4モデルを使ったChatGPTの応答を見れば分かるとおり、速度も決して速いとはいえない。

    ハルシネーション(人工知能の幻覚)
     コストや精度という課題は、基本的に演算リソースによるもので、今後の半導体の進化によって自然と解決されていくものだろう。しかし精度については、解決は容易ではない。
    LLMが、堂々ともっともらしいウソをつくことはよく知られている。これは、ハルシネーション(人工知能の幻覚)と呼ばれLLMが根本的に抱える課題だ。

     PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏は「ハルシネーションは一定は抑えられるが100%は難しい」と話す。

    商用利用において、ハルシネーションを防ぎ、精度を上げる手法はいくつかある。例えばFAQに相当する内容を持ったデータベースを事前に準備しておき、それをLLMがアクセスしやすいようにベクトル化した上でマッチさせる、データベースの内容を事後学習(ファインチューニング)させるなどだ。

     花塚氏は「ファインチューニングはコストがかかるので、外部のリソースを持ってきて、それをChatGPTに入力し、それをもとに回答する」形を解決策として挙げる。

    既存AIモジュールとの組み合わせ、人が介入するUX
     とはいえ、現時点ではChatGPTの精度を向上させるよりも、既存のAIモジュールと組み合わせるほうが、精度、コスト、速度のバランスが取れるようだ。

     花塚氏は「LLMが得意とする部分を見極め、体験の中心ではなく、システム全体の1パーツとして利用する。既存モジュールを組み合わせて、コスト、精度、速度など最適なシステムを作るべき」だと指摘する。

     PKSHAグループでは、機械学習を用いたLLM以外のAIモジュールを多数保有しており、特化した用途においては、こうしたAIモジュールと組み合わせるほうが利点が大きいとしている。
    またLLMの入出力においても「人の確認や入力する情報をマスクするなど、人が介入するUXを検討すべきだ」(花塚氏)としている。

     今後の方向性として中島氏が指摘したのが、OpenAIのGPT以外のモデルの可能性だ。特に、米Metaが開発したLLaMAをベースに、世界各地で軽量LLMモデルの開発が進んでいる。
    また、オープンソースのLLMも各所から登場しており、画像生成AI同様、オープンソース起点で次の大きなイノベーションが起きる可能性もある。「テックジャイアントではなく、オープン系に期待したい」(中島氏)

    (株)PKSHA Technology【3993】 ChatGPTなどLLMの弱点“ハルシネーション”  「GPTは要素技術だ。商用という意味では遠い」              2023年05月23日 15時10分 公開  PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏(左)とPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏  ChatGPTのビジネス利用はブームだが、これをビジネスで活用しようとした場合、さまざまな課題がある。AIを活用したチャットボット開発などで知られ、ChatGPTのようなLLMの活用も進めているPKSHA Technologyが、商用利用のポイントについて語った。  「GPTは要素技術だ。そのままでは商用という意味では遠い。検討すべき課題がある」。 こう話すのはPKSHA Workplaceでプロダクトマネージャー/プロダクトデザイナーを務める花塚匠氏だ。   課題としては、精度、コスト、レスポンス速度、セキュリティなどが挙げられる。 例えば、現在商用利用でほぼ唯一の選択肢となるOpenAIのGPT系APIは、上位のモデルになるほどコストがかかる。GPT-4モデルを使ったChatGPTの応答を見れば分かるとおり、速度も決して速いとはいえない。  ハルシネーション(人工知能の幻覚)  コストや精度という課題は、基本的に演算リソースによるもので、今後の半導体の進化によって自然と解決されていくものだろう。しかし精度については、解決は容易ではない。 LLMが、堂々ともっともらしいウソをつくことはよく知られている。これは、ハルシネーション(人工知能の幻覚)と呼ばれLLMが根本的に抱える課題だ。   PKSHA Technologyでエンジニアリングマネジャーを務める中島真也氏は「ハルシネーションは一定は抑えられるが100%は難しい」と話す。  商用利用において、ハルシネーションを防ぎ、精度を上げる手法はいくつかある。例えばFAQに相当する内容を持ったデータベースを事前に準備しておき、それをLLMがアクセスしやすいようにベクトル化した上でマッチさせる、データベースの内容を事後学習(ファインチューニング)させるなどだ。   花塚氏は「ファインチューニングはコストがかかるので、外部のリソースを持ってきて、それをChatGPTに入力し、それをもとに回答する」形を解決策として挙げる。  既存AIモジュールとの組み合わせ、人が介入するUX  とはいえ、現時点ではChatGPTの精度を向上させるよりも、既存のAIモジュールと組み合わせるほうが、精度、コスト、速度のバランスが取れるようだ。   花塚氏は「LLMが得意とする部分を見極め、体験の中心ではなく、システム全体の1パーツとして利用する。既存モジュールを組み合わせて、コスト、精度、速度など最適なシステムを作るべき」だと指摘する。   PKSHAグループでは、機械学習を用いたLLM以外のAIモジュールを多数保有しており、特化した用途においては、こうしたAIモジュールと組み合わせるほうが利点が大きいとしている。 またLLMの入出力においても「人の確認や入力する情報をマスクするなど、人が介入するUXを検討すべきだ」(花塚氏)としている。   今後の方向性として中島氏が指摘したのが、OpenAIのGPT以外のモデルの可能性だ。特に、米Metaが開発したLLaMAをベースに、世界各地で軽量LLMモデルの開発が進んでいる。 また、オープンソースのLLMも各所から登場しており、画像生成AI同様、オープンソース起点で次の大きなイノベーションが起きる可能性もある。「テックジャイアントではなく、オープン系に期待したい」(中島氏)