ここから本文です
prismhit~~~明日から令和ですね。
投稿一覧に戻る

prismhit~~~明日から令和ですね。の掲示板

AI音声を詐欺に悪用 3秒の素材で親族らになりすまし

人工知能(AI)で人間の声を合成する「ディープフェイクボイス」を悪用した詐欺への懸念が米国など海外で高まっている。想定されるのは人工の声で親族らになりすまし金銭をだまし取る手口だ。3〜4秒間の音声データがあれば高い精度で合成できるとされ、日本でも被害の恐れがある。専門家は検知技術の向上といった対策の必要性を指摘する。

「我々はすでにAIが詐欺を加速させる危険性を数多く目の当たりにしている」。米連邦取引委員会(FTC)のリナ・カーン委員長は6月、投資家向けのイベントで警戒感を示した。悪用例の一つにあげたのが、ディープフェイクボイスで親族などを装う詐欺電話だ。

  • >>10430

    FTCによると、米国では友人や家族を装う電話による詐欺が2022年に約5千件あり被害額は1100万ドル(約16億円)に上った。このうち人工音声が悪用された割合は判明していないが、使われた疑いが強い事件が浮上している。

    米CNNの報道によると、1月に西部アリゾナ州の女性に娘の声で助けを求める電話があった。犯人側は娘を誘拐したとして当初100万ドル(約1億4千万円)の身代金を要求。声の抑揚は本人と酷似していたが、誘拐を偽装した詐欺の電話だった。

    中国でもAIで加工した動画や音声を使った詐欺が23年に入り増加したとみられ、警察当局などがSNS上で注意を呼びかける事態となっている。

    警戒が広がる背景には、他人の音声をAIで容易に合成できるツールの普及がある。かつては偽物と気づかないほど高度な音声を合成するには、大量のデータ計算が可能な特殊なサーバーや、雑音のない長時間の音声サンプルが必要だった。

    だがAI技術の進展で状況は変わった。米セキュリティー大手マカフィーによると、英語なら3〜4秒の音声データがあれば一致率85%の偽音声が合成できるという。犯罪グループは個人のSNSで公開された動画などから元データを入手しているとみられる。

    マカフィーの4月の調査によると、欧米や日本など7カ国の7千人のうち10%の人が「AI音声を用いた詐欺に遭遇したことがある」と答えた。知人が遭遇したと答えた人(15%)を合わせた25%のうち、約8割が金銭を詐取されたという。

  • >>10430

    AI音声詐欺に遭遇したとする日本人の割合は3%で7カ国中で最も少なかった。同社日本法人アジア地域チャネルマーケティング本部長の青木大知氏は「日本ではAI音声の悪用の認知が広がっていない。被害が潜在化している可能性がある」と指摘する。

    音声の合成技術に詳しい国立情報学研究所の山岸順一教授も「英語に比べ開発が遅れてきた日本語向けの音声合成サービスが登場してきており、被害が広がるのは時間の問題」とみる。

  • >>10430

    国内の22年の特殊詐欺被害額は370億8千万円に上り、8年ぶりに前年を上回った。親族などをかたるオレオレ詐欺の被害額は129億3千万円で、手口別で最も多い。政府の「AI戦略会議」は懸念されるリスクの一つにオレオレ詐欺といった犯罪への音声などの悪用を挙げた。

    被害防止のカギはAI音声を見破る検知技術の普及だ。山岸氏によると音声に向かって別の微細な音を流し、周波数の変動具合から人間の声か判別するといった方法がある。研究レベルでは9割以上の精度で判定できる技術も出てきているという。

    利用者の本人確認時に声による生体認証を採用している金融機関などの一部は、なりすまし防止の検知技術をすでに実用化している。山岸氏は「悪用されるのを防ぐために、SNSなどへの音声のアップロードには十分注意を払うべきだ」とも話している。