ふだんからの家族や友達との関係も大切。
仕事が終わって帰宅。あー疲れたっとソファに座ると電話が鳴ります。
電話の相手は仲のいい妹で、「困ったことになったから、少しお金を貸して欲しい…」と。
何があったのか事情をたずねると、どうも様子がおかしい。答えが遅い…、言っている内容が噛み合わない…。おかしいけど声は妹だし、表示されている番号も妹のものだし、よほど困ってパニックになっているのかも。すぐお金送るから大丈夫だよ!
…それ、詐欺です。
翌日、妹に連絡しても「え、なにそれ? 電話してないけど?」と言われて終わり。だって、詐欺ですから。2022年、たくさんの人がAIディープフェイク音声による詐欺電話の被害にあいました。
ディープラーニングアルゴリズムによる音や動画の生成・編集の発展は、近年目覚ましく、パソコン1つで誰でもフェイク音声・動画を制作できる時代になっています。有名人のフェイク動画はもちろん、一般人がターゲットになるケースも増えてきています。
さらにChatGPTのようなテキスト生成AIに、もっともらしい脚本を書いてもらうことも可能。
これぜーんぶ合わせると、簡単に誰かのフリをして詐欺電話をかけることができてしまうというわけ。
従来のオレオレ詐欺が相手の思い込みにまかせる数うちゃあたる方式とは違い、特定ターゲットに知っている誰かの声で連絡がくるので詐欺と見破るのはますます難しくなります。
AIを使った声のクローン
ハイクオリティのディープフェイク動画・音声を作ろうと思えば、それなりの機材と技術と時間とお金がかかります。が、人を騙すのにハリウッド並みの高品質は必要なし。近頃は、そこそこの質で短い尺であれば無料で生成できるサービスも増えています。
フェイクの素となるサンプルは数分、中には数秒程度あればできるというサービスもあり、簡単に偽物が作れてしまいます。家族や親友など親しい人の声をそっくり真似するのは難しくても、非常事態でパニックになっているというフィルターをかければ、あっさり騙されてしまうかもしれません。
ディープフェイク詐欺による被害
音声フィッシング(Voice Phishingでヴィッシングと呼ばれることも)は、職場や家庭で一般の人が出くわす可能性のある詐欺です。2019年、ある発電所が親会社の偉い人のディープフェイク音声に騙され、電話の指示通りに24万3000ドル(約3200万円)を入金した詐欺事件が発生。2022年には、フェイク生成音声詐欺で1100万ドル(約14億5000万円)の被害が発生しています。
ディープフェイクから身を守るには?
ロチェスター工科大学、ミシシッピ大学、ミシガン州立大学など複数が共同で取り組むDeFake Projectでは、ディープフェイク動画・音声を見破り、被害を食い止めるため日々研究を重ねています。が、研究機関が大規模に取り組むだけでなく、私たち1人1人が日々できる対策もあります。
(世知辛い話ではありますが)まず、電話がかかってきたら常に詐欺の可能性を頭の片隅にいれておくこと。知らない相手はもちろん、声の主が知っている相手でもです。
お金絡みの大事な話をする時は、メールや連絡アプリなどで、事前に電話する約束をしておくのもいいでしょう。銀行など金融機関を名乗る相手からの電話はすぐに切り、自分で調べ直した銀行の番号に電話して確認すること。
今や当たり前ですが、個人情報の取り扱いにも注意。メールアドレス、住所、誕生日、電話番号、子どもや孫の名前からペットの名前まで、詐欺師はありとあらゆる情報を駆使して「本物」だと説得してきます。
詐欺対策というより人生の教訓のようですが、「自分を知ること」も身を守る大切な方法です。知性、感情、弱点などを自分自身で認識することで、詐欺師の言葉に踊らされにくくなります。詐欺師ってのはずる賢いですから、経済不安や政的動向、趣味趣向などあらゆる角度から揺さぶりをかけてきます。ディープフェイク音声詐欺は、確証バイアスを利用し、誰かを信じようとする心につけこんでくるのです。
著名人でも身近な人でも、らしくないなと思う行動や発言を見聞きしたら、今の世の中、一旦フェイク動画・音声を疑ってみるのがいいかもしれません。人を信じるなというようで、心が痛くなっちゃうけどさ…。