【保存版】ディープフェイク詐欺が1300%増!46秒に1回発生!動向から対策まで徹底解説

  • 読了時間目安 9分

結論から言うと、AIとディープフェイクを悪用した詐欺は「量」と「質」の両方で過去最大級の脅威になっており、AI詐欺が完全に「産業化」した段階に来ています。
最新のセキュリティレポートによると、ディープフェイクを用いた攻撃は前年比で1300%以上の激増を記録しました。もはやAI詐欺は一部のハッカーによる特殊な手口ではなく、安価なツールで誰でも実行可能な、スケーラブルなビジネスモデルへと進化してしまったのです。
しかし「どんな手口が増えているか」「最低限の守り方」を押さえておけば、多くの被害は未然に防ぐことができます。

1. なぜ今、AI詐欺がこれほど脅威なのか?

AI詐欺が爆発的に増加している背景には、主に2つの要因があります。

  1. 「騙し」の民主化(Fraud-as-a-Service) :高度な技術を持たない犯罪者でも、ダークウェブなどで安価に「AI詐欺ツール」を入手できるようになりました。これにより、攻撃の実行ハードルが劇的に下がっています。
  2. デジタル本人確認の無力化:従来の「身分証の提示」や「顔認証」といったセキュリティが、AIによって突破されつつあります。Entrust社の2025年版レポートによれば、デジタル文書の偽造は前年比で244%も増加し、物理的な偽造を上回りました。さらに、バイオメトリクス(生体認証)詐欺の20%をディープフェイクが占めるに至っています。

2. 具体例:数字と事例で見る「明日は我が身」の現実

では、具体的にどのような攻撃が行われているのでしょうか。衝撃的なデータと事例を見てみましょう。

2-1. 「5分に1回」の頻度で襲いかかるディープフェイク

Entrust社の調査によると、2024年の時点で、すでに5分に1回のペースでディープフェイク攻撃が発生しています。これはもはや「運が悪ければ遭う」ものではなく、「いつ遭遇してもおかしくない」日常的なリスクです。

2-2. 1300%増加、ディープフェイク音声の進化

Pindrop社の報告によれば、ディープフェイク音声による詐欺は1300%増加しました。 Norton社も、2025年のトップ5詐欺として「音声クローン(Vishing)」を挙げています。わずか数秒の音声データがあれば、上司や家族の声を完璧に複製可能です。「緊急事態だ、すぐに振り込んでくれ」という電話が、本人の声でかかってくるのです。

2-3. ビデオ会議でCFOになりすまし、38億円を搾取

特に企業にとって教訓とすべきなのが、香港で発生した事例です。ある多国籍企業の社員が、CFO(最高財務責任者)や他の同僚が出席するビデオ会議に呼び出されました。 しかし、画面に映る全員がAIで作られた偽物だったのです。被害者は完全に信じ込み、約2,500万ドル(約38億円)を送金してしまいました。 「顔を見て話せば安心」という常識は、もはや通用しません。

世界的にもアジア地域でも、「AI詐欺」はすでに一部のニュースではなく、日常的なリスクになりつつあることが分かります。

3. 代表的なAI・ディープフェイク詐欺の手口

ここからは、誰もが実際に遭遇し得る代表的な手口を整理します。

3-1. ディープフェイク音声による「緊急連絡」詐欺

Nortonは、家族や上司の声を真似たディープフェイク音声で「今すぐお金を送って」と迫る手口を最も危険な事例として挙げています。実在の音声やSNSの動画から数秒のサンプルを抜き出すだけで、高精度な声のコピーが可能になっているためです。

米国では、子どもの声を偽装した「バーチャル誘拐詐欺」が複数報告されており、保護者がパニック状態で送金してしまうケースも確認されています。

3-2. AIサイトビルダーで量産されるフィッシングサイト

Nortonの調査によると、AIサイトビルダーを悪用したフィッシング(同社は「VibeScams」と呼称)が急増しており、コインベースやOffice 365、宅配業者を騙る偽サイトがAIによって短時間で量産されています。研究チームのテレメトリでは、1日あたり580件以上の悪意あるAI生成サイトが確認されたとされています。

見た目は本物の企業サイトとほとんど区別がつかず、ログイン情報やクレジットカード情報を入力させることで、不正送金やアカウント乗っ取りに悪用されます。

3-3. オンライン会議を悪用した「なりすましCEO」詐欺

KnowBe4のPerry Carpenter氏は、SECの投資家向けパネルで、AIがビジネスメール詐欺(BEC)を「ディープフェイク会議」へと進化させたと述べています。

実際に2024年、香港の企業では、財務担当者が「役員たちとのオンライン会議」に参加し、映像も音声も本物に見えたため、指示通り約2,500万ドルを海外口座へ送金してしまった事案が報じられています。
従来の「なりすましメール」よりも説得力が高く、ビデオ会議だから安全という前提が崩れたことを示す象徴的なケースです。

3-4. eKYC・口座開設プロセスを狙うディープフェイク

Entrustのレポートは、デジタル文書の偽造とバイオメトリクスのディープフェイクが、オンライン本人確認(eKYC)や口座開設の入口を攻撃していると指摘しています。

  • デジタル偽造文書が文書詐欺の57%を占める
  • バイオメトリクス不正の約2割がディープフェイク

といった数字は、「顔写真付き身分証+セルフィ動画」さえも、もはや万能ではないことを意味します。

3-5. コンタクトセンターを狙う合成音声攻撃

Pindropの調査では、2024年に分析した12億件以上の通話の中で、以下結果が出ています。

  • ディープフェイク詐欺の試行回数が1年で1,300%以上増加
  • 保険会社では合成音声攻撃が前年比475%増銀行でも149%増
  • コンタクトセンターでの詐欺試行は127件に1件の通話、平均46秒に1回

日本企業のコンタクトセンターも、「声で本人確認」を行っている場合は特に要注意です。

4. なぜAI詐欺はここまで危険になったのか ― 3つの構造変化

Carpenter氏は、AI詐欺のリスクを「テクノロジーの進化速度」と「人間・社会・規制の適応速度」のギャップが急拡大する“Exploitation Zone(搾取ゾーン)”として説明しています。

その背景には、次の3つの技術的な変化があります。

  1. マルチモーダル合成の進化
    テキストだけでなく、音声・画像・動画を一体として生成できるようになり、「見て聞いても本物にしか思えない」偽コンテンツが誰でも作れるようになりました。
  2. AIコンポーネントの“サイロ化”と悪用
    文章生成モデル・音声合成・自動発信システムなどがモジュールとして提供され、それぞれは自分が詐欺に使われていることを認識しません。結果として、誰でも“詐欺ボット”を組み立てられる状況になっています。
  3. パーソナライズの大規模化
    SNSや漏えいデータをAIが解析し、個々人の属性・趣味・人間関係に合わせたメッセージやシナリオを自動生成できます。これにより、一人ひとりにカスタマイズされた「説得ストーリー」を同時並行で展開できるようになりました。

つまり、以前は「腕の良い詐欺師にしかできなかったこと」が、今はツールを組み合わせれば誰にでもできるようになってしまったのです。

5. 個人・企業が今すぐできる対策

AI詐欺は高度化していますが、「仕組み」と「ルール」と「心構え」を整えれば、リスクを大きく下げることができます。ここでは、個人と企業に分けてポイントを整理します。

5-1. 個人としてのセルフディフェンス5カ条

  1. “緊急の送金依頼”は必ず別チャネルで確認する
    電話・チャット・メールであっても、突然の送金依頼は一度切って、自分が知っている連絡先にかけ直すことを習慣化しましょう。Nortonも、家族間の「合言葉」を決めておくことを推奨しています。
  2. URLと送金先は「2回見る」
    ログインや振込前に、ブラウザのアドレスバーと送金先名義を、意識してもう一度確認する癖をつけます。AIで作られた偽サイトほど、ドメイン名や微妙な表記ゆれで見分ける必要があります。
  3. オンライン会議での“お金の話”は即決しない
    役員や取引先からオンライン会議中に指示を受けても、「この件は社内プロセスに従ってメールでも確認します」と一度保留するルールにしましょう。ディープフェイク会議への最も簡単な対抗策です。
  4. 身分証や顔動画を安易にアップロードしない
    不要なサービスにマイナンバーカードやパスポート画像、セルフィ動画を渡すことは、将来のディープフェイク生成リスクを高めます。提供先は信頼できる企業かどうか、必ず確認しましょう。
  5. ニュースで手口を“アップデート”し続ける
    警察庁やセキュリティ企業のレポート、金融機関の注意喚起ページを、月に1回でもチェックするだけで「知らなかったから騙された」を大きく減らせます。

5-2. 企業としてのガバナンス・仕組みづくり5カ条

Carpenter氏は、AI詐欺への対抗策として「技術・教育・プロセス」を組み合わせた多層防御を提言しています。
これを日本企業向けに要約すると、次のようになります。

  1. 高額送金・重要決裁の「多要素承認ルール」
    一定額以上の振込や重要な契約は、
    • メール+チャット+電話など2つ以上のチャネルでの確認
    • 役職者2名以上の電子承認
      を必須とする社内規程を整備します。
  2. eKYC・ログインの強化(AIに対抗するAI)
    Entrustが推奨するように、バイオメトリクスの「なりすまし検知(liveness)」や異常検知を取り入れた多層的な認証基盤の導入を検討します。
  3. コンタクトセンターの音声認証・モニタリング
    Pindropが示す通り、コンタクトセンターは合成音声攻撃の最前線です。声紋認証+通話内容の異常検知など、AIを活用した監視を導入し、オペレーター向けには「少しでも違和感があれば二次確認する」権限と教育を与えます。
  4. AI詐欺を含むセキュリティ教育のアップデート
    すでにフィッシング訓練を行っている企業も多いですが、これにディープフェイク音声・動画・チャットボットを含むシナリオ訓練を追加することで、現場感覚を養えます。
  5. インシデント対応計画に「ディープフェイク前提」を組み込む
    万一、偽のプレスリリースや役員動画が出回った場合にどう対応するか、
    • 真偽確認のフロ
    • 社内外への一次メッセージテンプレート
    • 証拠保全の手順
      などを事前に定めておくことが、ブランド毀損を最小化する鍵になります。

6. まとめ :「AIを恐れる」から「AIを使いこなして守る」へ

改めてまとめると、以下の通りです。

  • ディープフェイクやAIを悪用した詐欺は、数分単位で発生するほど日常化しつつある
  • 音声・動画・文書のすべてが「それっぽく」作れてしまう時代には、人間の感覚だけで真偽を見抜くのはほぼ不可能
  • しかし、ルールづくり・教育・技術対策を組み合わせれば、被害を大きく減らすことは十分可能

AI詐欺との戦いは“いたちごっこ”に見えますが、 「AIをどう使って攻撃されるか」を理解し、「AI+人+プロセス」で守りを固めた企業・個人ほど防御ができ、さらに競争優位を得られるようになります。

まずは今日から、「緊急の送金依頼は必ず別チャネルで確認する」「怪しいURLは一拍おいて見直す」「社内ルールと教育をAI時代に合わせてアップデートする」など、小さな一歩から始めてみましょう。


参考・出典

本記事は、以下の資料を基に作成しました。


AI利用について

本記事はAIツールの支援を受けて作成されております。 内容は人間によって確認および編集しておりますが、詳細につきましてはこちらをご確認ください。

TOP
TOP