AIボイス・ディープフェイクによるなりすましと名誉毀損

AI技術の進化により、「ディープフェイク」と呼ばれる、音声や映像を精巧に加工・生成する技術が一般にも広まりつつあります。とりわけ、実在する人物の声や顔を再現して“発言”や“行動”を捏造するなりすまし行為は、SNSや動画共有サイトを通じて拡散され、深刻な名誉毀損・プライバシー侵害を引き起こす事例が増えています。

本記事では、AIを用いたなりすましがどのように法的問題となるのか、その責任の所在と対応策を解説いたします。

1 ディープフェイク・AIボイスの典型的な悪用例

①有名人・政治家の“偽発言”を生成し拡散

AI音声やディープフェイク映像で、存在しない発言や記者会見映像を創作。

②一般人の顔・声を用いた誹謗中傷動画の投稿

元交際相手や職場の同僚などをターゲットに、捏造された“スキャンダル”動画を公開。

③詐欺目的でのなりすまし音声使用

「親戚のフリをした音声通話」「社長を装った指示」など、本人そっくりの声で金銭を騙し取るケースも発生しています。

2 法的評価と責任の所在

ディープフェイクによるなりすましは、以下のような法的責任を問われる可能性があります。

①名誉毀損罪・侮辱罪(刑法230条・231条)

事実でない発言をあたかも本人が述べたかのように作成・公開する行為は、社会的評価を低下させるものとして名誉毀損罪が成立する可能性が高いです。

②私生活の平穏を害するプライバシー侵害

私的な映像・音声を加工して公開した場合、人格権としてのプライバシー権を侵害したとして不法行為責任(民法709条)が認められる可能性があります。

③著作権・肖像権侵害

本人の顔・声・表現を無断で模倣する行為が、著作物に準じて保護される場合や、肖像権の侵害と評価されることもあります。

3 裁判例・実務対応の動向

国内ではディープフェイクを直接扱った判例は多くありませんが、音声や映像の捏造によって社会的信用を失墜させた投稿が名誉毀損と認められたケースは多数存在します。

一方、米国では2023年に、ある俳優の顔をディープフェイクで使用した“わいせつ動画”について、加害者に対し高額の損害賠償が命じられた事例があり、今後日本でも同様の判断が下される可能性が高いと考えられます。

4 被害者がとるべき対応

①該当コンテンツの証拠保全(画面録画・URL等)

削除される前に、拡散状況や発言内容を証拠として確保します。

②プラットフォームへの削除申請

YouTubeやX(旧Twitter)等では、本人確認と違法性主張により削除が可能です。

③発信者情報開示請求

匿名で投稿された場合でも、法的手続きを通じて投稿者の特定が可能です。

④損害賠償請求や刑事告訴

悪質なケースでは、慰謝料請求や刑事責任の追及も視野に入れます。

ディープフェイクは、ジョークやパロディとして利用される場面もありますが、特定の人物を装い、虚偽の発言・行動を創作する行為は一線を越える違法行為です。

加害者が「AIが勝手に作った」と主張したとしても、生成・公開・拡散の意思を持って行った以上、法的責任から逃れることはできません。

被害に遭った場合は、速やかに証拠保全と法的措置の準備を進めることが極めて重要です。

お問い合わせフォーム

 

ページの上部へ戻る

keyboard_arrow_up

0358774099電話番号リンク 問い合わせバナー