《本記事のポイント》
- ディープフェイクという存在の意味
- いったいどのような問題が引き起こされているのか
- より本質的な対策法とは何か
現代の私たちの日常生活は、あらゆるものがインターネットを通じて繋がる時代です。あちこちに情報があふれかえり、「情報の洪水」に襲われているとも言える状況です。その現代社会において、実は私たち自らが、直に接して「確かにそうだ」と確認することができる「一次情報」はきわめて限定されています。ほとんどの場合、どこかの誰かに加工された「二次情報」に接するしかないのが実情です。
「何が本当に起こっていることなのか」、「何が事実なのか」、「何が正しいのか」。好むと好まざるにかかわらず、その判断が極めて難しい状況の中にいるのが現代社会に住む私たちの特徴と言っても良いでしょう。
ディープフェイクとは何か
そのような前提に立ったうえで、現代社会における価値観の罠のシリーズとして、いままでいろいろな問題を取り上げてきました。そして私たちの日常生活に「脅威」を与えつつある事象に、毎日のように話題に上る「生成AI技術の著しい進化」を実感している方も多いのではないでしょうか。とりわけ「ディープフェイク」と言われる技術が飛躍的に向上したことは大きいでしょう。偽装されたものであったとしても、配信される映像や音声が本物とほとんど見分けがつかないほど精巧になりました。これにより今後ますます社会を混乱に陥れるような詐欺行為などの増加が懸念されています。そこで今回は、その危険性が各方面から指摘されている、この「ディープフェイク」の罠について一緒に考えてみたいと思います。
「ディープフェイク」とは何か。これはそもそも生成AI自体が、データからルールや知識を獲得する機械学習アルゴリズムの一つである深層学習(ディープラーニング)を利用し、二つの画像や動画の一部を結合させて、元とは異なる動画を作成することを意味しています。実際にある映像や音楽、画像の一部を取り込んで差し替えることで、あたかも本物であるかのように、極めて巧妙に見せかけた偽物の動画を指す場合が多いです。
いったいどのようなことが問題なのか
ここ数年のディープフェイクに関する社会的に問題となった事例を参照しましょう。
すでに2019年の段階で、取引先のCEOの声を模倣したディープフェイク音声により英国のエネルギー企業のCEOが22万ユーロを騙し取られる、という金融詐欺事件が発生しています。生成AIを用いたディープフェイク技術が、このような形でオンラインでの本人確認手続きを不正に通過する手段として悪用されるケースの増加が問題になっています。
また、米国ハリウッド人気女優の顔データが、アダルトビデオのポルノ女優の顔と差し替えられてネットに流出する、いわゆるディープフェイクポルノ問題も発生しました。学校の教育現場でも同級生の画像を使い、同様の問題が起きています。
なぜこれらのような問題が起きるのでしょうか。それは現在多くの人が手軽に無料で生成AIソフトが使用可能な状況にあるからです。複数の機械学習アルゴリズムを活用した、カスタマイズ可能な画像と動画の顔入れ替えツールが存在しています。もちろんこれらは映画や映像編集、エンタメで使用することを想定して開発されてはいます。しかし高精度な顔の入れ替えができるわけです。著名人や有名人のフェイク動画の作成に悪用されるのは想像に難くありません。
また、最先端AIツールではテキスト(文章)から映像生成が可能です。テキストからリアルな短編映像を生成することができるものさえあります。テキスト指示で細かな映像演出ができ、実写風からアニメ風まで幅広く生成できます。そして生成された映像の精度が極めて高いのです。映像制作、広告、SNSコンテンツでの活用を前提とされていますが、もちろんこれも悪用可能です。実写と見分けがつかないほどレベルの高い、リアルなフェイクニュース動画をつくり得るわけです。今後、ますます国際的に深刻な問題になっていくでしょう。
では、どのような対策が求められるのか
今後の社会的への悪影響に鑑みて、いろいろな防御策が考えられています。
まず、一般的な事例として第一に技術的な対策があります。ディープフェイクを検出するためのAIモデルやアルゴリズムの研究が進められています。例えば、生成過程を逆行することで偽造を検出する手法です。さらには防御的手法の導入として、ディープフェイクの生成自体を妨害する技術も開発されています。具体的には、悪意ある敵対的生成ネットワーク(GAN)を利用した攻撃に対抗して、変換を認識するタイプの敵対的顔画像を作成し返す技術の提案です。
「技術によって技術を制する」というわけです。しかし「技術それ自体」は善用も悪用もできます。技術開発は攻撃側と防御側のイタチごっこであり、悪意を持って利用する人がいる限り、技術開発の対策だけでは限界があります。
次に法的な側面からのアプローチがあります。現在、ディープフェイクの悪用に対する法的措置や罰則規定の明確化が求められています。これにより、悪意あるディープフェイクの作成・拡散を抑制する心理的な効果が期待されます。
さらには、国際的協力の強化策があります。ネットを介して、ディープフェイクは瞬時に国境を越えて拡散するため、各国間での情報共有や対策の連携も不可欠です。ただし、これらの対策も、人間の悪意そのものはコントロールできないので一定の限界はあるでしょう。
最も大切な対策なのは、教育と啓発活動という情報の入り口への視点です。多くの幅広い層の人に、ディープフェイクの存在とその日常的リスクについて認知してもらい、「ITリテラシー」「メディアリテラシー」の向上を目指す教育が重要です。企業や組織へのトレーニングとして、特に金融機関やメディアなど、ディープフェイクの影響を受けやすい分野では、関係者向けのトレーニングを実施し、リスク管理能力を高めることが推奨されます。より高度な対策としては、他国からの各種プロパガンダや偽情報に惑わされない判断力を養う「インテリジェンスリテラシー」と言われるものまで養成していくことが求められてくるかもしれません。
今回紹介したように、生成AIの進化に伴って、日常生活におけるディープフェイクの脅威は増大の一途を辿っています。これに対処するためには、これまで述べてきた通り、考えられる限りの技術的対策や法的枠組みの整備を行うとともに、一定の道徳律のもとにネット空間を維持できるよう、ITリテラシー教育・啓発活動のアプローチが必要です。社会全体で協力し、ディープフェイクの悪用を防ぐための体制を構築していくことが求められます。
しかし、あくまでもこれらは一般的な対策として言われていることです。
最後はやはり、「何が善で、何が悪か」という価値基準を社会に定着させ、IT技術の悪用を抑止するための健全な精神的態度を社会に醸成する必要があります。そのためには、善悪の価値基準の基盤として、神とその教えを選び取る生き方を教える「宗教的情操教育」や、明確に善悪の基準が存在するという霊界の真実を伝えることが求められます。
「多くの人を陥れたい、惑わしたい」という動機に基づき、自らの欲望の合理化としてディープフェイクを用いた人間に死後どのような末路が待ち受けているのか。それは地獄に通じる道です。この霊界の真実を知らしめずして、真の抑止力は構築できないのではないでしょうか。伝統的な「阿修羅地獄」「色情地獄」等以外にも、この地上社会の進化に応じた「ネット地獄」と言われるような新たな地獄界が登場し、その領域が拡大していると言われています。
人間の魂の成長・修行場としての地上の存在意義からして、生成AI技術の進展が真の人間の成長にとって悪しき影響を及ぼすという、「本末転倒」の結果を導く可能性を大きく孕んでいます。この新たな「地獄界」の諸相を知り、死後の世界における魂への指導の厳しさをあらかじめ知っておくことが、ディープフェイクの悪用への最大の抑止力となるのではないでしょうか。
残念ながら生成AIの発展によるディープフェイクの増加はしばらく免れないでしょう。そこで最終的に求められるのは、生成AIでは決してつくることのできない「本物」を見抜く目、真贋を見抜く霊的な洞察力を一人一人の人間が身につける以外にはないのだということを現代人の自戒の言葉とし、結びといたします。(吉崎富士夫)
【関連書籍】

『地獄界探訪』
大川隆法著 幸福の科学出版
【関連記事】
2025年4月17日付本欄 英政府、人工知能で未来の殺人犯を特定する「殺人予測」ツールを開発 ─ 拡大適用されればディストピア社会が現実に
https://the-liberty.com/article/22078/
2024年2月6日付本欄 ユニバーサルミュージックが「アーティスト守るため」TikTokとの契約を打切り そもそも、TikTokアプリは中国政府のスパイツールになっている