[悪用事例]最近の中国ではAIで他人の顔と合成してなりすまし詐欺事件が相次いでいる

雑談(時事、日常生活)

昨今では顔合成アプリを使えば 他人の顔を合成する事が簡単に出来たり、

声も取得することも可能となったりしていますが、それを悪用した事件が発生しています。

[悪用事例]最近の中国ではAIで他人の顔と合成してなりすまし詐欺事件が相次いでいる

中国で、AIを使い他人の表情を合成してビデオ通話をかけ、10分間で8500万円を振り込ませる詐欺事件がありました。

詐欺の被害にあったのは、中国・福州市に住む男性です。先月、友人を名乗るビデオ電話がかかってきて、「入札のため、8500万円の保証金が必要なので振り込んでほしい」と依頼されたということです。

男性は、通話後すぐに振り込みましたが、その後、友人に確認したところ、通話した覚えはないと言われ、被害が判明しました。犯行にかかった時間はわずか10分で、地元警察は、AIによる画像の合成技術を使い、知人になりすました詐欺だとして捜査を進めています。

中国では、AIを使ったものとみられる詐欺事件が相次いでいて、警察は、顔や指紋などの個人情報を他人に提供しないよう注意を呼びかけています。

AIで“なりすまし”ビデオ通話…8500万円振り込ませる 中国で詐欺相次ぐ より

最近の中国ではAIを使った詐欺事件が立て続けに起こっており、

国内では顔や声などの個人情報を他人に提供しないように呼びかけられています。

この先、ネットで顔出しや肉声を発するのはご法度な時代が来る可能性もあるかもしれません。

AIを使ったなりすましを本気でやられると見分けられない?

上記の動画は AIのプロとモノマネタレントが協力し、長期間かけて作成したものですが、

現在は素人でも手軽に動画を作れるようになっており、

この先もっとクオリティが上がっていくと思います。

個人宛の動画だけでなく、ネットに転がっている動画でも

フェイク映像を見分けることが出来るアプリやAIを通すことが必須になりそうです。

ディープフェイクを見抜けるかどうか調査する海外のサイト「Detect Fakes

表示された動画や音声を見て[fake]か[real]かを当てていきます。

DeepFakes, Can You Spot Them?
Can you spot the DeepFake? Detect Fakes challenges you to discern AI-manipulated videos from real videos. Can you do bet...
error:
タイトルとURLをコピーしました