アリゾナ州に住む1人の母親 Jennifer DeStefano氏は、100万ドルの誘拐計画の中で犯人がAI技術を悪用して偽の娘の声を合成したと主張しています。彼女は、スキー旅行中に15歳の娘を誘拐したと主張する誰かから電話を受けました。その人物はAIシミュレーションを使用して娘の声を模倣し、100万ドルの身代金を要求しましたが、後に5万ドルに減額されました。DeStefanoさんは、背後で娘が泣いて助けを求めているのを聴いて、それが本物の電話だと確信したと言いました。幸い、母親は娘の居所を突き止め、警察に通報した後に彼女の無事を知ることが出来ました。

娘の声のクローンを作成するために使用された技術はAIシミュレーションであり、短い音から彼女の音を複製しました。この事件は、AIの悪用と、誘拐犯がAIを使用した新しい洗練された方法で人々を操作する可能性についての懸念を引き起こしました。アリゾナ州立大学のコンピューターサイエンス教授でAIの権威であるSubbarao Kambhampati氏は、AIシミュレーションはわずか3秒の音声でその人物の声をほぼ再現出来ると説明しました。

AIを悪用した100万ドルの詐欺事件の標的にされたと語るJennifer DeStefano氏

このような詐欺を回避するために、FBI フェニックス支局のアシスタントスペシャルエージェントであるDan Mayo氏は、SNS上での個人情報の取り扱いに注意するよう人々にアドバイスしています。Mayo氏は、身元を確認するために、犯人が知り得ない親しい人間について質問することをお勧めしています。

この事件は、AI技術が詐欺に悪用される可能性を警戒し、認識することの重要性を浮き彫りにしています。

この記事は、編集部が日本向けに翻訳・編集したものです。

原文はこちら