AIによって生成された音声シミュレーションは、犯罪者がアラブ首長国連邦(UAE)の銀行員をだまし、金融機関が3,500万ドルを失うのを助けました。
最近発表された法廷文書から判断すると、この話は1月に支店長が通常の電話に応答したときに起こりました。彼の対話者は、大企業の所有者として自己紹介しました。マネージャーは、少し前にすでに彼に話しかけていましたが、「偽物」を認識できませんでした。
会社とその弁護士からの「偽の」電子メールを追加で使用した詐欺師は、ビジネスが3,500万ドルの大規模な取引を締結している最中であることをマネージャーに確信させました。彼は一貫して発信者の命令に従い、いくつかの大規模な取引を開始しました。新しいアカウントに。その結果、それは見事な詐欺であることが判明しました。
地元の法執行機関は、攻撃者がDeep Voiceテクノロジーを使用して、会社の長のスピーチを正確に模倣したと結論付けました。調査では、少なくとも17人がこのスキームに参加し、資金は世界中に点在する多くの銀行口座に送金されたと考えられています。そのうちの2つはセンテニアル銀行(米国)に開設されたため、UAEの調査機関の要請により、現在、米国の法執行官が調査に関与しています。
これが起こったのはこれが初めてではないことは注目に値します。 2019年、英国のエネルギー会社も同様の運命をたどりました。詐欺師はCEOを装って約243,000ドルを盗むことができました。専門家によると、これは音声の「ディープフェイク」の最初の使用からはほど遠いものであり、もちろん最後ではありません。
ESETの専門家であるジェイクムーア氏によると、偽のオーディオおよびビデオコンテンツを作成するためのテクノロジーの急速な発展は、データ、お金、およびビジネスに信じられないほどの脅威をもたらします。彼の意見では、世界はサイバー犯罪者がそのような技術的解決策の存在を知らない人々を操作するための最新技術に移行する寸前であり、それらを使用する数百万ドルの銀行詐欺は「新しい規範」になる可能性があります。
2021-10-15 10:43:14
著者: Vitalii Babkin