最新AIで音声認証が危ない!? 銀行9割が対策強化へ

近年、AI技術の進歩は目覚ましく、様々な分野で活用されています。しかし、その一方で、悪用されるリスクも高まっています。

金融機関にとって、口座認証方法としての音声認証は大きな岐路に立たされています。BioCatch社の調査報告によると、AIを使った音声合成技術が進歩し、犯罪者がこの技術を悪用してなりすましになりやすいことが判明したのです。調査対象となった11ヶ国、600人の不正対策担当者の内、91%のアメリカ合衆国の銀行が重要顧客に対する音声認証の見直しを余儀なくされています。

目次

声紋合成技術で音声認証が無効化?

報告書は、AIを使った攻撃が拡大している現状を指摘しています。「AIは金融機関にとって不正検出や対応に役立つ一方で、犯罪者にとっても強力な武器になり得ます。AIを使うことで、犯罪者は手口を自動化させ、従来の人為的な限界を超えた大規模な攻撃が可能になります。また、AIや高度な言語モデルを使って、ソーシャルエンジニアリング攻撃(人をだまして個人情報などを聞き出す攻撃)や音声を使った詐欺、ディープフェイク動画の作成が行われています」と報告書は述べています。

生成AI企業はここ数年で、犯罪者の手助けとなる様々なツールをリリースしています。これらには、瞬時の言語翻訳、発声練習、朗読アシスタント、そして3秒の録音音声から口座保有者の声紋をコピーできる音声合成技術などが含まれます。BioCatch社は、音声合成技術によって銀行や金融機関が導入している音声認証が無効化される可能性があると指摘しており、調査対象者の91%が新しい認証方法を求めています。

金融機関は対策強化へ

「かつては最先端であり、複雑な脅威への解決策として期待されていた音声認証ですが、もはや金融機関が顧客を守るのに十分な手段とは言えません。今後、金融機関はユーザーの負担を最小限に抑えながら安全性を最大限に高めるために、複数の認証方法を戦略的に組み合わせる必要が出てくるでしょう」とBioCatch社は述べています。

報告書は、行動分析と異常検出ツールが合成ID発見に効果があると述べています。オンラインユーザーの行動パターンとサイバー犯罪やソーシャルエンジニアリングの心理学を組み合わせた行動分析の進化により、41%の金融機関が この技術を採用しています。

さらに、情報共有の強化も重要です。調査対象者の90%は、金融機関と政府当局はより多くの情報を共有して不正や金融犯罪と戦う必要があると述べています。

まとめ

AI技術の進化は、金融機関にとって大きな課題になると同時に、新たな可能性も拓きます。金融機関は、AI悪用のリスクを理解しながら、AI技術を効果的に活用することで、顧客の安全と利便性を両立する必要があるでしょう。

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!

コメント

コメントする

目次