本調査は、ディープフェイクを用いた世論誘導やツールによるマルウエアの大量生成、詐欺メールの高度化等、生成AIを駆使したサイバー攻撃を仕掛けている攻撃者が増加している環境を背景に、現時点でAIが日本のサイバーセキュリティ業界に与えている実質的な影響を明らかにする目的で実施された。日本のサイバーセキュリティ専門家からの回答では、回答者の96%(世界では86%)が、現在または近い将来、AIが自分たちの仕事に大きな影響を及ぼすと考えており、回答者の39%がすでにその影響を目の当たりにしている。サイバー攻撃への対処におけるAIの役割については、肯定的な意見が多い一方で、サイバーリスクを軽減し、エコシステム全体を保護するための業界の備えに対する日本の専門家の緊急の需要も浮き彫りになった。
■主な調査結果
日本のサイバーセキュリティ専門家は、AIが自身の業務効率を向上させる可能性について、諸外国の同業者よりも楽観的な見通しを持っている一方で、AIの悪意ある利用については、グローバル調査の回答者と同様に懸念を示している。
・回答者の90%が、AIが業務効率を向上させることについて楽観的な見方を示した
・回答者の59%が、「AIによって今後自身の一部の業務が不要になり、より価値の高い仕事に時間を割けるようになる」と回答した
・4分の3の回答者が、AIがサイバー攻撃やその他の悪意のある活動に利用されることについて、中程度から非常に懸念している
・AIがもたらす懸念事項のトップ3には「ディープフェイク」、「偽情報/誤情報」、「ソーシャルエンジニアリング」が挙がった。この結果はグローバル調査とも一致している
本調査では、日本のサイバーセキュリティ専門家がサイバー犯罪にAIが利用されることを強く懸念しているにもかかわらず、44%の回答者が、サイバーセキュリティ専門家はサイバー犯罪者よりもAIの恩恵を享受すると考えていることが明らかになった。この結果はグローバル調査の28%を大きく上回っている。サイバー犯罪者の方がAIの進歩からより多くの恩恵を受けると回答したのは、わずか25%だった(グローバル37%)。
また本調査から、日本における悪意のある活動の増加度合いは、世界的と比較して緩やかであることもわかった。
・25%の回答者が、フィッシング、ランサムウェア、パスワードリセット攻撃、なりすましなどのサイバー脅威の増加を報告した(グローバル54%)
・5%がAIによって生成されたものであると明確に判断することができるサイバー脅威だった
日本の企業・組織が自社におけるAI規制にどのように取り組んでいるかについての基準はないことも、本調査が明らかにした。
・57%が「AIの安全かつ倫理的な使用に関する正式な方針をすでに策定している、もしくは協議中である」と回答した
・17%が「近いうちに、AIに関する正式な方針を策定する予定はない」と回答した
・54%が「一部の生成ツールへの従業員のアクセスをブロックした」と回答(グローバル32%)
・24%が「従業員がすべての生成AIツールにアクセスできるようにしている」と回答(グローバル29%
AIの安全かつ倫理的な利用を、規制すべき機関についての質問では、日本のサイバー専門家は、グローバル調査と同様に、各国政府における協調やAI専門家コンソーシアムによる世界的な協調を望んでいることが明らかになった。
■調査概要・方法
調査名称:AI in Cyber 2024: Is the Cybersecurity Profession Ready?
調査期間:2024年4月
調査対象:日本人のサイバーセキュリティ専門家106名(海外勤務者も含む)
調査方法:オンライン調査