ニュース概要
調査会社ガートナー(Gartner)は、2028年までに企業向けの生成AIアプリケーションの約25%が、年間5件以上の軽微なセキュリティ・インシデントを経験すると予測しています。生成AIは文章や画像、音声などを自動で作り出す技術ですが、その活用が進む一方で、セキュリティリスクも増大していることが示されました。
重要ポイント
- 2028年までに、25%の企業向け生成AIアプリが年5回以上の軽微なセキュリティインシデントを経験するとガートナーが予測
- 軽微なセキュリティインシデントとは、サービスの一時的な停止や情報の一部漏えいなど、被害が大きくはないが注意すべき問題
- 生成AIが企業の業務やサービスに広く導入されるにつれて、攻撃対象としても注目されるようになる
- 適切なセキュリティ対策や運用管理の強化が必要とされている
専門家解説
生成AIは、ユーザーのニーズに合わせてテキストや画像を自動で生成するため、業務の効率化や新しいサービス開発に大きな可能性を持っています。一方で、AIモデルに悪意のある入力が与えられたり、モデル自体の仕組みを悪用されたりすると、機密情報の漏えいや誤情報拡散などのインシデントが起こるリスクがあります。今回のガートナーの予測は、こうした技術の拡大に伴うセキュリティ上の課題を事前に示し、企業に対して警鐘を鳴らすものと言えます。
初心者向け説明
生成AIとは、文章や絵、音楽などをコンピューターが自動で作り出す技術です。例えば「この文章を翻訳して」や「こんな絵を描いて」とお願いすると、それに応じて内容を作り出します。でも、こんな便利な技術も悪意のある人に狙われることがあります。たとえば、悪い意図でAIを使って情報を盗んだり間違った情報を広げたり。ガートナーという専門家が、「5年後までに、多くの会社のAIシステムで軽い問題がよく起きるよ」と予想しているんです。だから、これからの会社はAIを使うときにしっかり安全対策をする必要があります。
今後の影響
生成AIの活用は今後ますます広がることが見込まれますが、その反面セキュリティ面のトラブルも増える可能性があります。企業はAI運用にあたって、インシデントを未然に防ぐための監視体制や、不正利用を検出・対応する仕組みづくりを強化する必要があります。また、利用者側も生成AIの情報を鵜呑みにせず、正確性や安全性を確認する意識が求められます。国や業界全体でのガイドライン整備や技術開発も今後の重要な課題となるでしょう。
引用元: プレスリリース:Gartner、2028年までにすべての企業向け生成AIアプリケーションの25%が年5件以上の軽微なセキュリティ・インシデントを経験すると予測 – Gartner

コメント