事業速度を緩めない、生成AIガバナンスの構築に向けて
先進的なテクノロジーを積極的に取り入れる企業では、イノベーション促進と情報管理のバランスが常に課題となります。特に昨今は、生成AIの急速な普及により、企業の情報システム部門は新たな挑戦に直面しています。生成AIは、利便性から利用制限をすることが困難であり、会社が公式に導入していない「シャドーAI」として利用されてしまい、セキュリティリスクを高めています。
本稿では、AIの活用を積極的に推進するA社の事例を通じて、シャドーAIによって発生したインシデントと、その対応から学んだ教訓を紹介します。
A社はテクノロジー領域で事業を展開する企業であり、社内でもAIの活用を積極的に推進しています。代表自身がAIのリテラシーが高く、業務への利用頻度も高いそうです。
ーーー御社ではAIの導入・活用についてどのような方針で取り組まれていますか?
弊社はトップダウンでAIを積極的に活用する方針です。代表自身がAIリテラシーが非常に高く、日常業務でも頻繁に活用しています。「AIを使って」というメッセージを常に発信しており、社内全体にAIフレンドリーな文化が根付いています。
一方で、AIの急速な普及に情報管理体制が追いついていない課題もありました。従来のSaaS管理と同様の考え方でAIも管理する必要がありますが、当初はコントロール不可能な状態になっていました。把握できているAIツールと、実際に使われているものには大きな乖離があったのです。
そんな中、2023年12月、A社で生成AIに関連したインシデントが発生しました。
ーーー具体的にどのようなインシデントが起きたのでしょうか?
一部の社員が『Arc』というブラウザを業務で使用していた際に、意図せず機密情報を含むデータがAIに送信されてしまうという事態が発生しました。
Arcブラウザには「Ask on Page」という機能があり、ページ内検索を行う際に検索結果が見つからないと、自動的にこの機能に切り替わる仕組みになっています。
この機能はページの内容をClaudeなどの生成AIに送信して要約や情報取得を行うもので、デフォルトで有効になっていました。
社員が機密情報や顧客情報を含むページを閲覧中に検索を実行したところ、自動的に『Ask on Page』機能が起動し、閲覧中のページ内容がAIに送信されてしまったのです。
問題はそれだけではありませんでした。Arcのプライバシーポリシーを確認すると、別の機能である「Arc Max」については「データを学習に利用しない」と明記されていましたが、「Ask on Page」機能についてはその記載がなかったのです。つまり、送信された情報がAIの学習データとして使用されてしまう可能性がありました。
ーーーこのインシデント発生後、社内の反応はいかがでしたか?
情報を共有した直後は、社員の多くがAIの利用に対して慎重になり、一定のリテラシーが必要だという雰囲気が広がりました。
企業としてAIの活用を推進したい一方で、現場では慎重な姿勢が広がるというギャップが生じまったのです。このインシデント以降、AIに関する相談窓口には問い合わせが急増しました。
社内には生成AIに関する相談チャンネルがあり、インシデント後は利用が活発になりました。「これは本当に使っていいのか」このデータをAIに入力しても問題ないのか」といった質問が増え、AIへの関心と同時に適切な利用への意識が高まりました。
ーーー具体的にどのような対策を実施されましたか?
まず、『Arc Max』機能と『Ask on Page』機能をオフにするよう全社に通達しました。Arcブラウザ自体は業務で使用してもよいとしましたが、この機能は使わないよう指示しました。
さらに、AIに関する相談窓口と専門チームの体制を強化しました。また、先ほど話した相談チャンネルの利用も増え、社員が気軽に質問できる環境を整えています。軽微な案件から重大なものまで、何でも相談できる雰囲気づくりを意識しています。
問題が発生しても隠さずに報告する文化があります。今回のインシデントも自己申告でした。ITリテラシーの高い社員が問題に気づき、すぐに報告してくれたおかげで早期対応ができました。インシデント発生を機に生成AI利用に関するガイドラインやルールの整備にも着手しました。
近年、企業内で公式に承認されていないAIツールを個人的に利用する「シャドーAI」の問題が浮上しています。A社も例外ではありませんでした。
ーーーシャドーAIの管理についてはどのような課題がありますか?
IT部門が把握できているAIツールは、社員が利用している一部に限られているのが現状です。正式に承認されている生成AIとして、社内開発のAIと一部チーム向けに提供されているものがありますが、実際には個人が独自に利用しているケースが多数あります。
シャドーAIの検知は技術的にも人的リソース的にも難しい課題でして、社員の認識としてシャドーAIを使うことへの危機感が薄いのも問題です。無料でアカウントを作って使っている社員に「やめてほしい」と伝えると「なぜダメなの?」と反論されることもあります。
ーーーシャドーAIの管理方針はどのようにお考えですか?
完全に禁止するのではなく、ブラックリスト方式でのコントロールを考えています。「これだけは使ってはいけない」とする一方で、許可されたAIについては「どういったデータを入力していいのか、いけないのか」を明確にしていく方針です。
それでも課題は残っています。ルールを作っても、リテラシーの差があるため、インシデントが発生するリスクはゼロにはなりません。そこが悩みどころです。
A社では、AI時代に適したガバナンス体制の構築を進めています。
ーーー今後の管理体制についてはどのようなアプローチをお考えですか?
まず、シャドーAIの可視化を進めています。専用ツールを導入して、誰がどのAIツールを使っているかを把握する体制を整えました。
可視化以外にも、地道な取り組みを続けています。社員のAIリテラシー向上のため、社内コラムを定期的に配信しています。
リスク評価体制も強化していきたいと考えています。従来は工数が不足してリスク評価が後回しになりがちでしたが、現在はツールを活用して効率的に評価できるようになりました。各AIツールのリスクに応じた適切な管理レベルを設定し、全社的なルールとして運用しています。
ーーー経営層とIT部門での認識のズレはありましたか?
AIに対する基本姿勢は一致していましたが、リスクへの認識には差がありました。経営層がAI活用を強く推進する一方、インシデント後は現場が委縮するというギャップが一時的に生じました
しかし、A社ではこのギャップも時間とともに解消されました。生成AIの専門チームを強化して、相談体制を整えたことも大きかったです。また、シャドーAIの可視化ツールを導入したことで「これなら安心して使える」という雰囲気が広がりました。
経営層のAIリテラシーが高いことは大きな強みです。情報セキュリティ関連の提案が通りやすく、柔軟かつ堅牢な体制を構築できています。情報システム部門の稟議もスムーズに承認されるようになりました。
ーーー今回のインシデントから得られた教訓は何でしょうか?
まず、AIツールの管理体制の重要性を再認識しました。従来のSaaS管理と同様に、AIも適切に管理する必要があります。ただ単に使用を禁止するのではなく、リスクを理解した上で適切に活用する環境を整えることが大切です。
問題が起きた時に隠さず報告できる文化が重要です。今回も自己申告があったからこそ、迅速に対応できました。情報セキュリティに関する相談窓口があり、何でも気軽に相談できる環境を作っておくことが大切です。
AIは進化し続けるので、ガバナンス体制も常に見直す必要があります。リスクを恐れるあまりAIの利用を過度に制限するのではなく、「事業速度を緩めない、適切なAIガバナンス」を目指すべきだと考えています。