ChatGPTなどの生成AIは、正しく使えば業務効率を飛躍的に高めます。
しかし、多くの企業がそのリスク、特に「情報漏洩」への対策(体制づくり)が追いついていないのが現状です。
特に人事労務部門が扱う履歴書や人事評価データ、あるいは給与データは、機密性の高い個人情報の塊です。
今回は、生成AIの活用に潜む情報漏洩のリスクと、社員が安心してAIを活用できるためのルール(就業規則)の整備について、網羅的に解説します。
リスクは、社員の悪意ではなく、善意(効率化)によって発生します。
例えば、以下のような行為です。
NG例1:
社員が、顧客からのクレーム文(顧客名入り)をChatGPTにコピー&ペーストし、「要約して」と指示する。
NG例2:
採用担当者が、応募者の履歴書をAIに読み込ませ、「この人物の特徴を分析して」と指示する。
無料版などの一般的な生成AIは、入力されたデータを学習のために利用することがあります。
つまり、社員が入力した機密情報(個人情報)が、AIの学習データとして外部に保存され、将来、第三者への回答として生成されてしまう(漏洩する)リスクがあるのです。
このリスクに対し、AIの使用を一切禁止するというルールを選ぶ企業もあります。
しかし、私たちはこのアプローチは推奨しません。
なぜなら、2つの大きな課題があるためです。
生産性の低下:
AIによる効率化の恩恵を一切受けられず、競合他社に生産性で劣後してしまいます。
「隠れAI(シャドーIT)」の横行:
禁止とすることで、社員はAIの利用を隠れて行うようになります。
会社が把握できないところで、かえって危険な漏洩リスクの高いAIの使い方が横行する可能性が高まります。
推奨されるアプローチは、禁止ではなく、安全なルールの整備です。
社員がどこまでOKで、何がNGかを明確に判断できる物差しを提供することが、企業と社員の双方を守ります。
【ステップ1】AI活用の基本方針(ルールの明示)
就業規則や、別途定める「AI利用ガイドライン」に、以下の点を明記します。
許可するAI、禁止するAIの定義:
(例:会社が契約したセキュリティが担保されたAI(入力データが学習に使われないもの)は許可。それ以外の、個人が契約する無料AIなどは業務利用禁止)
入力してはならない情報の定義:
これが最も重要です。個人情報(顧客・従業員)、機密情報、非公開情報は、許可されたAIであっても、原則として入力してはならない旨を定めます。
【ステップ2】就業規則(服務規律・懲戒)への反映
上記ガイドラインの実効性を担保するため、就業規則にも根拠規定を設けます。
服務規律:
「従業員は、会社が定めるAI利用ガイドラインを遵守しなければならない」
懲戒事由:
「AI利用ガイドラインに違反し、会社に重大な損害を与えた場合」などを、懲戒事由として追加することを検討します。
【ステップ3】「罰」より「文化」の醸成(ジャスト・カルチャー)
ただし、ルール化の目的は社員を罰することではありません。
万が一、社員がうっかりミス(例:個人情報をAIに入力してしまった)を起こした場合、それを罰する(隠蔽させる)のではなく、すぐに報告できる風土を作ることの方が、はるかに重要です。
ミスを報告しやすい体制こそが、問題の早期発見と対策(ルール)の改善につながり、将来のより大きな事故を防ぐ、最強のリスク管理の体制となります。
【ステップ4】継続的な教育
AIの技術は日進月歩です。
リスクも変わります。
一度ルールを作って終わりではなく、定期的に研修を行い、なぜこのルールが必要なのかを社員と共有し続けることが求められます。
AIは、ルールなく使えばリスクとなり、ルールを整備すれば武器となります。
この体制づくりを誠実に行うことが、社員が安心して働ける環境、すなわち「人が育ち、人が残る」職場づくりに直結するのだと考えます。