MAILMAGAZINE ARCHIVEChatGPTの利用をどう制御するか?内部不正防止ガイドラインと考える
- 2023年10月3日
- 田中田 剛
- カテゴリ
- 生成AIリスク
こんにちは。マーケティング担当の田中田です。
2023年4月、IPA発行の「企業の内部不正防止体制に関する実態調査」報告書の中で、いくつか特徴的な結果が読み取れました。
1.重要情報の定義・特定が難しくなっている。
デジタル化が進んでいる証拠とも言えます。事業遂行上、重要な情報をデジタル化している意味では、予想される兆候です。
DXとセキュリティが表裏一体であると感じます。
2.半数以上が、事業リスクが高く優先度の高い経営課題として認識していない。
「見えないものは守れない」の原則と同じです。データの所在が分散し、アクセス手段が多様化した結果、見えないから課題認識もしにくいのではないでしょうか。実際には、クラウド活用を背景に「意図しない過失」が増えています。
3.雇用の流動化を踏まえた情報を守る仕組みが追い付いていない。
従業員に対するコンプライアンス教育は非常に重要ですが、流動化が増す中で、システム上できない環境にする、あるいは実態が見える環境にする必要が生まれています。
今年はこれらの実態に上乗せする形で生成AIへの情報漏洩リスクが追い打ちをかけています。
ChatGPTだけが生成AIではないので、「ChatGPTだけ対策しているから大丈夫」というわけにもいきません。シャドーAIとの向き合い方も重要課題です。
大切なことはこれらが全て内外の環境変化の影響を受けているということです。その元になっている潮流に視点を合わせておくことがポイントだと感じます。
今号のライター:
マーケティング戦略部 田中田 剛
やっと朝夕が涼しく感じられる時期になりました。最近では国内に新工場を建設するニュースが多くなっていると感じます。国内回帰はグローバル企業の地産地消の観点からあまり進まないのではと考えていましたが、個人的にはこれを機に、地方創生に貢献しながらスマート工場化が進んで、何とか脱炭素と共にエネルギー自給率を上げて、国内産業の裾野が維持されてくれたらと願っています。