小さな会社の生成AI活用:便利さの裏に潜むセキュリティリスク

生成AI活用を進めたいけど、想定されるリスクは把握しておきたい、とお考えの方へ。

  • 生成AIにはどんなリスクがある?
  • 従業員が不適切な利用をしてしまうのが心配…
  • 安全に利用するために、会社としてやるべきことは?

こんな悩みはありませんか?

今回は、似たような悩みをお持ちの経営者・システム担当の方へ向けて「小さな会社の生成AI活用:便利さの裏に潜むセキュリティリスク」というテーマで参考になる情報をお伝えしたいと思います。

また記事の後半では実際にリスクを低減するための対策手法や、弊社nonet 株式会社のサポート内容についても触れています。

似たような悩みをお持ちの方は、ぜひ参考にしてみてください。

  • 生成AIが抱えるセキュリティリスクについて理解できる
  • 会社としてセキュリティリスクに取組む方法がわかる



経営の必須科目化が加速する企業の生成AI活用

ChatGPTが登場してはや数年。

当編集部もお伝えしている通り、企業経営における生成AI活用は「流行言葉」「バズワード」ではなく、経営の必須科目となりつつあります。

実際に以前の記事でも、生成AIを業務効率化に活用するだけでなくイノベーションを創出するための考え方についてご提言したところです。

 

【関連記事】中小企業の経営者こそ、AI活用でイノベーションの風を起こせ!

 

一方で、これから生成AIの活用を検討し始める段階だという企業さまの中には、生成AIが孕んでいるセキュリティリスクについて頭を悩ませていらっしゃる方も少なくありません。

ここでは生成AIのリスクについて5つほどご紹介しつつ、それぞれの対策方法についても解説していきます。

 

生成AI推進の前に考えておくべき5つのリスク

生成AIの利活用を推し進める前に把握しておきたいリスクは、2つのカテゴリに分かれ5つほどのリスクに集約されると当編集部は考えています。

カテゴリーのひとつはデータの取扱に伴うもの、そしてもうひとつがAIによる生成物の利用に関するものです。

 

データ取り扱い(入力・ログ保持)に関するリスク

まず最初に、データの取扱いに関するリスクから見ていきます。言い換えるならユーザーが生成AIに情報を入力する際のリスクですね。

 

機密情報の漏洩リスク

ひとつめのリスクが業務上の機密情報(顧客情報、技術情報、営業秘密等)をプロンプトとして入力してしまう、というものです。

というのも、生成AIサービスの中には、入力された情報をAIモデルの学習データとして利用したり、またサービス提供者のサーバーに意図せず保管されている場合があります。

これはサービス事業者によって方針が異なるので、サービスごとに利用規約を確認するか、必要に応じてそのポリシーについて問合せを行う必要があります。

 

考えられる最悪のシナリオは、機密情報が生成AIの学習に利用され、他の利用者が生成AIに質問した際にに機密情報を元に回答してしまう、というケースです。

 

プライバシー侵害リスク

次に、個人のプライバシーを侵害するリスクです。

これも機密情報の漏洩リスクと似た原因からくるものですが、生成AIを利用する際に個人情報を入力してしまった場合、学習データの中から個人情報をそのまま、あるいは少し形を変えて出力してしまう可能性ですね。

 



生成物(AIの出力)の利用に伴うリスク

次に、生成AIが出力した成果物を利用する際に考えられるリスクについて考えてみましょう。

 

コンテンツの正確性・信頼性に関するリスク

ひとつは生成物の正確性・信頼性に関するリスクです。

生成AIのベースとなっているLLM(Large Lauguage Model)はその特性上(具体的には文章を生成する過程で、確率的に最も自然に見える単語やフレーズを繋ぎ合わせようとしている)、ハルシネーションと呼ばれる”それっぽいウソ”を生成してしまう可能性があります。

 

考えられるリスクとしては、生成AIが生成した誤情報に基づく不適切な意思決定をはじめ、誤った製品情報をお客様に伝えてしまったり、存在しない法令を引用した文書を作成してしまう、といったものがあります。

 

著作権・知的財産権の侵害リスク

次に、生成AIが出力したコンテンツが著作権や知的財産権を侵害するリスクがあります。

つい最近話題になったのが某アニメスタジオ風の画風で画像が生成されてしまうケースです。特定のアーティスト単位ではAIの学習に利用させないポリシーがあったものの、スタジオ単位ではその制御が行われておらず、某アニメスタジオ風の画像がSNS上を賑わせると言うことがありました。

生成AIの成果物に関する取り扱いに関する問題は、まだまだ世界的に見ても判例自体が少なく議論の段階ですが、いちユーザーである私たちも十分に注意して利用する必要があります。

 

倫理・公平性・レピュテーションに関するリスク

最後に留意すべきは、生成AIが差別的・暴力的な内容や、現代社会の規範から逸脱したコンテンツを生み出す可能性です。

2025年の現代において奴隷制度は否定されるべきものですが、歴史的に見ればそうでない時代も存在しました。

奴隷制度はあくまでも例として挙げたテーマに過ぎず、各社のLLMが直接的に奴隷制度を肯定するような出力をしないとしても、20年前には常識であっても現代では倫理的に問題となるテーマは少なくありません。

 

安全なAI活用のために会社が取組むべきは?

ここまでで、5つのリスクを2つのカテゴリに分けて解説してきました。

では、これから生成AI活用を考える企業がそのメリットを享受しつつ、さらに安全に利用するためには?を考えてみましょう。

具体的に会社としてどのようなことに取り組む必要があるのでしょうか?

 

ひとつは生成AI利用に関するガイドラインを策定することです。

以前の記事でもお伝えした通り、ガイドラインに利用者が遵守すべきルールや注意点を明記しておくことで、従業員が生成AIを利用する上で、会社が指し示す指針となります。

 

【関連記事】生成AI利用ガイドライン整備、ハズせない3つの原則とは?

 

また、入力した情報をAIモデルの学習に利用させない生成AIサービス・利用プランを利用することも考えておくべきでしょう。

たとえばChatGPTの無料プランは、入力情報を学習に利用させるかどうか、わたしたちユーザーが選択(切替え)できてしまいます。つまり会社として無料版の利用を認める場合は、このリスクを抱える形になる訳ですね…

対策としては会社として有償プランを導入するか、Google社のGeminiのようなグループウェアに付随するサービスを利用するか、が考えられます。

 

さらに、生成AIの生成物を仕事で利用する場合は、人間が最終チェックを行う仕組みを作っておくことも重要です。

もし生成AIが生成したコンテンツをそのままお客様に納品して問題が発生した時、

「すみません!でもこれを作ったのは生成AIなんです。許してもらえますか?」

という対応は厳しいですよね、どこまで行っても最終的に仕事の責任をとれるのは人間だけです。

 

とはいうものの、これは見方を変えればこれまでの仕事の進め方となんら変わりがない、という点も考えておく必要があります。

先月入社した新卒の若手メンバーに仕事をお願いしたとして、上司であるあなたは中身も確認せずお客様に納品したりはしませんよね? 生成AIに仕事を依頼する場合も同じことです。

つまりは「若手社員」が「生成AI」に変わっただけ、ということですね。最終的な品質責任を取るのは人間の仕事になります。

 



生成AIのリスク対策・利活用にお困りですか?

また、もし今抱えている業務で手一杯で自社だけでは難しそう…という方は、弊社のような外部専門家の手を借りるのもひとつの方法です。 ※完全にポジショントークですが…笑

 

大阪・京都の関西圏のお客さまを中心にDXコンサルティングを提供するnonet 株式会社では、生成AIにまつわる

  • そもそも生成AIってどんなことができる?
  • セキュリティや情報漏洩のリスクは?

といったお悩み解消をワンストップでご支援する、生成AI活用コンサルティングサービスをご提供しています。

もちろん、今回ご紹介したような生成AI利用にまつわるリスク対策やガイドライン整備についてパッケージ化してご提供しています。

 

また、毎月3社限定で「無料オンライン壁打ち会」を開催しており、壁打ちベースでご相談いただける枠を設けております。

生成AI活用サービスを発注されるご予定のない方も、せっかくの機会をご活用ください。

>>壁打ち会の席を確保する