AI、どう使う?中小事業者が特に気をつけたいこと

AIの性能が上がり、利用の機会も増えてきました。大企業のみならず、中小の事業者さんでも、AIを実際に活用したり、活用を視野に入れたりしていることが多いかもしれません。

しかし、多くの場で指摘されるとおり、AI利用にはリスクもあります。恐れすぎるのも良くありませんが、軽視しすぎると、多額の賠償や評判の低下にかかわるかもしれません。

この記事では、「特に中小事業者として」AIを利用する際に気をつけるポイントを挙げてみます。

AI=生成AIではない(用語の整理)

最初に用語の確認です。最近ではAIといえばChatGPTやGeminiなどの「生成AI」を指すことが一般化していますが、本来、AI=生成AIではない、と理解はしておきたいところです。

文字起こしツールやウェブ上の情報を集めるプログラムなど、AIを使った多様なサービスがあります。詳しくない方も、言われてみれば「文章や画像を作ってくれる会話型のAI」以外の場所でも、AIと聞いた記憶があるのではないでしょうか。

ただし、生成AI以外のAIベースのツールの多くは「会話型」ではなく、こちらから提供する情報が限られています。目的や出力結果も業務を自動化するような内容にとどまり、通常、それ自体が大きな問題を引き起こす懸念は小さいでしょう(提供元の会社が信用できないなどのリスクは除きます)。

これに対し生成AIでは、こちらから入力する情報が多岐・多量にわたることや、生成物に創作性が伴う点などで、情報漏洩や権利侵害、間違った情報の提供といった問題がよく取りざたされています。

この記事では多様なAIベースのツールの存在を前提としつつも、生成AIの活用を念頭に置いて記します。

ポイント① 情報管理と著作権の視点を持つ

著作権侵害や情報漏洩の問題は、AI利用で最も取り沙汰されるところであり、何かあった際のリスクが大きい点でもあります。

特に気をつけたい点を3つ挙げます。

入力内容の行く末を知る

目の前のAIに入力した情報がそのAIの内部や提供企業でどう使われるか、把握していますか?それを従業員にも周知していますか?

AIを利用するためにパスワードを使用してログインしていても、入力内容があなたとAIだけの秘密であるとは保証されていません。AIは、具体的に誰から聞いたとは言わなくても、知識として聞いた情報を喋ってしまうかもしれません。

万が一漏れた取引先の情報があなた(の会社)しか知らないことであれば、漏洩元として特定され、賠償を求められるかもしれません。また、自分(たち)しか知らない未公開情報や機密情報が漏れると、競合に先を越される、コピー品製作やノウハウの模倣をされるなど、さまざまなリスクがあります。

AIのことは、付き合いの浅い委託先と思いましょう。相手が人間なら、漏らされて困ることは言わないか、どうしても必要なら別にNDA(秘密保持契約)を結んで相互に確認します。AIの場合も、気軽な利用では漏らされて困ることは言わないに限ります。どうしてもそうした情報を入力して使いたいのなら、利用規約を読む、提供企業について調べるなどした上で、安全なプランを選択する手間をかけるべきです。

このあたりのリスクについて、大企業であれば導入前に専門家を入れて検討するとか、いろいろな知識を持った部署が集まって方針を作成するといったことが行われる可能性が高いのですが、中小ではそうもいきません。中小の事業者では、主には事業主・社長が中心となり、自ら調べ、規約を読んで判断する必要があります。

「みんな使っているから大丈夫なはず」のような思考で突き進むには、あまりにも何かあったときのリスクが大きいのが情報漏洩です。面倒でも規約やプラン詳細に目を通すか、どうしても自力で理解が難しいときは身近な士業など文章を読むのが得意な人に相談しましょう。

著作権の意識を持つ

出力された成果物は、意図せず他人の文章や画像を盗用していませんか?(しているように見えませんか?)

AIはいろいろなデータを学習しているので、ときには既存のものと似たものを出力してしまうことがあります。

もし偶然であっても、似たものを公開した場合、著作権法違反になるかどうかは、人間が作成したものと同じように判断されます。世間的にも、事業者として公開したものは「AIが勝手にやりました」では済みません。公開前に検索してみるなど、確認を徹底しましょう。

確認時、もし偶然似てしまっているものを見つけたら…判断基準は裁判で勝てる程度かどうか、ではありません。そこも大切ではありますが、著作権者やそのファンから見てパクリなどの不誠実な行為だと思われないかどうか、創作者としての相手を尊重できていると言えるかどうか、のほうが、トラブル防止の観点からは重要です(これは次のポイント③ともかかわる観点です)。無料で生成した類似作を掲載して炎上するくらいなら、最初からお金を出してその人とコラボしたほうが良い効果を生むかもしれません。

ちなみに、AIに特定の人の作品を意図的に学習させて似たものを出力させることは、著作権法違反になるおそれがあります。

よくAI学習のための利用は著作権法違反にならないと言われますが、これは開発等のために、ネット上などの幅広いものをデータセットとして学習する際の規定です。わざわざ似たものを出すために学習させれば、出力結果の著作権法違反の判断では依拠性(モデルにしたということ)があるとされ、違反になる可能性が高くなります。

関係者の情報も守るべき情報である

顧客の情報には注意していても、従業員や役員の情報は入力してしまっていませんか?

小規模であればあるほど、内々は何でもありの仲良し事業者であることが多いかもしれません。しかし、だからといって何でもアリではなく、AIに対する考え方も人それぞれです。

勝手に情報を入力したことがトラブルの元になったり、ひょんなきっかけで仲違いしたときに非難の材料として使われたりしたら、シャレになりません。

役員同士でも従業員でも(家族従業員でも!)自分は自分、他人は他人。人として個人の情報と意見を尊重する観点からも、「内々だから大丈夫」は危険です。

ポイント② AIの出力をうのみにしない(特に法令、行政関係!)

検索ベースに特化していない生成AIは、原理的には単に確率の高い言葉を続けているに過ぎません。平文で返ってくる答えが間違っていることがあるのはもちろんのこと、存在しない出典を示してくる事例も知られています。

どこでも何度も言われていることですが、AIの言うことをうのみにせず、確認のひと手間をかけることが大切です。

  • 質問するときに「このマニュアルを見て答えてください」「行政機関の公式ページだけを参考にしてください」と言うだけでも、絶対ではありませんが少し良くなります
  • 出典があいまいなときは「それはどの法律の何条ですか?」「どこの資料に書いてありますか?」と尋ね、答えをもらったらその資料に直接あたって確認しましょう
  • 生成AIは正確な数字の引用がやや苦手です。事業計画など自社や市場のデータを使う内容を出力したときは、特に数字と固有名詞をしっかりと確認してください

特に法律や行政手続きに関することでは、しっかり確認しないと、意図せず違法になる、虚偽申請を疑われるといったリスクにつながります。行政機関には「AIがそうすればいいと言った」は通用しません。いったん虚偽申請の可能性を疑われてしまうと、疑いを晴らすのは大変です。なんとかそのときの疑いを晴らせたとしても信用回復は困難になり、すべてにおいて特に厳しく見られることになります。

事務系部署や法務が分離独立している企業なら、そうした点も含めてしっかり確認するのが仕事の人たちがいるかもしれません。しかし、中小ではどうしても他の業務の片手間、事業主の雑務の1つに数えられ、「確認?いいよもう、大体合ってるでしょ」と放り出したくもなるものです。繰り返しますがAIは「付き合いの浅い委託先」程度の存在です。そう聞いたら、確認したくなりませんか?

それでもどうしても時間がない、対応できないときは、下手にAIに頼らず、手続きそのものを士業に依頼するのがおすすめです。

ポイント③ 顧客心理に配慮する

AIに対する気持ちは人それぞれです。強力な推進派もいれば、強力な反対派もいます。

中には、AIに情報を入力されたと聞くだけで、反感や嫌悪感を覚える人もいます。曲解した内容を拡散されるリスクを避けるためにも、情報漏洩の不安がクリアされるようなAIを利用しているのであれば、その旨を見えやすい場所に書いたり、直接説明したりして、丁寧に不安を解消することが求められます。AI利用に関する方針を定め、明文化しておくことも考えられます。

また、デザインやイラストなど創作にかかわる職業の人を中心に、AI生成のもの全般に強い反感を持つ人がいます。もしあなたの事業の顧客層にそういった職業の人が含まれるのなら、安易にAI生成物を利用することが顧客離れにつながるかもしれません。

この記事はAIやその生成物の是非を論じるものではありませんが、「危険」「目の敵」「不誠実」のような感覚を持つ人がいると意識することは、顧客の維持確保のために、事業者さんにとって決して損にはならないことです。

もちろん、強力な推進派として、反対派が何を言おうともAIをフル活用すると決めてしまうのも、戦略です。商材や顧客層によっては、そちらのほうがむしろ好感を呼ぶ可能性もあります。ご自身の事業の性質に合わせ、AI活用に対する立場も明確にしておくのが良いでしょう。

ポイント④ 違法にならない範囲で、委託先にも目を配る

業務委託を活用するとき、委託先にAI利用について伝えていますか?

AIに関する知識、リスク意識、活用度は人によりバラバラです。「ビジネスなんだから分かっているはず」とは、思わないほうがいいかもしれません。

業務委託では、詳細な業務手順を指定することはできません(あまり詳細に指示をするようだと、偽装請負として違法になります)。しかし、以下のような内容であれば、あらかじめ契約内容、共通ルールとして示すことができます。

  • その業務で生成AIやAIベースのツールを利用しても良いかどうか
  • AIに入力しても良い情報の範囲
  • AIを利用する場合は情報漏洩のおそれが低いプランを使うことや、万が一漏洩があった場合には委託先が賠償責任を負うこと
  • AI生成物であっても納品物について委託先が責任を負うこと、(言わなくても当然ですが、今のところ委託先が個人の場合は確認するほうが望ましい)
  • 人間がチェックしていないAI生成物をそのまま納品することの禁止

委託先のAIとの向き合い方や使っているツールの特性を把握しておきたいときは、契約前の顔合わせやエントリーの段階で、ふだんのAI利用状況や利用ツールについて軽く聞いてみると良いでしょう。

なお、具体的なツールやプランを事前に指定すること自体は違法とは言えませんが、有料プランのAIの利用アカウントを無償付与するなどの提供行為は、偽装請負の判断で不利になります。

また、契約後に有料プランの契約を強いることは、道義的にも実務的にも問題がありますが、いわゆるフリーランス法などの法令にも違反する可能性があります。

どこまでルール化して良いか迷うかもしれませんが、何にせよポイントは「契約前に明確に言う」ことです。ちょっと厳しいルールであっても、お互いにしっかりと合意した上でのことであれば、トラブルはかなり避けられます。

今回の学び

AI活用についてどのような立場をとるかも戦略のうちと考え、方針は関係者に周知徹底しよう。著作権法や偽装請負に関する視点もお忘れなく。