名誉毀損で訴えられると数百万円クラスの賠償金に?

国内初となる保険制度が整備されたものの、生成AIのトラブル防止に向けた制度やシステムづくりは道半ばだ。著作権侵害と情報漏洩といったトラブルが発生しやすい原因は、AIがデータを分析する学習過程にあるといえる。

文化審議会著作権分科会法制度小委員会の「AIと著作権に関する考え方について」によれば、現行の著作権法だと、著作物をAIに学習させることは、情報解析のためであれば認められている。

しかし、享受目的が併存する場合や「著作権者の利益を不当に害する場合」には、無断学習を認めない方針を示した。その一例として、特定のクリエイターの作品の表現の一部を出力させる目的で学習させる場合は、権利侵害の可能性があるとしている。

なかでも、生成AI画像のトラブルは、生成物の性質によって問われる罪や賠償額が異なってくるという。

「特定のイラストレーターの作品を学習に用いたAIで、既存作品に類似するポスターを作成した場合を考えてみます。こちらは、通常、著作権侵害になり、イラストレーターとしては、少なくとも侵害者にライセンス料相当額等の請求をすることが可能でしょう。

対して、テイラー・スウィフト氏の事例のように勝手にヌード画像を生成された場合は、名誉毀損やパブリシティ権侵害等にあたる可能性があります。あくまで日本の事例として考えますと、数十万円から数百万円クラスの賠償額になる可能性が高く、動画や違法写真集など使用態様によって、更に賠償額が上がる可能性もあります」

テイラー・スウィフト、海上保安庁も巻き込まれた生成AIトラブル…国内では初の保険制度開始も前途多難か…現役弁護士が語る生成AI最前線_3

一方で情報漏洩に関しては、学習段階で個人情報や顧客データなどの機密情報を入力したり、クラウド上にデータを保管したりすることで第三者に情報が漏れる可能性を孕んでいる。生成AIツールによっては、データ保護方針やセキュリティ体制が異なるため、何かの拍子で流出してしまうというワケだ。

前野氏は、「生成AIの学習過程はブラックボックス化している」と指摘する。

「生成AIトラブルでは、学習過程で何を学習したかが、法的な争点として重要になる可能性があります。ですが、学習過程における蓄積データは事業者にとってノウハウの塊ですし、簡単に開示するワケにもいかない。今後は事業者側の学習過程の開示制度が徐々に整備されていくでしょうが、まだまだ整っていないのが現状です」