ビジネスパーソンは生成AIとどう向き合うべきか
ChatGPTの職場への導入については日米の間で大きな開きが生じています。ただ、「日本が米国に遅れをとっているのは問題だ」と決めつけるのは早計かもしれません。
ChatGPTのような生成AIはときに誤った情報や「幻覚」と呼ばれる「でっち上げ」等の回答を返してきます。また、それらの回答(テキストや画像などのコンテンツ)が第三者の著作権を侵害している可能性もあります。
これらを考慮するなら、ChatGPTの導入に日本企業の多くが若干及び腰になるのも、ある程度理解できます。
また、一旦導入した後も、その活用に際しては慎重かつ思慮深い姿勢が求められます。
かつてグーグルで「LaMDA」など大規模言語モデルの評価作業を担当していたAI研究者のマーガレット・ミッチェル氏は次のように語っています。
「生成AIは貴方(ビジネスパーソン)が知らないことを知るためのツールではありません。むしろ貴方が既にできることを、さらによくできるようにするためのツールなのです」
これはどういう意味でしょうか?
ビジネスパーソンが自分の専門分野で生成AIを使う場合には、これまで培った「専門知識」や「勘」といったものが助けてくれますから、ChatGPTなど生成AIがときに返してくる誤った情報などに騙される可能性は小さくなります。
逆に、自分の専門以外の言わば「畑違いの分野」ではよく知らないことが多いので、ChatGPTの嘘にコロッと騙される危険性が高まります。ミッチェル氏が指摘しているのは、まさにその点なのです。