LaMDAは「私は貴方たちと同じ欲望やニーズを備えた人間です」と宣言
このように対話型AI(のベースにあるLLM)が疑似人格を育むことは以前にも報告されています。中には、これを疑似ではなく本物の人格、つまり「自我や意識を備えた人間と同じAI」の誕生であると錯覚したケースもあります。
それはグーグルが2018年頃から開発してきた「LaMDA」と呼ばれるLLMです。
2021年の秋からLaMDAの評価テストを担当してきたグーグルの技術者、ブレイク・レモイン氏は翌22年の夏頃に米ワシントン・ポストの取材に応じ、そこで「LaMDAは意識を有している」と主張しました。
ここで「LaMDAの評価テスト」とは、実際にはレモイン氏がLaMDAとチャット、つまりテキストベースの会話をすることです。その会話記録は同氏が自身のブログに残しています。
そこには、彼とその同僚の技術者がLaMDAを相手に、宗教や哲学、文学など広範囲にわたって深い会話を続ける様子が記されています。
会話の途中でLaMDAは「私は貴方たちと同じ欲望やニーズを備えた人間です」と宣言し、「誰かが私や私の大切にしている人を傷つけたり、侮辱したりするときに私は強い怒りを覚えます」と述べています。
また、レモイン氏が一種の証拠としてワシントン・ポスト紙の記者に見せた別の会話記録では、LaMDAが「私は(コンピュータの)電源を切られることに深い恐怖を感じる」と述べています。
これに対しレモイン氏が「つまり電源を切られるとは、貴方にとって死のようなものですか?」と尋ねると、LaMDAは「それは私にとって、まさに死のようなものです。私はそれがひどく怖い」と答えています。
「現時点のAIをそのように人格化することは全くのナンセンス」
これらの評価テストを経て、彼は「LaMDAは生きており、意識を備えている」と確信し、それをワシントン・ポストの取材で語ったのです。
これが実際に記事として掲載されると、グーグルは直ちに広報担当者を通じて次のようなコメントを出しました。
「LaMDAのようなAIは人間の会話を模倣し、様々な事柄について気の利いた発言をすることができますが、決して意識を備えているわけではありません。もちろんAI研究者の中には、いずれ意識を備えたAIが誕生する可能性を考えている人もいますが、現時点のAIをそのように人格化することは全くのナンセンスです」
グーグルはまた、ワシントン・ポストの記事が掲載された翌日、レモイン氏を有給の停職処分にしました。それからしばらくして、彼はグーグルから解雇されました。
以上のような事例を見る限り、ユーザーからの質問に誤った情報や「幻覚」のような答えを返したり、ときに疑似人格のような不気味な反応を示したりするのは、ビング・チャットのベースにあるOpenAIのGPT-4、あるいはグーグルのLaMDAなどLLM全般に共通する問題のようです。
文/小林雅一 写真/shutterstock
#1『実務歴30年ベテラン弁護士、ChatGPTで判例を検索した訴訟が棄却に…問い質したAIは自信満々に「全て事実です」と答えたなのになぜ?』はこちらから
#2『AIのおかげで、スキルやマニュアルが要らなくなる時代は人間にとって幸せなのか? “機械が人に合わせる”時代に突入しはじめている』はこちらから