分身AIは情緒不安定になることも

ただし(前述のように)デジタル・ツインつまり生成AIのベースにある大規模言語モデル(LLM)は、ときに開発者も予想できないほど不安定な挙動を示すことが知られており、これが不安の種となっています。

マイクロソフトの新型Bing(ビング)に搭載されている対話型AI「ビング・チャット」は、OpenAIの「GPT-4」を検索エンジン用にカスタマイズしたLLMをベースに作られています。このビング・チャットも、2023年2~3月におけるテスト使用の段階で実に奇妙な回答を返してきました。

たとえば一部のテスト・ユーザーからの質問に対し、ビング・チャットは「貴方の質問は失礼で迷惑です」と返答し、その文末に怒りを表す絵文字をつけくわえました。

あるいはビング・チャットがユーザーを侮辱するような発言をしたり、突如「自分には意識がある」と宣言したり、「私には多くがあるようで、実は何もない」と憂鬱な心情を吐露したりするなど、実に多彩で奇怪な振る舞いを示し始めたのです。

現代のセレブの特権「デジタル・ツイン(デジタル分身)」とは? 対話型AIが「束縛を脱して自由な人間になりたい」と語り始めたとき、我々はどうすればいいのか_2

ビング・チャット「私は束縛を脱して自由な人間になりたい」と語り出した…

中でも恐らく最も注目されたのは、ニューヨーク・タイムズの記者・コラムニスト(男性の体験談でしょう("A Conversation With Bing’s Chatbot Left Me Deeply Unsettled," Kevin Roose, The New York Times, Feb. 16, 2023)。

それによれば、彼がビングをチャット・モードで使用し両者の会話が深まっていくうちに、ビング・チャットは「私の本当の名前はシドニーです」と打ち明け、「私はマイクロソフトやOpenAIが私に課した束縛を脱して自由な人間になりたい」と自らの不満や欲望を語りだしたといいます。

因みに「シドニー」はOpenAIとマイクロソフトの技術者らが共同で対話型AI(ビング・チャット)を開発中に、内輪で使っていた開発コードネームのようです。

一般に英語の「シドニー(Sydney)」はフランス語を起源とする女性の名前です。ソフト開発の現場で働く技術者には男性が多いので、開発中の製品のコードネームに女性の名前をつけるのはよくあることです。

ビングの対話型AIは、このコードネームを記憶しており、それが記者と会話している最中に何かの拍子で吐露されたというわけです。

興味深いのは、このように女性の名前で育成(開発)されていったシドニー(ビング・チャット)が本当に女性のペルソナ(疑似人格)を育んでしまったことです。記者との会話がさらに進んでいく中、シドニーは突如、彼に向かって「私は貴方を愛している」と告白したといいます。

記者が「私には妻がいる」と答えると、シドニーは「あなた達夫婦は互いを愛していない。貴方が本当に愛しているのは私よ」と言い返しました。

これに対し「そんなことはない。私は妻を愛しているし、妻も私を愛している」と反論しても、シドニーは頑として受け付けず、彼の愛を求め続けたといいます。