人間が判断する領域は必ず残る

そうはいっても、すべての判決をAIが担えるわけではない。ルールでは割り切れない価値判断や倫理観が必要とされる領域では、今後も裁判は人間の役割として残る。

「量刑のように、最後まで『正しさ』を完全に説明しきれない領域ではAIには判断が下せません。たとえば殺人事件で従来の判例に照らして懲役20年だとしたとき、『なぜ3年では短すぎて、40年だと長すぎるのか』を、完全に合理的な形で説明するのは難しい。そもそもその実質的合理性はよくわからない。そこには、社会の感覚や価値観がどうしても入り込みます。

更にAIが学ぶ元データそのものに、人間社会の偏見が反映されています。女性差別、人種差別、年齢差別など、人間が意識・無意識を問わず行なっている差別が、そのままデータに入り込んでしまう。それをAIがなぞる形で再生産してしまうわけです。そのため、最終的に人間がチェックする工程を残す必要もでてくる。これをヒューマン・イン・ザ・ループ(HITL)原則と呼びます」

映画『MERCY/マーシー AI裁判』に登場するAi裁判官 
映画『MERCY/マーシー AI裁判』に登場するAi裁判官 

 価値観の違いもあれば、国ごとにとらえ方も違う。映画のように、すべての司法をAIがつかさどる世界が訪れるとは考えにくい。しかし、人間の判断を支えつつ一部の分野では自動的に結論案を提示する「相棒」としてのAI裁判は、確実に現実のものになりつつあるといえそうだ。

取材・文/福永洋一