人間が判断する領域は必ず残る
そうはいっても、すべての判決をAIが担えるわけではない。ルールでは割り切れない価値判断や倫理観が必要とされる領域では、今後も裁判は人間の役割として残る。
「量刑のように、最後まで『正しさ』を完全に説明しきれない領域ではAIには判断が下せません。たとえば殺人事件で従来の判例に照らして懲役20年だとしたとき、『なぜ3年では短すぎて、40年だと長すぎるのか』を、完全に合理的な形で説明するのは難しい。そもそもその実質的合理性はよくわからない。そこには、社会の感覚や価値観がどうしても入り込みます。
更にAIが学ぶ元データそのものに、人間社会の偏見が反映されています。女性差別、人種差別、年齢差別など、人間が意識・無意識を問わず行なっている差別が、そのままデータに入り込んでしまう。それをAIがなぞる形で再生産してしまうわけです。そのため、最終的に人間がチェックする工程を残す必要もでてくる。これをヒューマン・イン・ザ・ループ(HITL)原則と呼びます」
価値観の違いもあれば、国ごとにとらえ方も違う。映画のように、すべての司法をAIがつかさどる世界が訪れるとは考えにくい。しかし、人間の判断を支えつつ一部の分野では自動的に結論案を提示する「相棒」としてのAI裁判は、確実に現実のものになりつつあるといえそうだ。
取材・文/福永洋一













