2016年11月号記事

HSU論壇

未来への貢献 第14回

「機械仕掛けの正義」の落とし穴

―「新時代の真・善・美」を探究するHSUの使命

ハッピー・サイエンス・ユニバーシティ(HSU)
人間幸福学部ディーン

黒川 白雲

(くろかわ・はくうん)1966年生まれ。兵庫県出身。早稲田大学政治経済学部政治学科卒業、東洋大学大学院経済学研究科修了。東京都庁勤務を経て、91年より幸福の科学に奉職。指導局長、活動推進局長、人事局長などを歴任。現在、ハッピー・サイエンス・ユニバーシティ バイス・プリンシパル兼人間幸福学部ディーン。著書に『知的幸福整理学』『比較幸福学の基本論点』『人間とは何か』(いずれも幸福の科学出版)、編著書に『HSU 未来をつくる授業』『HSUテキスト5 幸福学概論』(いずれもHSU出版会)などがある。

相模原の障害者殺傷事件は世間を震撼させた。 「障害者は殺せ」というロジックに対抗するには、どんな倫理が必要なのか。

「人間幸福学」を研究する黒川白雲氏が、人間の尊厳の根拠を語る。

かつて、ある法学入門のテキストには、「裁判官の判断をコンピューターに任せてしまえばいい」という意見が紹介されていたという。

大川隆法・幸福の科学グループ創始者兼総裁は、著書『凡事徹底と静寂の時間』の中でその事実を紹介しながら、判決一つとっても多様な判断がありえるため、やはり人間の考える営みが必要だと指摘している(注1)。

コンピューターが善悪を判断する時代は遠い未来のように思えるかもしれないが、人類がすぐにも直面する問題である。

2020年代にも実用化が迫る「自動運転車」では、その頭脳である人工知能(AI)が難しい倫理的判断をすることになる。例えば、「対向車との衝突が避けられない場合、歩道に乗り上げて歩行者を犠牲にしてもよいか?」といった問題だ。

米科学誌「Science」上で発表されたリサーチ結果によると、大多数の人が「10人の歩行者の命を救うためなら自動運転車に乗っている1人の命を犠牲にすることもやむをえない」という考え方を支持したという(注2)。

これは、いわゆる「最大多数の最大幸福」という功利主義の原則を極端にしたものだ。機械のような計算で善悪を判断するため、「機械仕掛けの正義」とも言えるだろう。

AIに善悪を判定させれば、多数の人命を生かすことを優先し、少数者の命を奪う選択をすると思われる。これは一見、効率的・合理的に見えるかもしれないが、やはり大きな落とし穴がある。

(注1)大川隆法著『凡事徹底と静寂の時間』(幸福の科学出版)pp.48-9
(注2)Bonnefon, J-F; Shariff, A; Rahwan, I (2016). The social dilemma of autonomous vehicles, SCIENCE,352(6293), pp.1573-6