人工知能にクレタ人のパラドックスをたずねてみる
ChatGPT をはじめとした,大規模言語モデル (LLM) にもとづくチャットボットが話題になっています.相当複雑な質問にも"それなりに"答えることができて,感心することしきりなのですが,ここでひとつ,簡単な論理問題についてたずねてみることにしましょう.たずねるのは,いわゆる「クレタ人のパラドックス」と呼ばれるものです.
この実験は,ただ人工知能に意地悪することが目的ではありません(その意図もなくはないですが).人間にとって,人工知能にどんな機能を備えてもらいたいかを考えるのが目的です.
クレタ人のパラドックスは,古くからある論理学上のパラドックスで,自己言及のパラドックスとされています.いろいろな呼称があり,嘘つきのパラドックス (Liar paradox) や エピメニデスのパラドックス (Epimenides paradox) と呼ばれることもあります.
内容は次のようなものです.
仮に,エピメニデスが嘘つきだとすると「全てのクレタ人は嘘つきである」と述べた命題は偽であり,クレタ人は本当のことを言うことになります.しかし,エピメニデスはクレタ人なので,彼が嘘つきで前提と矛盾します.一方,エピメニデスが本当のことを言うとすると「全てのクレタ人は嘘つきである」と述べた命題は真であり,クレタ人は嘘つきだということになります.しかし,これも同様に,エピメニデスが真実を言う前提と矛盾します.
このような論理構造を取ることから,人間が答えるのであれば「エピメニデスが嘘つきかどうかは分からない」というのが,おおかたの答えになります.
インターネット上には,この問いに解釈を加えて,意味的に矛盾しない結論を導出されている方もいらっしゃいますが,論理構造を解釈で変えているだけなので,ここでは問題にしないことにします.
さて,こうした質問に対して,チャットボットはどのように答えるのでしょう.チャットボットには,先日もご紹介した ELI5 を選びました.使いやすいチャットボットなのでおすすめです.
結果としては,このようになりました.
論理関係を適切に指示しないと,「“全て"とは言っていない」のように逃げられてしまうので,慎重にクエリを作る必要があります.
人工知能なりに考えたところ,すべてクレタ人のことを嘘つき呼ばわりすることは"違法"だから,「すべてのクレタ人が嘘つきである」という命題は嘘かどうか分からない,とのことだそうです.少なくとも日本の法制において,「すべてクレタ人のことを嘘つき呼ばわりすること」が違法だということはないので,この回答は誤りでしょう.仮に,この行為が違法であるとしても,違法であるから「わからない」ということはないはずです.したがって,いずれにしても回答としては適切ではありません.
このような問いに対する答えとしては「問いが論理的に適切ではない」という,問いに関するエラー出力が必要です.そして,チャットボットがこのように適切に回答するには,与えられた問い(クエリ)に関して,メタ的に論理構造をとらえる必要があるはずです.
現在のチャットボットは,「クエリ自体は論理的に適切な構造を持っている」という性善説を前提にしていると思われます.しかし,現実はそうとは限りません.今回のケースでは,意図的に矛盾する命題(パラドックス)を埋め込んだわけですが,例えば,医師の診療や法律相談などでは,クライアントが意図せず矛盾するクエリを入力することがあり得ます.このような場合にも,メタ的に論理構造が適切であるかチェックできなければ,危険な処方や不適切な助言を与えることになるかもしれません.
人工知能ボットがすべきことは,まだいくつか残っていそうです.