私たちがもつ信念の少なくない部分は、認識主体自身が仕組みを把握していないリソース、いわばブラックボックスに基づいて獲得されたものである。例えば眼の仕組みを理解していなくとも知覚によって目の前に何があるかを信じることは可能であり、誰かが言うことを聞いてその内容を信じるとき、その人がどのようにしてそう発話するに至ったのかはたいてい不明である。また近年では自然言語を出力する対話型AIの利用が急速に進みつつあるが、特に大規模言語モデルに基づくAIの場合、出力に至るまでのプロセスは個々のユーザーにとって不明であるばかりでなく、およそ誰にとってもブラックボックスである。
 信念の獲得過程にブラックボックスが介在するとき、「どのようにしてそれが正しいとわかったのか」という問いに答えきることは難しくなる。それでも、ブラックボックスに基づく信念は一律に排除されるべきなのではなく、その中には正当化されるものとされないもの、知識と呼べるものとそうでないものがあるはずである。そうしたブラックボックスに由来する信念の正当化状態を判断する基盤的な理論を構築し、より具体的な場面に応用することが、本論文が全体を通して目指すところである。
 知覚や証言(testimony)によって何かを知ることはできるか、できるとすればそれはどのようなときかという点は、哲学において古来議論されてきた、認識論に属する問題である。とりわけ本論文では、いわゆる分析的な伝統に連なる現代認識論における議論の蓄積を利用することで、知覚や証言を含むブラックボックスに由来する信念の正当化の問題にアプローチする。
 ブラックボックスから得られた信念の正当化状態を判定する基準を求めるとき、「信頼性主義(reliabilism)」は有望な選択肢である。信頼性主義は信念獲得に至るプロセスの信頼性、つまり真なる信念を生み出す傾向性に注目し、その際プロセスの中身を問わないからである。信頼性主義によれば、赤い彫刻を見て「この彫刻は赤い」と信じることの正当化は、視覚のメカニズムを把握していることではなく、視覚が概ね正しい信念を生み出す傾向をもっていることによって確保される。
 しかし、信頼性の高いプロセスから生じた信念のすべてが直ちに正当化されるわけではない。視覚は概ね信頼性の高いプロセスと言えるが、彫刻を照らす赤い照明の存在に後から気づいたとしたら、当初抱いた「この彫刻は赤い」という信念はもはや正当化されないはずである。このように、正当化の成立が阻害される現象は「阻却(defeat)」と呼ばれる。一般的に言って、正当化の理論は阻却現象を適切に捉えられる、つまり阻却現象が生じる事例において正当化は成立しないと正しく判定できる必要がある。とりわけ信頼性主義に対しては、阻却現象の包摂が困難なのではないかとしばしば疑いの目が向けられてきた。ブラックボックスを扱うための理論として信頼性主義に期待するのであれば、こうした疑念に応えなければならない。
 本論文は基礎編にあたる第1部と、応用編としての第2部から成る。第1部に属する3つの章では、阻却現象を包摂するように信頼性主義を改良することで、前掲の課題に取り組んでいく。第2部の2つの章では、信頼性主義や阻却といったアイデアを、証言を信じる、対話型AIの出力から信念を得るというより具体的な場面に適用することで見えてくる問題を、それぞれ検討する。
 第1章では阻却現象に対して信頼性主義が取るべきおおまかな方向を検討する。検討の対象となるのは、正当化の成立条件として信頼性条件に加えて阻却事由不在条件(no-defeater condition)を課す2段階信頼性主義(two-step reliabilism)と、阻却現象は見かけにすぎないとする阻却錯誤説の2つである。その際、信念的阻却事由(doxastic defeater)と規範的阻却事由(normative defeater)の区別を導入することで、阻却現象が生じていると考えられる事例において、具体的にどのような事情が正当化を妨げている(あるいはそのように見える)のかを整理する。そして、信念的阻却については阻却錯誤説を、規範的阻却については2段階信頼性主義を採用することで対応する方針が支持される。このような方針を取ることで、真理との関係において正当化概念を捉えるという信頼性主義の基本的な姿勢を維持したまま、信頼性の高いプロセスから生じた信念はすべて正当化されるという疑わしい帰結を回避することができる。
 第2章では、2段階信頼性主義に対する種々の批判への応答を試みる。まず前半部では、信頼性主義がもつ再帰的構造と2段階信頼性主義の組み合わせから生じる無限後退の問題を取り上げる。そして、さしあたりの正当化と最終的な正当化の区別を導入し再帰的構造と阻却事由不在条件の関係を見直すことで、2段階信頼性主義も再帰的構造も維持したまま、プロセス信頼性主義の枠組みから逸脱することなくこの問題を解決できることが示される。後半部では、2段階信頼性主義に対する反例として提示されてきた様々な事例に対応することを通じて、その中核的なアイデアに沿うよう信頼性主義をさらに彫琢していく。
 やや派生的な論点になるが、第3章では、第2章でさしあたり保持されることになる信頼性主義の再帰的構造に対し、無限後退とは別種の問題として創発問題を提起する。創発問題は、再帰的信頼性主義が信念獲得に至る道程に含まれるすべてのプロセス一つひとつの信頼性が高いことを要求することから生じる。この問題を回避するため、再帰的構造を含まない代替案としてプロセスの全体を信頼性評価の対象とする全体信頼性主義を提案し、それが前章までに提示された阻却現象を包摂するためのアイデアとも両立可能であることを示す。
 信頼性主義を巡る議論においては主として知覚が範型とされ、用いられる事例も知覚、特に視覚に関するものが多い。応用編である第2部では、知覚以外のブラックボックスとして証言と対話型AIを取り上げる。まず第4章では、2段階信頼性主義のような阻却事由不在条件を含む理論を採用することに伴う問題を、証言の場面に即して検討する。そもそも本論文がブラックボックスを扱うための理論として信頼性主義に期待するのは、それが信念をもたらしたプロセスのメカニズムの把握を求めず、認識主体に過度な要求をしないためであった。しかし信頼性主義もまた、阻却事由不在条件を取り入れることで多くを求めすぎることになるかもしれない。この種の懸念は、証言の認識論、とりわけ還元主義(reductionism)/反還元主義(anti-reductionism)論争において、幼児反論(child/infant objection)と呼ばれる論証を巡る議論として顕在化している。幼児反論は、幼児は何かを信じるべき、あるいは信じるべきでない理由を考慮する能力をもたないという経験的な前提に立脚する。そこでこの章では、選択的信頼(selective trust)に関する発達心理学の研究を参照することで、幼児の能力に訴えることが還元主義/反還元主義の論争においてどの程度有効なのかを検討する。そうすることは同時に、阻却事由不在条件は過大な要求であるという懸念がどの程度深刻なものであるのかを、幼児が証言を聞くという一つの場面に即して考えることにもなる。
 最後に第5章では、信頼性主義のアイデアを対話型AIのケースに適用する方法を検討する。対話型AIを巡る認識論においては、本論文の関心ごとである正当化基準の問題のほか、対話型AIから獲得した信念をどのようにカテゴライズするかという点が主要な論点の一つとなっている。正当化条件として信頼性主義のアイデアを応用する方針が有力であることに変わりはないが、応用の仕方はそれぞれの枠組みごとにやや異なる。この点で、正当化基準の問題とカテゴライズの問題は絡み合っている。カテゴライズの問題において有望と言えるのが、証言に基づく信念(testimony-based belief)、あるいは機器に基づく信念(instrument-based belief)という、従来からの枠組みを当てはめることである。しかし、いずれの枠組みで捉えることにもそれぞれ問題がある。とりわけ、ChatGPTのような現行の対話型AIが十分に高い信頼性を有していることが明らかでないことは、対話型AIからの信念の正当化可能性を危うくする。そこで、対話型AIそのものの性質を基準とする従来の枠組みに代えて、「機器とみなすことによる信念」と「証言者とみなすことによる信念」という、ユーザーが対話型AIの出力をどのように受け止めるかに着目した新しい枠組みを提案する。そうすることで、その信頼性が不確かである中でも、工夫を凝らして対話型AIを活用しつつある私たちの実践を捉えることを目指す。
 以上に概要を示した本論文の議論が全体として首尾よくいっているとすれば、阻却現象を包摂するように改定された信頼性主義は、ブラックボックスに由来する信念の正当化を捉えるための有望な選択肢であると示唆されることになる。