The problem of epistemic opacity in artificial intelligence (AI): explainable AI (XAI) and computational reliabilism
Šiame darbe nagrinėjamos epistemologinės dirbtinio intelekto (DI) implikacijos, vertinant paaiškinamojo DI (angl. explainable AI (XAI)) ir komputacinio reliabilizmo (angl. computational reliabilism (CR)) konceptualų pagrįstumą, sprendžiant episteminio neskaidrumo problemą. Tyrime DI pristatomas kaip episteminė technologija, neatsiejama nuo episteminio neskaidrumo – situacijos, kurioje subjektas nesupranta vidinių DI veikimo principų. Episteminio neskaidrumo problematiškumas įvardijamas kaip gebėjimas sukelti episteminį neteisingumą ir žalą. Teigiama, kad dabartiniai XAI taikomi skaidrumo ir interpretuojamumo metodai yra netinkami sprendžiant DI episteminio neskaidrumo problemą. Dėl šios priežasties siūloma CR teorija, kurioje episteminio neskaidrumo problema yra sprendžiama pasitelkiant patikimumo konceptą. Darbe pateikiama išvada, kad CR užtikrina pagrįstą santykį tarp patikimumo ir pasitikėjimo, taip skatinant epistemologinį ir etinį DI integralumą episteminio neskaidrumo kontekste.
This thesis examines the epistemological implications of Artificial Intelligence (AI) by evaluating the conceptual validity of Explainable AI (XAI) and Computational Reliabilism (CR) in addressing the issue of epistemic opacity. The analysis presents AI as an epistemic technology inherently associated with epistemic opacity—a situation characterized by an agent’s lack of comprehension regarding the inner workings of AI. The problem of epistemic opacity is identified in its ability to cause epistemic injustice and harm. The current transparency and interpretability methods employed by XAI are demonstrated to be insufficient in addressing the problem of epistemic opacity in AI. In response, the CR framework is proposed, aiming to resolve epistemic opacity in AI through reliability. This thesis concludes that CR establishes a justified relationship between reliability and trust, advocating for the epistemological and ethical integrity of AI developments in the context of epistemic opacity.