{"id":11802,"date":"2026-04-16T11:20:07","date_gmt":"2026-04-16T11:20:07","guid":{"rendered":"https:\/\/www.proefschriftmaken.nl\/portfolio\/chenyue-wang\/"},"modified":"2026-04-16T11:20:14","modified_gmt":"2026-04-16T11:20:14","slug":"chenyue-wang","status":"publish","type":"us_portfolio","link":"https:\/\/www.proefschriftmaken.nl\/en\/portfolio\/chenyue-wang\/","title":{"rendered":"Chenyue Wang"},"content":{"rendered":"","protected":true},"excerpt":{"rendered":"","protected":true},"author":7,"featured_media":11803,"comment_status":"closed","ping_status":"closed","template":"","meta":{"_acf_changed":false,"footnotes":""},"us_portfolio_category":[45],"class_list":["post-11802","us_portfolio","type-us_portfolio","status-publish","post-password-required","hentry","us_portfolio_category-new-template"],"acf":{"naam_van_het_proefschift":"Is Explanation the Cure?","samenvatting":"Naarmate kunstmatige intelligentie steeds dieper verwikkeld raakt in het dagelijks leven, bepalen algoritmen in toenemende mate wat wij te zien krijgen: van de volgende tv-serie die we bekijken tot de nieuwsverhalen die de publieke opinie vormen. De redenering achter deze geautomatiseerde keuzes blijft echter vaak ondoorzichtig, wat zorgen oproept over eerlijkheid, bias en verantwoordingsplicht in algoritmische besluitvorming. Explainable AI (XAI) is ontstaan als een antwoord op deze ondoorzichtigheid en belooft meer transparantie en gebruikersvriendelijkheid. Deze belofte roept echter een fundamentele vraag op die centraal staat in dit proefschrift: is uitleg (XAI) werkelijk het middel tegen de uitdagingen van algoritmische transparantie?\n\nOm deze vraag te verkennen ontwikkelt dit proefschrift een mensgerichte benadering die drie kern-dimensies integreert: explanation design (zoals de reikwijdte en vorm), aandachtmechanismen (zoals visuele aandacht), de effecten bij gebruikers (bijvoorbeeld cognitieve en emotionele reacties zoals begrip, vertrouwen en houding ten opzichte van het systeem) en gebruikerscompetentie (hun kennis, vaardigheden en houding ten aanzien van AI). Het onderzoekt wat moet worden uitgelegd en in welke vorm; hoe deze uitleg de visuele aandacht trekt; en voor wie uitleg over AI en recommender systems effectief is, rekening houdend met verschillen in AI-gerelateerde kennis, vaardigheden en houdingen. Door communicatiewetenschap, cognitieve psychologie en human\u2013computer interaction te verbinden, wordt een framework voorgesteld dat uitlegbaarheid niet als een vaste eigenschap van een algoritme, maar als een communicatief, dynamisch en contextueel proces dat menselijke interpretatie en handelingsvermogen centraal stelt in de interactie met algoritmische systemen.\n\nHet framework is onderzocht in drie onafhankelijke maar conceptueel samenhangende empirische studies. Een representatieve bevolkingsenqu\u00eate in Nederland brengt de AI-competentie van individuen in kaart binnen alledaags AI-gebruik, identificeert verschillende competentieprofielen en bevestigt het bestaan van een opkomende AI-kloof. Een gecontroleerd laboratoriumexperiment met eye-tracking onderzoekt hoe de reikwijdte (scope) en vorm van uitleg (tekstuele en\/of visuele informatie) visuele aandacht be\u00efnvloeden en vervolgens de waargenomen en objectieve begrip, het vertrouwen en de houding van gebruikers ten aanzien van een entertainmentaanbevelingssysteem. Ten slotte test een online experiment in een nieuwscontext of de effecten van uitleg verschilt tussen gebruikers met verschillende niveaus van AI-competentie.\n\nUit de studies komen vier overkoepelende inzichten naar voren. Ten eerste is explanation design doorslaggevend. Verklaringen die zowel lokale als globale redeneringen combineren, waarbij specifieke toelichtingen worden gekoppeld aan de onderliggende logica van het systeem, vergroten consequent het begrip van gebruikers over hoe het systeem werkt. Toegevoegde visuele elementen bevorderen het begrip echter alleen wanneer ze goed zijn afgestemd op de tekstuele informatie; anders vergroten ze eerder dan dat ze de cognitieve belasting verminderen. Ten tweede fungeert visuele aandacht als het directe mechanisme waardoor ontwerpelementen zich vertalen in cognitieve winst. Een uitleg die de aandacht van gebruikers weet te trekken en vast te houden, bevordert een hoger waargenomen en objectief begrip van de redenering van het AI systeem. Aandacht biedt echter geen verklaring voor affectieve reacties zoals vertrouwen of houding ten aanzien van het systeem. Ten derde zijn deze affectieve reacties voorwaardelijk en treden ze vaak indirect op: beter begrip leidt indirect tot meer vertrouwen en positievere evaluaties. Ten slotte zijn de voordelen van uitleg ongelijk verdeeld. Gebruikers met meer AI-kennis, vaardigheden en positieve houdingen ten opzichte van AI behalen de grootste cognitieve en affectieve winst, terwijl minder competente gebruikers vaak weinig vooruitgang boeken. Dit patroon onderstreept dat uitlegbaarheid inherent gelaagd is en dat uniforme transparantieontwerpen het risico lopen bestaande competentieverschillen te verdiepen in plaats van te verkleinen.\n\nDeze resultaten leveren verschillende theoretische bijdragen. Het voorgestelde framework vervangt een binaire benadering van uitleg door een design-alignment-perspectief dat informatieve volledigheid afweegt tegen cognitieve toegankelijkheid. Het specificeert aandacht als een begrensd mechanisme dat ontwerp koppelt aan cognitie, terwijl het cognitieve uitkomsten analytisch onderscheidt van affectieve evaluaties en een cognitieve-v\u00f3\u00f3r-affectieve volgorde suggereert.\n\nTevens verankert het framework inclusiviteit in de theorie door verschillen in gebruikerscompetentie te erkennen als een kernfactor die de werking en effectiviteit van verklaringen mede bepaalt, in plaats van als willekeurige ruis. Gezamenlijk bieden deze inzichten een gestructureerd en toetsbaar model van uitlegbaarheid als een proces van leren en oordelen, begrensd door cognitie, gemedieerd door aandacht en be\u00efnvloed door competentie.\n\nHet onderzoek levert daarnaast praktische en beleidsmatige richtlijnen op. Bij het ontwerp van een uitleg over AI, moet men rekening houden met zowel de reikwijdte als de modaliteit, waarbij visuele elementen worden gebruikt om te verduidelijken en de presentatie is afgestemd op de diversiteit van gebruikers. Voor evaluatie dienen uitkomstmaten te worden aangevuld met procesmaten die inzicht geven in aandacht en betrokkenheid van gebruikers, om zo iteratieve verbetering te ondersteunen. Voor inclusiviteit kunnen adaptieve strategie\u00ebn beter aansluiten bij uiteenlopende competentieprofielen, maar uitleg alleen zal vaardigheidskloof niet dichten; geletterdheidsinitiatieven blijven essentieel. Voor beleid en toezicht moeten transparantieverplichtingen contextgevoelig en competentiebewust zijn en gepaard gaan met inclusiebeleid, zodat verantwoordingsmechanismen niet onbedoeld ongelijkheid versterken Een onderzoeksagenda voor de toekomst vloeit voort uit deze inzichten. Prioriteiten zijn het toetsen van het framework over culturen en tijd heen, het uitbreiden ervan naar aanvullende domeinen met hoge en lage inzet, het verbreden van de ontwerpruimte naar interactieve, gepersonaliseerde en contrasterende vormen, het versterken van metingen via gedrags- en proces-tracingmethoden op grotere schaal, en het aanpassen van uitlegconcepten aan generative AI.\n\nHet proefschrift laat zien dat uitleg over AI en recommender systems gebruikers kan helpen om algoritmische keuzes te begrijpen en een betrouwbare interactie tussen mens en AI te ondersteunen, maar alleen wanneer de uitleg is afgestemd op wat wordt uitgelegd, hoe het wordt gepresenteerd, wie de gebruiker is en in welke context deze plaatsvindt. Uitlegbaarheid is geen statische interface-functie; het is een communicatie-strategie. Uiteindelijk gaat uitlegbaarheid in het tijdperk van AI niet alleen over interpreteerbaarheid, maar ook over de versterking van het handelingsvermogen van gebruikers. Door een framework te ontwikkelen dat gevoelig is voor cognitieve belasting, gemedieerd wordt door aandacht en rekening houdt met gebruikerscompetentie, draagt dit werk bij aan de ontwikkeling van AI die menselijk begrip bevordert en het maatschappelijk welzijn dient.","summary":"As artificial intelligence becomes deeply embedded in everyday life, algorithms increasingly decide what we see: from the next series to watch to the news stories that shape public opinion. Yet the reasoning behind these automated choices often remains opaque, raising concerns about fairness, bias, and accountability in algorithmic decision-making. Explainable AI (XAI) has emerged as a response to this opacity, promising greater transparency and user empowerment. But this promise raises a fundamental question at the heart of this dissertation: Is explanation really the cure for the challenges of algorithmic transparency?\n\nIn pursuit of this question, this dissertation develops a human-centered framework that integrates four key dimensions: explanation design (i.e., scope and modality), underlying mechanisms (i.e., visual attention), user outcomes (i.e., cognitive and affective responses such as understanding of, trust in, and attitude toward the system), and user competence (i.e., AI-related knowledge, skills, and attitudes). It examines what should be explained and in what form, how explanations work through visual attention, and for whom they are effective given differences in users\u2019 AI competence. Bridging communication science, cognitive psychology, and human-computer interaction, the framework reconceptualizes explainability not as a fixed property of an algorithm but as a communicative and contextual process that re-centers human interpretation and agency within algorithmic interaction.\n\nThe framework is examined through three independent yet conceptually connected empirical studies. A population-representative survey in the Netherlands maps individuals\u2019 AI competence in everyday AI use, identifying distinct competence profiles and confirming the presence of an emerging AI divide. A controlled laboratory experiment using eye-tracking investigates how explanation scope and modality influence visual attention, and, in turn, users perceived and objective understanding, trust, and attitudes toward an entertainment recommender system. Finally, an online experiment in a news context tests whether explanations improve these outcomes across different levels of AI competence in a broader population sample.\n\nAcross studies, four overarching insights emerge. First, explanation design is decisive. Joint explanations that integrate both local and global reasoning, providing specific justifications alongside system-level logic, consistently enhance user understanding of how the system operates. However, added visual illustrations aid comprehension only when they are well aligned with textual information. Second, visual attention functions as the proximal mechanism through which design features translate into cognitive gains. Explanations that capture and sustain users\u2019 visual attention foster higher perceived and objective understanding of the system\u2019s reasoning, although attention alone does not account for affective responses such as trust or attitudes toward the system. Third, these affective responses are conditional and often unfold indirectly. Improved understanding of the system enables more trust and more positive evaluations toward the system rather than producing them directly. Finally, explanation benefits are not evenly distributed. Users with greater AI knowledge, skills, and positive attitudes derive the most cognitive and affective gains, whereas less competent users often show limited improvement. This pattern underscores that explainability is inherently stratified and that one-size-fits-all transparency designs risk deepening, rather than reducing, existing competence divides.\n\nThese results advance theory in several ways. The framework replaces a binary view of explanations with a design-alignment perspective that balances informational completeness with cognitive accessibility. It specifies attention as a bounded mechanism linking design to cognition, while analytically distinguishing cognitive outcomes from affective evaluations and indicating a cognitive-before-affective sequence. It also embeds inclusiveness into theory by treating competence differences as a core moderator rather than statistical noise. Together, these insights offer a structured and testable model of explainability as a process of learning and judgment, bounded by cognition, mediated by attention, and conditioned by competence.\n\nThe work also yields practical and policy guidance. For design, explanations should be treated as coordinated choices about scope and modality, with visuals used to clarify with formats that accommodate user diversity. For evaluation, outcome measures should be complemented with process measures of attention and engagement to inform iterative improvement. For inclusiveness, layered and adaptive strategies can better serve diverse competence profiles, but explanations alone will not close skill gaps; literacy initiatives remain essential. For governance, transparency obligations should be context-sensitive and competence-aware and paired with inclusion policies so that accountability does not inadvertently reinforce inequality. A roadmap for future research follows from these insights. Priorities include testing the framework across cultures and over time, extending it to additional high- and low-stakes domains, broadening the design space to interactive, personalized, and contrastive forms, strengthening measurement with behavioral and process-tracing methods at scale, and adapting explanation concepts to generative AI.\n\nIn conclusion, the dissertation shows that explanations can help users make sense of algorithmic choices and support trustworthy human-AI interaction, but only when aligned with what is explained, how it is presented, who the user is, and the context of use. Explainability is not a static interface feature; it is a practice of communication. Ultimately, in the age of AI, the goal is not only interpretability but empowerment. By advancing a load-sensitive, attention-mediated, and competence-aware framework, this work contributes to building AI that enhances human understanding and serves societal well-being.","auteur":"Chenyue Wang","auteur_slug":"chenyue-wang","publicatiedatum":"27 mei 2026","taal":"EN","url_flipbook":"https:\/\/ebook.proefschriftmaken.nl\/ebook\/chenyuewang?iframe=true","url_download_pdf":"https:\/\/ebook.proefschriftmaken.nl\/download\/d17dac76-45ef-4745-a3e9-b71feba53835\/optimized","url_epub":"","ordernummer":"18908","isbn":"978-94-6534-366-2","doi_nummer":"","naam_universiteit":"Universiteit van Amsterdam","afbeeldingen":11804,"naam_student:":"","binnenwerk":"","universiteit":"Universiteit van Amsterdam","cover":"","afwerking":"","cover_afwerking":"","design":""},"_links":{"self":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/11802","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio"}],"about":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/types\/us_portfolio"}],"author":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/comments?post=11802"}],"version-history":[{"count":1,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/11802\/revisions"}],"predecessor-version":[{"id":11805,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/11802\/revisions\/11805"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/media\/11803"}],"wp:attachment":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/media?parent=11802"}],"wp:term":[{"taxonomy":"us_portfolio_category","embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio_category?post=11802"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}