{"id":14436,"date":"2026-04-23T14:55:31","date_gmt":"2026-04-23T14:55:31","guid":{"rendered":"https:\/\/www.proefschriftmaken.nl\/portfolio\/lidongsheng-xing\/"},"modified":"2026-04-23T14:55:38","modified_gmt":"2026-04-23T14:55:38","slug":"lidongsheng-xing","status":"publish","type":"us_portfolio","link":"https:\/\/www.proefschriftmaken.nl\/en\/portfolio\/lidongsheng-xing\/","title":{"rendered":"Lidongsheng Xing"},"content":{"rendered":"","protected":true},"excerpt":{"rendered":"","protected":true},"author":7,"featured_media":14437,"comment_status":"closed","ping_status":"closed","template":"","meta":{"_acf_changed":false,"footnotes":""},"us_portfolio_category":[45],"class_list":["post-14436","us_portfolio","type-us_portfolio","status-publish","post-password-required","hentry","us_portfolio_category-new-template"],"acf":{"naam_van_het_proefschift":"Identifying Sound Features from Brain Activity","samenvatting":"Dit proefschrift ontwikkelt en valideert een benadering voor kenmerkidentificatie voor het extraheren van geluidskenmerken uit neurale activiteit, met als doel de modulatie van corticale en gedragsresponsen naar ontworpen patronen mogelijk te maken. Door het combineren van elektro-encefalografie (EEG) met hoge temporele resolutie en functionele magnetische resonantiebeeldvorming (fMRI) met hoge ruimtelijke resolutie, wordt in dit onderzoek een methodologisch raamwerk gevestigd dat achterwaartse reconstructie en voorwaartse synthese integreert om neurale responsen te koppelen aan akoestische stimuluskenmerken op het gebied van temporele dynamiek, semantische categorie\u00ebn en hemispherische asymmetrie\u00ebn.\n\nIn dit proefschrift hebben we drie empirische studies uitgevoerd om de haalbaarheid en generaliseerbaarheid van deze benadering voor kenmerkidentificatie te toetsen over verschillende dimensies van auditieve verwerking. In Hoofdstuk 2 pasten we een methode voor achterwaartse reconstructie toe, gebruikmakend van een lineaire temporele responsfunctie (TRF), om dynamische luidheidspatronen te reconstrueren uit EEG-responsen op basische toonreeksen. Vervolgens ontwikkelden we een gedrags- en neuraal validatieparadigma om te beoordelen of deze reconstructies \u2013 die oorspronkelijk alleen werden ge\u00ebvalueerd met correlatiemetingen \u2013 perceptuele en neurale betekenis hebben voor luisteraars. Dit vestigde een meer rigoureus raamwerk voor het evalueren van reconstructiegetrouwheid, verdergaand dan conventionele akoestisch-domein metrieken. In Hoofdstuk 3 implementeerden we een methode voor voorwaartse synthese met behulp van een diep neuraal netwerk (DNN) om laagsgewijze categorische geluidsrepresentaties, ingebed in het model, te verklankijken. Vervolgens ontwierpen we perceptuele en neurale validatie-experimenten om te toetsen of de gesynthetiseerde geluiden \u2013 hoewel akoestisch onnatuurlijk \u2013 konden dienen als effectieve probes voor het onderzoeken van causale relaties tussen DNN-afgeleide kenmerken en auditieve corticale verwerking. In Hoofdstuk 4 breidden we dit raamwerk voor voorwaartse synthese uit om hemispherische verschillen te targeten, waarbij we geluiden synthetiseerden die het voorspelde responsverschil tussen de linker- en rechterauditieve schors maximaliseerden. Vervolgens ontwikkelden we een analysepijplijn voor akoestische kenmerken om de onderscheidende eigenschappen van deze links- en rechtsactiverende geluiden te karakteriseren met behulp van meerdere akoestische modellen (bijv. spectrotemporele modulatie en geluidstextuurstatistieken). De methodologische bijdragen en de generaliseerbaarheid van deze benadering voor kenmerkidentificatie worden besproken in het slothoofdstuk.","summary":"This doctoral thesis develops and validates a feature identification approach for extracting sound features from neural activity, with the goal of enabling the modulation of cortical and behavioral responses toward designed patterns. By combining high temporal resolution electroencephalography (EEG) and high spatial resolution functional magnetic resonance imaging (fMRI), this research establishes a methodological framework that integrates backward reconstruction and forward synthesis to link neural responses to acoustic stimulus features across temporal dynamics, semantic categories, and hemispheric asymmetries.\n\nIn this dissertation, we conducted three empirical studies to test the feasibility and generalizability of this feature identification approach across different dimensions of auditory processing. In Chapter 2, we applied a backward reconstruction method using a linear temporal response function (TRF) to reconstruct dynamic loudness patterns from EEG responses to basic tone sequences. We then developed a behavioral and neural validation paradigm to assess whether these reconstructions\u2014originally evaluated only by correlation metrics\u2014hold perceptual and neural significance for listeners. This established a more rigorous framework for evaluating reconstruction fidelity beyond conventional acoustic-domain metrics. In Chapter 3, we implemented a forward synthesis method using a deep neural network (DNN) to sonify layer-wise categorical sound representations embedded in the model. We then designed perceptual and neural validation experiments to test whether the synthesized sounds\u2014though acoustically unnatural\u2014could serve as effective probes for investigating causal relationships between DNN-derived features and auditory cortical processing. In Chapter 4, we extended this forward synthesis framework to target hemispheric differences, synthesizing sounds that maximized the predicted response difference between the left and right auditory cortices. Subsequently, we developed an acoustic feature analysis pipeline to characterize the distinguishing features of these left- and right-activating sounds using multiple acoustic models (e.g., spectrotemporal modulation and sound texture statistics). The methodological contributions and generalizability of this feature identification approach are discussed in the final chapter.","auteur":"Lidongsheng Xing","auteur_slug":"lidongsheng-xing","publicatiedatum":"6 mei 2026","taal":"EN","url_flipbook":"https:\/\/ebook.proefschriftmaken.nl\/ebook\/lidongshengxing?iframe=true","url_download_pdf":"https:\/\/ebook.proefschriftmaken.nl\/download\/fa3ada1d-3aa4-4b21-af86-56355e5a987a\/optimized","url_epub":"","ordernummer":"18994","isbn":"978-94-6534-392-1","doi_nummer":"","naam_universiteit":"Universiteit Maastricht","afbeeldingen":14438,"naam_student:":"","binnenwerk":"","universiteit":"Universiteit Maastricht","cover":"","afwerking":"","cover_afwerking":"","design":""},"_links":{"self":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/14436","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio"}],"about":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/types\/us_portfolio"}],"author":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/comments?post=14436"}],"version-history":[{"count":1,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/14436\/revisions"}],"predecessor-version":[{"id":14439,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/14436\/revisions\/14439"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/media\/14437"}],"wp:attachment":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/media?parent=14436"}],"wp:term":[{"taxonomy":"us_portfolio_category","embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio_category?post=14436"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}