{"id":14797,"date":"2026-05-04T09:59:57","date_gmt":"2026-05-04T09:59:57","guid":{"rendered":"https:\/\/www.proefschriftmaken.nl\/portfolio\/jacob-van-de-kerkhof\/"},"modified":"2026-05-04T10:00:14","modified_gmt":"2026-05-04T10:00:14","slug":"jacob-van-de-kerkhof","status":"publish","type":"us_portfolio","link":"https:\/\/www.proefschriftmaken.nl\/en\/portfolio\/jacob-van-de-kerkhof\/","title":{"rendered":"Jacob van de Kerkhof"},"content":{"rendered":"","protected":true},"excerpt":{"rendered":"","protected":true},"author":7,"featured_media":14798,"comment_status":"closed","ping_status":"closed","template":"","meta":{"_acf_changed":false,"footnotes":""},"us_portfolio_category":[45],"class_list":["post-14797","us_portfolio","type-us_portfolio","status-publish","post-password-required","hentry","us_portfolio_category-new-template"],"acf":{"naam_van_het_proefschift":"It Takes a Village to Moderate a Platform","samenvatting":"Contentmoderatie is het proces van het ordenen en aanbevelen van content op het internet en op sociale media. Tussenhandeldiensten, waaronder zeer grote online platforms als Facebook, YouTube, en TikTok, bepalen door contentmoderatie de toon van het online debat en de effectieve grenzen van de uitingsvrijheid. Dit proefschrift onderzoekt hoe de Digitaledienstenverordening (\u2018DSA\u2019) een netwerk van actoren toegang biedt tot content moderatie, en hoe dit invloed heeft op de manier waarop de uitingsvrijheid daarbij wordt afgewogen tegen andere rechten en belangen. De DSA stelt eisen aan dit proces en geeft verschillende actoren een formele rol waarmee zij invloed kunnen uit oefenen op het content-moderatie-proces. Die rol wordt onder andere toebedeeld aan gebruikers, het maatschappelijk middenveld, en statelijke actoren. Omdat elk van deze actoren eigen belangen heeft, is het mogelijk dat de uitingsvrijheid in de verdrukking komt. Hoe de DSA het betrekken van deze actoren vorm geeft is daarom van cruciaal belang, en vormt de kern van dit proefschrift.\n\nHoofdstuk I vormt de inleiding van dit proefschrift. Allereerst wordt daarin de onderzoeksvraag ingeleid: Hoe be\u00efnvloedt de DSA en de formele rol die zij cre\u00ebert voor tussenhandeldiensten, gebruikers, het maatschappelijk middenveld, en statelijke actoren het wegen van de uitingsvrijheid in content moderatie? Deze onderzoeksvraag wordt beantwoord aan de hand van drie relevante groepen van actoren: tussenhandeldiensten, gebruikers en het maatschappelijk middenveld, en statelijke actoren. Bij deze beantwoording is gebruik gemaakt van verschillende methoden. Naast zuiver juridisch onderzoek wordt gebruik gemaakt van empirische onderzoeksmethoden uit de computer- en mediawetenschappen. Dit is nodig om te beschrijven hoe content moderatie werkt, en hoe tussenhandeldiensten zich conformeren aan de DSA.\n\nNaast de methodologie schetst hoofdstuk I de achtergrond van het proefschrift. De DSA is een relatief nieuwe Europese verordening die een geharmoniseerd regime cre\u00ebert voor tussenhandeldiensten, waaronder online platforms en online zoekmachines. De DSA volgt de Richtlijn elektronische handel uit 2000 op. Daarmee vormt zij een veel gezochte wettelijke interventie in het online domein: het internet is sinds 2000 fors veranderd, en brengt nieuwe gevaren met zich mee. Er bestaat een lacune tussen die gevaren en de instrumenten die bestaande wettelijke instrumenten bieden om die gevaren het hoofd te bieden. Hoofddoelen van de DSA zijn het voorkomen van fragmentatie tussen lidstaten, het stimuleren van verantwoordelijk en zorgvuldig gedrag van tussenhandeldiensten om een veilige, voorspelbare, en betrouwbare online omgeving van Unieburgers te garanderen. Deze doelen beoogt de DSA te realiseren met een reeks zorgvuldigheidsverplichtingen die transparantie vergroten en die het mogelijk maken dat tussenhandeldiensten rekenschap afleggen over hun handelen. Deze zorgvuldigheidsverplichtingen volgen een gelaagde structuur: naarmate de tussenhandeldienst groter wordt \u2013 en daarmee haar maatschappelijke impact \u2013 zijn meer verplichtingen van toepassing. In deze constellatie zijn de meeste verplichtingen van toepassing op Zeer Grote Online Platforms en Zeer Grote Online Zoekmachines.\n\nEen deel van de zorgvuldigheidsverplichtingen rondom content moderatie bestaat uit het cre\u00ebren van een netwerk van actoren. Dit kan worden gezien in het licht van Robyn Caplan\u2019s theorie over networked platform governance. Zij omschrijft hoe platformbestuur gedelegeerd kan worden naar meerdere actoren, die in een netwerk gezamenlijk het bestuur van een platform bepalen. Deze actoren hebben allemaal verschillende machtsposities en verschillende mate van invloed. Dit maakt het moeilijk om te bepalen aan wie het resultaat van dat platformbestuur \u2013 hoe content gemodereerd wordt, en daarmee hoe de uitingsvrijheid gewogen wordt \u2013 uiteindelijk kan worden toegerekend. Deze spanning wordt onderzocht in de volgende hoofdstukken.\n\nHoofdstuk II geeft een empirische achtergrond inzicht in hoe het content moderatie landschap eruit ziet. Het hoofdstuk onderzoekt hoe de DSA transparantie database inzicht geeft in content moderatie praktijken, en of tussenhandeldiensten inderdaad transparantie verschaffen. Bevindingen uit een empirische analyse van de database laten zien dat, hoewel de architectuur van de database geschikt lijkt om transparantie te verschaffen, de invulling door tussenhandeldiensten soms te wensen over laat. Opvallend is dat het gros van de content moderatiebeslissingen buiten sociale mediaplatforms plaatsvindt. Vrijwel alle content moderatiebeslissingen worden gemaakt op basis van algemene voorwaarden, niet op basis van geldend recht. Daarnaast valt op dat tussenhandeldiensten verschillende moderatiewijzen hanteren. Sommigen rapporteren dat zij alles geautomatiseerd doen, terwijl anderen stellen dat alle moderatie door menselijke moderatoren gebeurt. Op de waarde van de verschafte informatie valt veel af te dingen: het is in veel gevallen onduidelijk waarom content verwijderd is, omdat tussenhandeldiensten gebruikmaken van generieke verwijzingen naar algemene voorwaarden. De belangrijkste conclusies van dit hoofdstuk voor het proefschrift zijn dat tussenhandeldiensten grotendeels modereren op basis van hun eigen algemene voorwaarden, en dat de mate van kennisdeling tussen actoren grotendeels bepaald wordt door de mate waarin tussenhandeldiensten kennis verschaffen.\n\nHoofdstuk III richt zich op de aansprakelijkheidsuitzondering die tussenhandeldiensten genieten onder de DSA. De academische consensus op dit onderwerp is dat deze niet veranderd is sinds de Richtlijn elektronische handel en dat de zorgvuldigheidsverplichtingen in de DSA los gezien moeten worden van de aansprakelijkheidsuitzondering. Hoofdstuk III betoogt dat die conclusie genuanceerd kan worden. Ten opzichte van de Richtlijn elektronische handel kan in sommige gevallen wel degelijk een hogere mate van zorgvuldigheid verwacht worden, waardoor tussenhandeldiensten eventueel kunnen worden uitgesloten van de aansprakelijkheidsuitzondering. Een strengere interpretatie van de aansprakelijkheidsuitzondering kan in sommige gevallen slachtoffers van illegale content beter in staat stellen de tussenhandeldienst aansprakelijk te houden voor het hosten van illegale content. De strengere interpretatie kan als aanmoediging dienen om een beter notice-and-action mechanisme te faciliteren, moderatiepraktijken aan te scherpen tegen illegale content, en een beter evenwicht te bewerkstelligen tussen de belangen van de tussenhandeldienst en die van de benadeelde persoon. De uitingsvrijheid zoals deze ge\u00efnterpreteerd wordt door het Europees Hof voor de Rechten van de Mens (EHRM) hoeft zich niet tegen die interpretatie te verzetten. Evenmin zou deze interpretatie niet gedragen worden door de DSA. Artikel 16 voorziet dat hosting diensten een eenvoudig toegankelijk en gebruiksvriendelijk notice-and-action mechanisme aan moeten bieden. Het niet aanbieden van zo\u2019n mechanisme verstoort de mogelijkheden om hosting diensten aansprakelijk te houden. Om te voorkomen dat het loont om een disfunctioneel mechanisme aan te bieden, zou een hosting dienst die zich aan de verplichtingen van artikel 16 onttrekt uitgesloten kunnen worden van de aansprakelijkheidsuitzondering. Hetzelfde geldt voor online platforms die zich structureel onttrekken aan de verplichtingen van artikel 23 DSA. Artikel 23 verplicht online platforms tot het blokkeren van gebruikers die frequent kennelijk illegale content uploaden. Wanneer een online platform dat niet doet, handelt het online platform niet te goeder trouw, en kan het daarmee uitgesloten worden van de aansprakelijkheidsuitzondering van artikel 6 DSA. Het hoofdstuk betoogt ook dat met aangescherpte zorgvuldigheidsverplichtingen ten aanzien van kennelijk illegale inhoud, terroristische inhoud, en kindermisbruik, de lat verlaagd kan worden ten opzichte van de Richtlijn elektronische handel voor feitelijke toetsing of een hosting dienst op de hoogte is van illegale content en daarmee onder verplichting staat die te verwijderen. Dit zou ook kunnen leiden tot het uitsluiten van de aansprakelijkheidsuitzondering van te kwader trouw handelende actoren. Het hoofdstuk betoogt dat tussenhandeldiensten zo een grotere mate van rekenschap moeten afleggen over hoe zij hun content moderatieprocessen inrichten.\n\nHoofdstuk IV richt zich op een specifiek aspect uit het aansprakelijkheidsvraagstuk, namelijk het notice-and-action mechanisme. Het notice-and-action mechanisme vervult een sleutelrol in het aansprakelijk houden van hosting diensten voor illegale content, en maakt het voor gebruikers mogelijk om hun voorkeuren kenbaar te maken en invloed uit te oefenen op content moderatie. Het hoofdstuk onderzoekt met een empirische walkthrough hoe AliExpress, TikTok, Twitch, en X hun notice-and-action mechanismen vormgeven, of dit strookt met de vereisten van artikel 16 DSA, en of dit eventuele aansprakelijkheid van hostingdiensten be\u00efnvloedt. Het onderzoek laat zien dat de genoemde tussenhandeldiensten hun notice-and-action mechanismen verschillend vormgeven, en dat die vormgeving vaak geijkt is op de dienst die zij aanbieden. Ook laat het hoofdstuk zien dat met name bij de gemakkelijke toegankelijkheid grote verschillen zichtbaar zijn tussen de tussenhandeldiensten. Dit komt doordat de notice-and-action mechanismen voor de DSA vaak sterk verweven zijn met de notice-and-action mechanismen die worden gebruikt bij schendingen van de algemene voorwaarden, ook al maakt \u2013 en vereist \u2013 de zelfs daartussen een scherp onderscheid. Deze sterke verwevenheid kan er ook toe leiden dat gebruikers content rapporteren buiten het mechanisme van artikel 16 om. Het hoofdstuk concludeert dat de vormgeving van de bestaande mechanismen misleidend kan zijn voor gebruikers. Bovendien be\u00efnvloedt de vormgeving de aansprakelijkheid voor eventuele illegale content, zeker nu mechanismen voor het rapporteren van inhoud onder algemene voorwaarden vaak niet de gelegenheid bieden inzicht te verschaffen in waarom bepaalde content illegaal wordt geacht. Wanneer gebruikers echter niet voldoende toelichting verschaffen over de kwalificatie van bepaalde content als \u2018illegaal\u2019, hoeven hosting diensten de content niet te verwijderen. Het hoofdstuk laat verder zien dat naleving van artikel 16 wisselend is, en dat er bij een aantal tussenhandeldiensten ruimte voor verbetering is. Omdat notice-and-action mechanismen voor gebruikers een belangrijke weg zijn om hun voorkeuren kenbaar te maken \u2013 en daarmee bij te dragen aan content moderatie en het afwegen van de uitingsvrijheid \u2013 is het nodig dat artikel 16 strenger wordt gehandhaafd.\n\nHoofdstuk V verkent artikel 22 DSA, dat gaat over betrouwbare flaggers (\u2018trusted flaggers\u2019). Betrouwbare flaggers kunnen statelijke of niet-statelijke entiteiten zijn, zoals NGOs, ministeries, toezichthouders of de politie. Betrouwbare flaggers hebben een geprivilegieerde positie in het content moderatie proces; hun kennisgevingen dienen met prioriteit en onverwijld te worden behandeld. Betrouwbare flaggers opereren primair in een bilaterale verhouding tot het online platform, wat leidt tot ondoorzichtigheid van hun handelen. Daarnaast is het waarschijnlijk dat online platforms druk voelen om mee te gaan in verwijderverzoeken van betrouwbare flaggers door de gepriviligeerde positie die zij hebben. Dit kan leiden tot het verwijderen van legale content, hetgeen de uitingsvrijheid onder druk zet. Door de ondoorzichtigheid van hun opereren kan dit slecht gecorrigeerd worden. Artikel 22 DSA formaliseert dit proces. Betrouwbare flaggers worden benoemd door de nationale digitaledienstenco\u00f6rdinator. Zij krijgen met hun status toegang tot \u00e1lle online platforms \u2013 dus niet alleen die waarmee ze een bilaterale verhouding hebben. Artikel 22 maakt het raamwerk waarin betrouwbare flaggers opereren bovendien doorzichtiger. Zij mogen enkel kennisgeven van illegale inhoud aan online platforms, wat betekent dat ze binnen de grenzen van de nationale- en uniewetgeving moeten opereren. Daarnaast worden ze geacht te rapporteren over al hun kennisgevingen, hetgeen overmatig gebruik van hun privileges tegengaat. Daarmee wordt een deel van de kritiek op het oorspronkelijke raamwerk van betrouwbare flaggers beantwoord. De regulering via artikel 22 DSA roept ook vragen op. Betrouwbare flaggers worden benoemd door nationale autoriteiten, en hanteren vaak nationaal recht. De bepaling bevat weinig waarborgen om te zorgen dat nationaal recht niet Uniebreed wordt uitgerold, hetgeen ook de uitingsvrijheid onder druk zou kunnen zetten. Om deze risico\u2019s te bestrijden bepleit het hoofdstuk een geharmoniseerd portaal dat betrouwbare flaggers gebruiken om inhoud te rapporteren. Een ander zwak punt van artikel 22 DSA is dat het niet duidelijk is wat het onafhankelijkheidsvereiste betekent in de benoeming van betrouwbare flaggers. Hoewel dit bedoeld is om geldstromen vanuit tussenhandeldiensten tegen te gaan, is het in de praktijk vaak zo dat betrouwbare flaggers daar financieel van afhankelijk zijn. Het hoofdstuk doet op dit punt de suggestie dat de Europese Commissie kan faciliteren dat betrouwbare flaggers een faire financi\u00eble tegemoetkoming ontvangen ter ondersteuning van hun taak in het tegengaan van illegale inhoud.\n\nHoofdstuk VI onderzoekt hoe handhaving door digitaledienstenco\u00f6rdinatoren zich verhoudt tot de uitingsvrijheid. Digitaledienstenco\u00f6rdinatoren zijn nationale toezichthouders op naleving van de DSA. In hun toezichthoudende rol hebben zij mogelijkerwijs veel impact op de uitingsvrijheid op het internet; zij mogen content moderatiepraktijken sanctioneren, tussenhandeldiensten beboeten, en zelfs toegang in het algemeen blokkeren. Hun rolperceptie heeft daarmee een belangrijke invloed op de toegankelijkheid van bepaalde content, en dus op de uitingsvrijheid. De handhavingsstructuur voor digitaledienstenco\u00f6rdinatoren is complex. Digitaledienstenco\u00f6rdinatoren zijn in beginsel onafhankelijke instituties, maar worden vaak ondergebracht bij reeds bestaande toezichthouders, zoals media- en consumentenautoriteiten. Dit fragmenteert het toezichtlandschap in Europa. Dat is problematisch, omdat de bevoegdheid van de digitaledienstenco\u00f6rdinator niet verder rijkt dan de tussenhandeldiensten die binnen de landsgrenzen gevestigd zijn. Een complicerende factor is bovendien dat digitaledienstenco\u00f6rdinatoren hun handhavingstaak delen met de Europese Commissie, die bevoegd is toe te zien en te handhaven ten aanzien van Zeer Grote Online Platforms en Zeer Grote Online Zoekmachines. Dit betekent dat samenwerking vereist is. Samenwerking in grensoverschrijdende kwesties en in Unieverband werpt echter problemen op. Het eerste probleem is dat illegaliteit van inhoud nationaal \u00e9n unierechtelijk bepaald is. Hoewel enige overeenstemming bestaat binnen de Europese Unie over wat illegaal is, lopen de opvattingen van lidstaten op sommige vlakken sterk uiteen. De Hongaarse anti-LHBTIQ+-wetten zijn hierbij een pregnant voorbeeld. Hoewel illegaliteit van bepaalde uitingen mede moet worden getoetst aan de hand van het Handvest, is het onduidelijk of toezichthouders in staat zijn deze beoordeling goed te maken, nog los van of de vraag of tussenhandeldiensten dit zelf goed doen. Dit zet de uitingsvrijheid mogelijk onder druk. Een tweede probleem is dat de bevoegdheidsstructuur van de DSA maakt dat handhaving zich sterk concentreert in een klein aantal lidstaten, met name Ierland en Nederland. Veel klachten moeten door de Ierse of de Nederlandse toezichthouder behandeld worden, wat operationele knelpunten kan veroorzaken. De uitingsvrijheid op het internet kan onder druk komen te staan wanneer nationale toezichthouders vastlopen. Als laatste complicatie in de handhavingsstructuur van de DSA wijst het hoofdstuk erop dat nationale handhavingsstrategie\u00ebn sterk uiteen kunnen lopen, juist als gevolg van de huisvesting van de digitaledienstenco\u00f6rdinatoren bij toezichthouders uit verschillende rechtsgebieden. Dit geldt eens te meer wanneer middelen tekortschieten bij toezichthouders in kleinere lidstaten. Ook hierdoor kan de bescherming van de uitingsvrijheid onder druk komen te staan. Het hoofdstuk concludeert dat nagedacht moet worden over mechanismen waardoor toezichthouders tot actie gedwongen kunnen worden, over horizontale prejudici\u00eble procedures tussen lidstaten om interpretaties van nationaal recht te toetsen, en over herverdeling van de toezichtsvergoeding van artikel 43 DSA om kleine lidstaten te ondersteunen. Op deze wijze kan de uitingsvrijheid minder onder druk komen te staan in handhaving van de DSA door digitaledienstenco\u00f6rdinatoren.\n\nHoofdstuk VII richt zich op inmenging van statelijke actoren in content moderatie. Wanneer een statelijke actor zonder formele bevoegdheid druk uitoefent op tussenhandeldiensten om over te gaan tot het modereren van bepaalde types content, kan dit worden gezien als jawboning. Jawboning is een term die gebruikt wordt in de (voornamelijk Amerikaanse) literatuur om te beschrijven hoe een actor buiten zijn bevoegdheid om een beleidsdoel probeert te bereiken door middel van het uitoefenen van (informele) druk op private actoren. Wanneer dit wordt gedaan om content moderatie te be\u00efnvloeden knelt dit met de uitingsvrijheid. Immers, beperkingen van de uitingsvrijheid moeten gerechtvaardigd worden, wat betekent dat beperkingen een wettelijke basis moeten hebben, een legitiem doel moeten nastreven, en proportioneel en nodig zijn om dit doel te realiseren. Dit kan als geheel niet getoetst worden wanneer de beperking op informele wijze plaatsvindt. Een actueel voorbeeld van jawboning in content moderatie zijn richtlijnen als de gedragscode tegen hate speech. In beginsel worden dergelijke richtlijnen en gedragscodes voorgesteld als vormen van zelf- of co-regulering. Vaak is het echter zo dat een wetgever private actoren sterk aanmoedigt om hieraan deel te nemen, onderhandelingen faciliteert, of zelfs dreigt met verregaande wetgeving om de beleidsdoelen die ten grondslag liggen aan de gedragscodes te bereiken. Dit is ook te zien bij de gedragscode tegen hate speech. De Commissie gaf expliciet te kennen dat wanneer de gedragscode niet voldoende zou worden nageleefd, strengere wetgeving verwacht kon worden. Zij stuurde daarbij aan op het meer proactief tegengaan van hate speech. Een dergelijke aanpak schuurt met de uitingsvrijheid, in het bijzonder omdat de grenzen van hate speech vaag en bijzonder context-gevoelig zijn. Aanmoediging tot meer proactieve moderatie kan leiden tot onnodige inperking van de uitingsvrijheid van gebruikers. Dit zou dan het gevolg zijn van het handelen van de Commissie, wat aan het EVRM en het Handvest getoetst zou moeten worden. Dit is echter lastig omdat het vaak gaat om informele druk. Het hoofdstuk roept daarom op om transparant te zijn over wat de inbreng is van statelijke actoren in co- of zelfregelgevende processen, opdat hun handelen beter getoetst kan worden.\n\nHoofdstuk VIII brengt de bevindingen van de verschillende hoofdstukken samen. Het schetst hoe de interacties die de DSA cre\u00ebert tussen de verschillende betrokken actoren spanningen kunnen oproepen, en dat niet duidelijk is hoe in contentmoderatieprocessen de uitingsvrijheid wordt gewogen. In termen van Caplan\u2019s theorie over gedeeld platformbestuur betekent dit dat weliswaar alle actoren invloed hebben op content moderatie, maar dat onduidelijk blijft hoe deze invloed zich verhoudt tot het wegen van de uitingsvrijheid. Het hoofdstuk roept aan de hand van de suggesties die in de afzonderlijke artikelen zijn gedaan op tot een versterking van de mogelijkheden en verplichtingen van de individuele actoren om rekenschap af te leggen over hun rol in contentmoderatieprocessen. Daarbij moet ook worden verduidelijkt hoe hun inbreng de uitingsvrijheid be\u00efnvloedt. Naast deze verbeteringen is het nodig om duidelijkheid te cre\u00ebren over wat de DSA w\u00e9l en wat de DSA ni\u00e9t kan bewerkstelligen, en er daarmee voor te zorgen dat het geen Zwitsers zakmes zonder juridische basis wordt. Alleen op die manier kunnen een bestendige uitvoering en handhaving van de DSA gegarandeerd worden.","summary":"Content moderation is the process of organizing and recommending content on the internet and social media. Intermediary services, including very large online platforms like Facebook, YouTube, and TikTok, determine the tone of online discourse and the effective limits of freedom of expression through content moderation. This dissertation examines how the Digital Services Act ('DSA') provides a network of actors with access to content moderation, and how this affects the way freedom of expression is balanced against other rights and interests. The DSA sets requirements for this process and gives various actors a formal role through which they can influence the content moderation process. This role is assigned to, among others, users, civil society, and state actors. Because each of these actors has its own interests, it is possible that freedom of expression may be compromised. How the DSA shapes the involvement of these actors is therefore of crucial importance and forms the core of this dissertation.\n\nChapter I forms the introduction to this dissertation. First, the research question is introduced: How does the DSA and the formal role it creates for intermediary services, users, civil society, and state actors affect the weighing of freedom of expression in content moderation? This research question is answered by looking at three relevant groups of actors: intermediary services, users and civil society, and state actors. To answer this, various methods have been used. In addition to pure legal research, empirical research methods from computer and media sciences are employed. This is necessary to describe how content moderation works and how intermediary services comply with the DSA.\n\nBesides the methodology, Chapter I outlines the background of the dissertation. The DSA is a relatively new European regulation creating a harmonized regime for intermediary services, including online platforms and search engines. The DSA succeeds the 2000 e-Commerce Directive. It represents a much-needed legal intervention in the online domain: the internet has changed significantly since 2000, bringing new dangers. A gap exists between these dangers and existing legal instruments. The main goals of the DSA are to prevent fragmentation between member states and encourage responsible behavior by intermediary services to ensure a safe, predictable, and trustworthy online environment for EU citizens. The DSA aims to achieve these goals with a series of due diligence obligations that increase transparency and allow intermediary services to be held accountable for their actions. These obligations follow a layered structure: as the intermediary service grows in size and societal impact, more obligations apply. Most obligations apply to Very Large Online Platforms and Very Large Online Search Engines.\n\nPart of the due diligence obligations regarding content moderation consists of creating a network of actors. This can be seen in light of Robyn Caplan's theory on networked platform governance. She describes how platform governance can be delegated to multiple actors who collectively determine the management of a platform within a network. These actors all have different power positions and levels of influence. This makes it difficult to determine to whom the result of that platform governance\u2014how content is moderated and thus how freedom of expression is weighed\u2014can ultimately be attributed. This tension is investigated in the following chapters.\n\nChapter II provides an empirical background into the content moderation landscape. The chapter examines how the DSA transparency database provides insight into content moderation practices and whether intermediary services indeed provide transparency. Findings from an empirical analysis of the database show that while the database architecture seems suitable for providing transparency, the implementation by intermediary services sometimes leaves much to be desired. It is striking that the majority of content moderation decisions occur outside of social media platforms. Almost all content moderation decisions are made based on terms and conditions rather than applicable law. Additionally, it is notable that intermediary services use different moderation methods. Some report doing everything automatically, while others state that all moderation is performed by human moderators. The value of the information provided is questionable: in many cases, it is unclear why content was removed because intermediary services use generic references to general terms. The main conclusions of this chapter for the dissertation are that intermediary services largely moderate based on their own terms and conditions, and that the degree of knowledge sharing between actors is largely determined by the extent to which intermediary services provide knowledge.\n\nChapter III focuses on the liability exemption enjoyed by intermediary services under the DSA. The academic consensus is that this has not changed since the e-Commerce Directive and that the due diligence obligations in the DSA should be seen as separate from the liability exemption. Chapter III argues that this conclusion can be nuanced. Compared to the e-Commerce Directive, a higher degree of diligence can indeed be expected in some cases, which could potentially exclude intermediary services from the liability exemption. A stricter interpretation of the liability exemption could, in some cases, better enable victims of illegal content to hold the intermediary service liable for hosting illegal content. This stricter interpretation could serve as an encouragement to facilitate better notice-and-action mechanisms, sharpen moderation practices against illegal content, and achieve a better balance between the interests of the intermediary service and the injured party. Freedom of expression, as interpreted by the European Court of Human Rights (ECHR), does not necessarily oppose this interpretation. Nor would this interpretation be unsupported by the DSA. Article 16 stipulates that hosting services must offer an easily accessible and user-friendly notice-and-action mechanism. Not offering such a mechanism disrupts the possibilities for holding hosting services liable. To prevent a dysfunctional mechanism from being beneficial, a hosting service that evades the obligations of Article 16 could be excluded from the liability exemption. The same applies to online platforms that structurally evade the obligations of Article 23 DSA. Article 23 obliges online platforms to block users who frequently upload manifestly illegal content. If an online platform fails to do so, it does not act in good faith and can thus be excluded from the Article 6 DSA liability exemption. The chapter also argues that with tightened due diligence obligations regarding manifestly illegal, terrorist, and child abuse content, the bar can be lowered compared to the e-Commerce Directive for factual assessment of whether a hosting service is aware of illegal content and is thus obliged to remove it. This could also lead to the exclusion from the liability exemption of actors acting in bad faith. The chapter argues that intermediary services must thus provide a greater degree of accountability for how they set up their content moderation processes.\n\nChapter IV focuses on a specific aspect of the liability issue: the notice-and-action mechanism. This mechanism plays a key role in holding hosting services liable for illegal content and allows users to make their preferences known and influence content moderation. The chapter uses an empirical walkthrough to examine how AliExpress, TikTok, Twitch, and X shape their notice-and-action mechanisms, whether this complies with the requirements of Article 16 DSA, and whether this affects the potential liability of hosting services. The research shows that these intermediary services design their notice-and-action mechanisms differently, often tailored to the service they offer. The chapter also shows that there are major differences in easy accessibility between intermediary services. This is because notice-and-action mechanisms for the DSA are often strongly interwoven with mechanisms used for violations of general terms, even though the DSA makes\u2014and requires\u2014a sharp distinction between them. This strong interweaving can also lead users to report content outside the Article 16 mechanism. The chapter concludes that the design of existing mechanisms can be misleading for users. Moreover, the design influences liability for potential illegal content, especially since mechanisms for reporting content under terms and conditions often do not provide the opportunity to offer insight into why certain content is deemed illegal. If users do not provide sufficient explanation for the qualification of content as 'illegal,' hosting services do not have to remove it. The chapter further shows that compliance with Article 16 is varied and that there is room for improvement among several intermediary services. Because notice-and-action mechanisms are an important way for users to make their preferences known\u2014and thus contribute to content moderation and the weighing of freedom of expression\u2014stricter enforcement of Article 16 is necessary.\n\nChapter V explores Article 22 DSA, which concerns trusted flaggers. Trusted flaggers can be state or non-state entities, such as NGOs, ministries, regulators, or the police. Trusted flaggers have a privileged position in the content moderation process; their notifications must be treated with priority and without delay. Trusted flaggers primarily operate in a bilateral relationship with the online platform, leading to opacity in their actions. Additionally, online platforms likely feel pressure to follow removal requests from trusted flaggers due to their privileged position. This can lead to the removal of legal content, putting pressure on freedom of expression. Due to the opacity of their operations, this can be difficult to correct. Article 22 DSA formalizes this process. Trusted flaggers are appointed by the national digital services coordinator. Their status gives them access to all online platforms\u2014not just those with which they have a bilateral relationship. Article 22 also makes the framework in which trusted flaggers operate more transparent. They may only notify online platforms of illegal content, meaning they must operate within the limits of national and EU legislation. Furthermore, they are expected to report on all their notifications, which counters excessive use of their privileges. This addresses part of the criticism regarding the original trusted flagger framework. Regulation via Article 22 DSA also raises questions. Trusted flaggers are appointed by national authorities and often use national law. The provision contains few safeguards to ensure that national law is not rolled out across the Union, which could also put pressure on freedom of expression. To combat these risks, the chapter advocates for a harmonized portal that trusted flaggers use to report content. Another weak point of Article 22 DSA is that it is unclear what the independence requirement means in the appointment of trusted flaggers. Although intended to prevent financial flows from intermediary services, in practice, trusted flaggers are often financially dependent on them. The chapter suggests that the European Commission could facilitate trusted flaggers receiving fair financial compensation to support their task in countering illegal content.\n\nChapter VI examines how enforcement by digital services coordinators relates to freedom of expression. Digital services coordinators are national supervisors of DSA compliance. In their supervisory role, they can potentially have a major impact on freedom of expression on the internet; they may sanction content moderation practices, fine intermediary services, and even block access in general. Their role perception thus has a significant influence on the accessibility of certain content and thus on freedom of expression. The enforcement structure for digital services coordinators is complex. They are intended to be independent institutions but are often housed within existing regulators, such as media and consumer authorities. This fragments the supervisory landscape in Europe. This is problematic because the jurisdiction of a digital services coordinator does not extend beyond the intermediary services established within national borders. A complicating factor is that digital services coordinators share their enforcement task with the European Commission, which is authorized to oversee and enforce regarding Very Large Online Platforms and Search Engines. This means cooperation is required. Cooperation in cross-border issues and within the Union raises problems. The first problem is that the illegality of content is determined by both national and EU law. While there is some agreement within the EU on what is illegal, member states' views differ sharply in some areas. The Hungarian anti-LGBTQ+ laws are a striking example. Although the illegality of certain expressions must also be tested against the Charter, it is unclear whether supervisors are capable of making this assessment properly, let alone whether intermediary services do so themselves. This potentially puts freedom of expression under pressure. A second problem is that the jurisdictional structure of the DSA causes enforcement to concentrate in a small number of member states, particularly Ireland and the Netherlands. Many complaints must be handled by the Irish or Dutch supervisor, which can cause operational bottlenecks. Freedom of expression on the internet can come under pressure when national supervisors become overwhelmed. A final complication in the DSA enforcement structure is that national enforcement strategies can vary widely, specifically due to digital services coordinators being housed within supervisors from different legal fields. This applies even more when resources are lacking in smaller member states. This too can put the protection of freedom of expression at risk. The chapter concludes that thought must be given to mechanisms through which supervisors can be forced into action, horizontal preliminary procedures between member states to test interpretations of national law, and redistribution of the supervisory fee from Article 43 DSA to support small member states. In this way, freedom of expression can be less pressured during the enforcement of the DSA by digital services coordinators.\n\nChapter VII focuses on the interference of state actors in content moderation. When a state actor without formal authority exerts pressure on intermediary services to moderate certain types of content, this can be seen as jawboning. Jawboning is a term used in (predominantly American) literature to describe how an actor tries to achieve a policy goal outside their authority by exercising (informal) pressure on private actors. When this is done to influence content moderation, it clashes with freedom of expression. After all, restrictions on freedom of expression must be justified, meaning they must have a legal basis, pursue a legitimate goal, and be proportional and necessary. This cannot be tested as a whole when the restriction occurs informally. A current example of jawboning in content moderation is guidelines such as the code of conduct against hate speech. In principle, such guidelines and codes of conduct are proposed as forms of self- or co-regulation. However, a legislator often strongly encourages private actors to participate, facilitates negotiations, or even threatens far-reaching legislation to achieve the policy goals underlying the codes. This is also evident with the code of conduct against hate speech. The Commission explicitly indicated that if the code were not sufficiently complied with, stricter legislation could be expected. It steered toward more proactive measures against hate speech. Such an approach clashes with freedom of expression, particularly because the boundaries of hate speech are vague and highly context-sensitive. Encouragement toward more proactive moderation can lead to unnecessary restrictions on users' freedom of expression. This would then be the result of the Commission's actions, which should be tested against the ECHR and the Charter. However, this is difficult because it often involves informal pressure. The chapter therefore calls for transparency regarding state actors' input in co- or self-regulatory processes, so their actions can be better tested.\n\nChapter VIII brings together the findings of the different chapters. It outlines how the interactions created by the DSA between the various actors involved can create tensions and that it is unclear how freedom of expression is weighed in content moderation processes. In terms of Caplan's theory on shared platform governance, this means that while all actors have influence on content moderation, it remains unclear how this influence relates to the weighing of freedom of expression. Based on the suggestions made in the individual articles, the chapter calls for a strengthening of the possibilities and obligations of individual actors to provide accountability for their role in content moderation processes. It also needs to be clarified how their input influences freedom of expression. Besides these improvements, it is necessary to create clarity about what the DSA can and cannot achieve, thereby ensuring it does not become a Swiss army knife without a legal basis. Only in this way can sustainable implementation and enforcement of the DSA be guaranteed.","auteur":"Jacob van de Kerkhof","auteur_slug":"jacob-van-de-kerkhof","publicatiedatum":"29 mei 2026","taal":"NL","url_flipbook":"https:\/\/ebook.proefschriftmaken.nl\/ebook\/jacobvandekerkhof?iframe=true","url_download_pdf":"https:\/\/ebook.proefschriftmaken.nl\/download\/b37ccb79-5190-425b-820e-a0181fa9e723\/optimized","url_epub":"","ordernummer":"18928","isbn":"","doi_nummer":"","naam_universiteit":"Universiteit Utrecht","afbeeldingen":14799,"naam_student:":"","binnenwerk":"","universiteit":"Universiteit Utrecht","cover":"","afwerking":"","cover_afwerking":"","design":""},"_links":{"self":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/14797","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio"}],"about":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/types\/us_portfolio"}],"author":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/comments?post=14797"}],"version-history":[{"count":1,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/14797\/revisions"}],"predecessor-version":[{"id":14800,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio\/14797\/revisions\/14800"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/media\/14798"}],"wp:attachment":[{"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/media?parent=14797"}],"wp:term":[{"taxonomy":"us_portfolio_category","embeddable":true,"href":"https:\/\/www.proefschriftmaken.nl\/en\/wp-json\/wp\/v2\/us_portfolio_category?post=14797"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}