Over keuzevrijheid, aanbevelingsalgoritmen en de Digital Fairness Act
In de Bits of Freedom-podcast van 9 januari over de aankomende Digital Fairness Act (DFA), viel voor mij één fragment in het bijzonder op. Vanaf ongeveer minuut 25:50 ging het gesprek over aanbevelingsalgoritmen — en over de vraag wie daar eigenlijk de controle over zou moeten hebben.
Beleidsadviseur Lotje Beek licht aan host Inge Wannet toe dat aanbevelingsalgoritmen de systemen zijn die bepalen wat we te zien krijgen wanneer we door apps als TikTok, Instagram of Facebook scrollen. In de praktijk gaat het daarbij vaak om geprofileerde aanbevelingsalgoritmen: sterk gepersonaliseerd, en ontworpen om gebruikers zo lang mogelijk vast te houden.
Bits of Freedom stelt dat zulke algoritmen, wanneer ze uitsluitend het platform dienen en niet de gebruiker, verboden zouden moeten worden. Tegelijk pleiten ze voor keuzevrijheid. Gebruikers zouden zélf moeten kunnen bepalen hoe content wordt gesorteerd en aanbevolen — inclusief met algoritmen die niet door het platform zelf, maar door derden zijn ontwikkeld.
Dat raakt aan een idee waar ik zelf al langer mee bezig ben.
Aanbevelingsalgoritmen sturen niet alleen wat we zien, maar ook wat we níét zien. En daarmee beïnvloeden ze informatieconsumptie, opinievorming en uiteindelijk ook democratische processen.
Deze algoritmen zijn vandaag de dag vrijwel altijd:
- ondoorzichtig,
- platform-eigendom,
- gericht op engagement en advertentie-inkomsten,
- en nauwelijks instelbaar door gebruikers.
Wat als we het algoritme loskoppelen van het platform?
Mijn insteek is simpel:
koppel de aanbevelings-logica los van het platform.
Dat kan verschillende vormen aannemen:
- een zelfstandige aanbevelingsdienst waar gebruikers gepersonaliseerde links ontdekken naar content van uiteenlopende bronnen;
- of, zodra platformen het mogelijk maken of regelgeving dat afdwingt, een keuze aan algoritmen binnen een platform.
Gebruikers zouden dan bijvoorbeeld kunnen kiezen voor:
- een chronologische feed;
- feeds op basis van populariteit of interactie;
- thematische aanbevelingen (bijvoorbeeld alleen duurzaamheid of cultuur);
- algoritmen die actief diversiteit in perspectieven nastreven;
- of zelfs heel specifieke voorkeuren zoals alleen zwart-wit video’s (een voorbeeld uit de podcast).
Open source, transparant en reproduceerbaar
Met een team van de South-Eastern Finland University of Applied Sciences werk ik momenteel aan het beschikbaar maken van een open-source aanbevelingssysteem dat gebaseerd is op collaborative filtering. Het helpt mensen gepersonaliseerde informatie te ontdekken op basis van links die zijn gedeeld door anderen met vergelijkbaar informatie-consumptiegedrag.
Belangrijke uitgangspunten daarbij:
- geen gebruik van grote taalmodellen (LLMs) of andere black-box-AI als deel van de aanbevelings-logica;
- volledig transparant en reproduceerbaar;
- geen gedragsprofilering voor advertentiedoeleinden;
- ontworpen om gebruikers te dienen, niet om aandacht te maximaliseren.
Het systeem laat zien dat gepersonaliseerde aanbevelingen prima mogelijk zijn zonder manipulatie, zonder surveillance en zonder gesloten algoritmen.
Toen ik in de podcast hoorde: “Misschien is er wel een luisteraar die denkt: ik heb wel een leuk idee”, voelde ik me vrij direct aangesproken.
Uitnodiging tot gesprek
Ik wil hier graag over in gesprek — met organisaties als Bits of Freedom, met open-source ontwikkelaars, ontwerpers en beleidsmakers die werken aan civiele technologie, democratie en digitale autonomie.
Niet omdat dit idee “af” is, maar juist omdat het verder gebracht kan worden in dialoog, experiment en samenwerking.
Wie interesse heeft om hierover door te praten, kan me bereiken via jos.schuurmans@cluetail.com.