Stel je voor: je solliciteert naar een gave baan. Je cv is perfect, je ervaring sluit naadloos aan.
▶Inhoudsopgave
Toch hoor je niets. Later ontdek je dat een algoritme je heeft afgewezen. Niet omdat je niet gekwalificeerd bent, maar omdat het systeem denkt dat mensen met een achtergrond zoals de jouwe minder passen.
Dit scenario is in 2026 helaas nog steeds realiteit, maar het debat erover is veranderd.
Het gaat niet meer alleen over techniek. Het gaat over een diepe kloof in ons denken, een filosofisch probleem dat nu hard toeslaat in de tech-wereld: de is-ought kloof. Deze kloof gaat over het verschil tussen wat is (de feitelijke data) en wat zou moeten zijn (morele idealen).
In 2026 zorgt dit voor flinke spanning in het algoritmische discriminatiedebat. We weten dat algoritmen bias hebben, maar we kunnen het niet eens worden over wat een goed algoritme eigenlijk is. Laten we duiken in hoe deze kloof ons denken over AI en discriminatie beheerst.
Van technische fix naar moreel dilemma
Voor 2025 was het verhaal redelijk simpel. Algoritmen zijn biased omdat ze getraind zijn op data uit onze oneerlijke geschiedenis. De oplossing? Techniek verbeteren.
Bedrijven als Google, Microsoft en Amazon investeerden miljarden in explainable AI (XAI) en fairness-metrics. Tools zoals de AI Fairness Checklist werden het standaardmiddel om bias te meten. De gedachte was: als we de techniek maar genoeg bijstellen, lossen we het probleem op.
Maar in 2026 is de stemming omgeslagen. De techniek is beter geworden, maar het probleem blijft. Waarom?
De complexiteit van moderne AI
Omdat we nu tegen de grenzen van de is-ought kloof aanlopen. Het is makkelijk om te meten of een algoritme bias vertoont (de is-situatie), maar extreem moeilijk om te bepalen hoe een algoritme zou moeten handelen om eerlijk te zijn (de ought-situatie). Neem de ontwikkeling van generatieve AI en grote taalmodellen (LLM’s).
Deze systemen zijn zo complex dat ze vaak ‘black boxes’ blijven, zelfs voor hun makers. In 2026 gebruiken we deze modellen voor belangrijke beslissingen, zoals het screenen van sollicitanten of het beoordelen van kredietaanvragen.
Een algoritme kan technisch gezien ‘gelijke kansen’ bieden (bijvoorbeeld door identieke scores te geven), maar toch onrechtvaardig zijn omdat het de onderliggende sociale ongelijkheid negeert.
De vraag is niet langer alleen: “Is deze output biased?” maar “Is deze output rechtvaardig?” Dat is een normatieve vraag, geen technische. En hier botst de is-wereld van data met de ought-wereld van ethiek.
Hoe de is-ought kloof het debat verdeelt
In 2026 zien we drie hoofdoorzaken van de groeiende kloof in het algoritmische discriminatiedebat. Er bestaat niet één definitie van eerlijkheid.
1. De strijd om de definitie van ‘eerlijkheid’
In tech-land draait het vaak om wiskundige definities zoals demografische pariteit (gelijke verdeling van uitkomsten over groepen) of gelijke kansen (gelijke foutpercentages per groep).
Maar deze definities sluiten elkaar vaak uit. Je kunt niet altijd beide tegelijkertijd optimaliseren. Stel je voor: een algoritme voor huurtoewijzing.
Volgens de is-data zijn er historische patronen waarin bepaalde groepen vaker een huis kregen. Als je het algoritme nu programmeert om exact dezelfde acceptatiepercentages te garanderen voor elke groep (demografische pariteit), moet je misschien kandidaten met een betere financiële status afwijzen om de cijfers te halen. Is dat eerlijk? De een zegt ja, de ander zegt nee. Dit is de ought-discussie die nu centraal staat.
2. De rol van historische context
Algoritmen kijken naar het verleden om de toekomst te voorspellen. Maar wat als het verleden vol onrechtvaardigheid zit?
De is-ought kloof wordt pijnlijk duidelijk bij systemen zoals het COMPAS-systeem (oorspronkelijk ontwikkeld voor recidivevoorspelling), dat in 2026 nog steeds wordt besproken als voorbeeld van hoe data kan discrimineren. De is-data laat zien dat bepaalde groepen vaker worden gearresteerd.
Een algoritme dat hierop traint, zal deze groepen als ‘risicovoller’ labelen. Maar de ought-vraag is: moeten we deze data wel gebruiken? Als we weten dat het justitiële systeem zelf bias heeft, is het dan moreel correct om een algoritme te bouwen op deze onbetrouwbare basis?
In 2026 pleiten steeds meer organisaties, zoals de EU Digital Rights Agency, voor een ‘historisch bewuste’ benadering, maar de vertaling van is-ought naar digitale grondrechten blijft een struikelblok.
3. Politieke polarisatie en regulering
De discussie is niet meer voorbehouden aan tech-experts. In 2026 is algoritmische discriminatie een politiek strijdpunt geworden. Aan de ene kant heb je de techno-optimisten die geloven dat AI de menselijke bias kan uitschakelen door objectieve data.
Aan de andere kant staan de techno-skeptici die waarschuwen dat AI bestaande ongelijkheden cementeert. Deze polarisatie maakt regulering moeilijk.
Wetgevers proberen regels te maken voor ‘eerlijke algoritmen’, maar ze lopen vast op de ought-vraag: wat is eerlijk genoeg?
Bedrijven zoals Meta en Amazon lobbyen voor flexibele regels, terwijl burgerrechtenorganisaties eisen dat algoritmen streng worden getoetst op morele waarden, niet alleen op technische prestaties.
Concrete voorbeelden van de kloof in 2026
Laten we kijken naar twee sectoren waar de is-ought kloof voelbaar is. Veel bedrijven gebruiken in 2026 nog steeds AI om sollicitanten te filteren.
Sollicitalgoritmes en de mythe van de ‘competente’ kandidaat
De is-logica is simpel: train het model op de cv’s van de beste werknemers uit het verleden.
Het algoritme leert patronen herkennen. Maar wat als de beste werknemers uit het verleden vooral blanke mannen waren? Het algoritme (bijvoorbeeld een tool van IBM Watson of LinkedIn) gaat dan patronen herkennen die niet met competentie te maken hebben, maar met geslacht of afkomst.
De zorg: Algoritmes versus menselijk oordeel
De technische oplossing is om deze variables eruit te halen. Maar de ought-vraag blijft: hoe zorg je ervoor dat het algoritme niet alleen ‘niet discrimineert’, maar actief bijdraagt aan diversiteit? Sommige bedrijven passen nu affirmative action toe in hun code, wat zorgt voor nieuwe discussies over eerlijkheid tegenover meritocratie. In de zorg worden algoritmen gebruikt om diagnoses te stellen of zorgkosten te bepalen.
De is-data is duidelijk: bepaalde groepen hebben vaker last van specifieke aandoeningen.
Maar de ought-vraag is: hoeveel gewicht moet je geven aan risicofactoren die samenhangen met armoede of leefstijl? Als een algoritme in 2026 voorspelt dat iemand uit een lage SES-wijk een hogere kans op complicaties heeft, is het dan eerlijk om deze persoon meer te laten betalen of minder snel te behandelen?
De techniek zegt ‘ja, de data ondersteunt dit’, maar de ethiek zegt ‘nee, dit is discriminatie op basis van omstandigheden’. Dit is een perfect voorbeeld van hoe de kloof tussen feit en norm praktische problemen oplevert.
Waar gaat het heen? De toekomst van rechtvaardige AI
De terugkeer van de is-ought kloof in 2026 betekent dat we een keuze moeten maken. Willen we AI die alleen maar de status quo weerspiegelt, of willen we AI die helpt bij het bouwen van een betere samenleving? Er is een groeiende beweging van algoritme-auditoren en ethische adviseurs die bedrijven helpen bij het navigeren door deze kloof.
Zij pleiten niet meer voor alleen maar ‘technische fixes’, maar voor een integrale aanpak waarbij waarden centraal staan.
Dit betekent dat developers, ethici en beleidsmakers samen moeten werken. Een mogelijke oplossing die in 2026 opkomt, is het toepassen van de is-ought redenering op woonrecht en het concept van ‘value-sensitive design’.
Hierbij worden morele waarden al in de ontwerpfase van een algoritme ingebouwd, in plaats van achteraf als ‘bias’ te corrigeren. Dit is moeilijk en tijdrovend, maar het is de enige manier om de kloof te dichten. Uiteindelijk gaat het om erkenning.
We moeten accepteren dat algoritmen nooit neutraal zijn. Elke code is een product van menselijke keuzes, gebaseerd op data die de wereld beschrijft zoals die is, niet zoals die zou moeten zijn.
De uitdaging voor 2026 en daarna is om deze kloof te overbruggen door bewuste, morele keuzes te maken in hoe we technologie inzetten. De is-ought kloof in ethische debatten is geen probleem dat we kunnen ‘oplossen’ met een simpele update. Het is een spiegel die ons laat zien hoe we denken over rechtvaardigheid, technologie en de toekomst. En in 2026 is het tijd om goed in die spiegel te kijken.