Normatieve logica en rechtsfilosofie

De rol van normatieve logica in de beoordeling van AI-beslissingen in 2026

Jaap Hage Jaap Hage
· · 8 min leestijd

Stel je voor: je krijgt een brief van de belastingdienst, je hypotheek wordt afgewezen, of je medische diagnose wordt gesteld door een algoritme. Dit is in 2026 geen science fiction meer, maar de dagelijkse realiteit.

Inhoudsopgave
  1. Waarom traditionele regels niet meer werken
  2. Wat is normatieve logica?
  3. Normatieve logica in de praktijk
  4. Uitdagingen en kritiek
  5. De toekomst van AI-governance
  6. Veelgestelde vragen

Kunstmatige intelligentie (AI) is overal. Van de financiële wereld tot de zorg en de rechtbank. Maar hoe weten we zeker dat deze systemen eerlijk en correct handelen?

Hier komt normatieve logica om de hoek kijken. In 2026 is dit de dominante manier geworden om AI-beslissingen te controleren en te beoordelen.

Laten we eens kijken wat dit precies is en hoe het werkt.

Waarom traditionele regels niet meer werken

Vroeger dachten we dat we AI konden controleren met simpele regels. We maakten wetten over data en privacy, zoals de bekende AVG. In Nederland hadden we de Wet bescherming persoonsgegevens (Wbp).

Deze wetten waren een goed begin, maar ze schoten in 2026 te kort. Waarom?

Omdat AI-systemen vaak een 'black box' zijn. We zien de invoer (data) en de uitvoer (beslissing), maar het proces ertussen is vaak onduidelijk.

De Europese AI-Verordening, die in 2024 definitief werd ingevoerd, bracht hier verandering in. Deze verordening classificeert AI-systemen op basis van risico. Denk aan 'laag risico' (een spamfilter) tot 'hoog risico' (een systeem dat straffen oplegt in de rechtbank).

Hoogrisico-systemen moeten voldoen aan strenge eisen. Maar zelfs met deze eisen bleef er een gat zitten: hoe beoordeel je de morele kwaliteit van een beslissing?

Een systeem kan technisch correct werken, maar moreel verkeerd zijn. Daarom is de focus in 2026 verschoven van "wat mag wettelijk" naar "wat is moreel correct".

Wat is normatieve logica?

Normatieve logica is een formele methode om morele principes toe te passen op AI-beslissingen. Het is ontwikkeld door onderzoekers van het Amsterdamse instituut EthosAI.

Het idee is simpel: we vertalen ethische regels naar wiskundige formules. Deze formules controleert een computer automatisch.

Het proces werkt in een paar stappen: Het resultaat is een 'morele score'. Een score van 100% betekent dat de AI volledig ethisch handelt.

  1. Context definiëren: Wat is de situatie? Bijvoorbeeld: een bank die een lening goedkeurt.
  2. Morele principes identificeren: Welke waarden tellen hier? Eerlijkheid, privacy, autonomie.
  3. Regels opstellen: Deze principes worden omgezet in concrete regels. Bijvoorbeeld: "Een beslissing mag niet discrimineren op basis van leeftijd."
  4. Controleren: Een logische engine berekent of de AI-beslissing voldoet aan deze regels.

Een lage score betekent dat er een moreel probleem is. Een belangrijk onderdeel is conflictresolutie. Soms botsen regels.

Bijvoorbeeld: privacy versus veiligheid. Normatieve logica gebruikt een 'ethische prioriteitsladder' om te bepalen welke regel zwaarder weegt.

Normatieve logica in de praktijk

In 2026 wordt normatieve logica op veel plekken gebruikt. Hier zijn drie concrete voorbeelden.

In de rechtbank gebruikt het Openbaar Ministerie het platform JustiAI. Dit systeem beoordeelt AI-beslissingen over strafmaat. Het controleert of de straf eerlijk is en of er geen bias in de data zit.

Rechtspraak: het JustiAI platform

Als de morele score onder een drempel valt, grijpt een menselijke rechter in.

In 2026 is de gemiddelde morele score voor strafmaatbepalingen in Nederland 87%. Dit toont aan dat AI helpt, maar dat menselijk toezicht essentieel blijft. Het Leids Universitair Medisch Centrum (LUMC) gebruikt het MedAI systeem.

Gezondheidszorg: het MedAI systeem

Dit systeem beoordeelt AI-gestuurde diagnoses. Het kijkt naar de voorgestelde behandeling en de risico's voor de patiënt.

De morele score bepaalt of een behandeling ethisch verantwoord is. Sinds de invoering is het aantal onethische behandelingen met 15% gedaald.

Financiën: CrediAI bij ABN AMRO

Dit betekent minder risico's voor patiënten en meer vertrouwen in de zorg. In de financiële sector gebruikt ABN AMRO het platform CrediAI. Dit systeem past normatieve logica toe bij het toewijzen van kredietlimieten. Het analyseert niet alleen financiële data, maar ook sociaal-economische achtergronden.

De morele score zorgt ervoor dat kredieten eerlijk worden toegekend. Sinds 2026 is het aantal onterecht geweigerde kredieten met 10% gedaald. Dit helpt bij het voorkomen van financiële uitsluiting.

Uitdagingen en kritiek

Hoewel normatieve logica veel voordelen biedt, is het niet perfect. Er zijn serieuze uitdagingen.

Bias in morele principes

Normatieve logica is gebaseerd op waarden en normen. Maar wie bepaalt welke normen gelden? Morele principes kunnen subjectief zijn.

Ze kunnen bepaalde groepen in de samenleving benadelen. Organisaties zoals het onafhankelijke BiasWatch monitoren dit.

Technische complexiteit

Ze streven naar een diversere en inclusievere set van morele regels. Zonder deze controle kan normatieve logica bestaande ongelijkheden versterken.

Het implementeren van normatieve logica is lastig. Het vereist gespecialiseerde kennis. Software zoals de EthosAI-Core is krachtig, maar niet voor iedereen toegankelijk. Bedrijven moeten experts inhuren om deze systemen te bouwen en onderhouden.

Rigide ethiek?

Er is een groeiende behoefte aan gebruiksvriendelijkere tools. Sommige critici vragen zich af of normatieve logica te star is.

Kan een computer echt ethisch oordelen? Of leidt dit tot 'ethische stikstof', waarbij systemen te rigide worden en geen rekening houden met menselijke nuance? Het is een filosofische discussie die in 2026 nog steeds gaande is.

De toekomst van AI-governance

De toekomst van normatieve logica is in 2026 niet langer een experiment. Het is een vast onderdeel geworden van AI-governance.

Het biedt een gestructureerde manier om AI-beslissingen te beoordelen. Maar het is geen magische oplossing.

  • Transparantie blijven eisen van AI-ontwikkelaars.
  • Investeren in toegankelijke tools voor normatieve logica.
  • Samenwerken over sectoren heen om morele principes te verfijnen.

Het vereist continue evaluatie en verbetering. Om de impact te maximaliseren, moeten we: De toekomst van AI hangt af van onze capaciteit om systemen te bouwen die niet alleen slim zijn, maar ook wijs. Normatieve logica is een stap in de goede richting, maar de reis is nog lang.

Veelgestelde vragen

Wat is normatieve logica en hoe verschilt het van eerdere regelgeving?

Normatieve logica is een nieuwe methode om AI-beslissingen te controleren, waarbij ethische principes worden omgezet in wiskundige formules. In tegenstelling tot eerdere wetten zoals de AVG, die vooral gericht waren op data en privacy, beoordeelt normatieve logica nu de morele kwaliteit van een beslissing, zelfs als deze technisch correct is.

Hoe werkt het proces van normatieve logica in de praktijk?

Het proces begint met het definiëren van de context van een beslissing, het identificeren van relevante ethische principes, het opstellen van concrete regels en vervolgens het controleren of de AI-beslissing aan deze regels voldoet. Een lage score duidt op een moreel probleem, en de logische engine kan conflicten tussen regels oplossen met behulp van een ethische prioriteitsladder.

Waarom is normatieve logica in 2026 de dominante manier om AI-beslissingen te beoordelen?

Omdat traditionele regels, zoals de AVG, niet voldoende waren om de morele kwaliteit van AI-beslissingen te waarborgen. AI-systemen zijn vaak 'black boxes', waardoor het moeilijk is om te beoordelen of een beslissing moreel correct is. Normatieve logica biedt een formele en objectieve manier om dit te beoordelen.

Wat zijn de belangrijkste uitdagingen bij het toepassen van normatieve logica op AI-beslissingen?

Een van de grootste uitdagingen is het omgaan met conflicterende ethische principes. Normatieve logica gebruikt een 'ethische prioriteitsladder' om te bepalen welke waarde voorrang krijgt in een bepaalde situatie, wat inherent subjectief kan zijn en tot discussie kan leiden.

Hoe verhoudt normatieve logica zich tot de Europese AI-Verordening?

De Europese AI-Verordening classificeert AI-systemen op basis van risico, met strenge eisen voor hoogrisico-systemen. Normatieve logica vult deze verordening aan door een formele methode te bieden om de morele kwaliteit van beslissingen te beoordelen, waardoor een meer holistische benadering van AI-regulering mogelijk wordt.


Jaap Hage
Jaap Hage
Hoogleraar Rechtsfilosofie en Juridische Argumentatie

Jaap Hage is een gerenommeerd hoogleraar in de rechtsfilosofie aan de Universiteit Maastricht.

Meer over Normatieve logica en rechtsfilosofie

Bekijk alle 28 artikelen in deze categorie.

Naar categorie →
Lees volgende
Wat is normatieve logica en wat heeft het te maken met het recht
Lees verder →