De is-ought kloof in het recht

Hoe de is-ought kloof speelt bij AI-regulering in 2026

Jaap Hage Jaap Hage
· · 8 min leestijd

Stel je voor: het is 2026. AI is niet meer iets waar we over praten in sciencefiction films, het is overal om ons heen. Van de muziek die je hoort tot de route die je auto kiest, kunstmatige intelligentie bepaalt steeds meer van onze dagelijkse realiteit.

Inhoudsopgave
  1. De harde realiteit van AI in 2026
  2. De AI-wet: proberen te regelen wat er is
  3. De kloof tussen de wet en de praktijk
  4. De toekomst: hoe overbruggen we de kloof?
  5. Veelgestelde vragen

Maar terwijl de technologie met sprongen vooruitgaat, worstelen we met een eeuwenoud filosofisch probleem: het verschil tussen wat is en wat er zou moeten zijn.

Dit wordt de ‘is-ought’ kloof genoemd. In dit artikel duiken we in hoe deze kloof de AI-regulering in 2026 vormgeeft en wat dat betekent voor jou en mij.

De harde realiteit van AI in 2026

De wereld van AI in 2026 is er een van immense mogelijkheden, maar ook van complexiteit.

Laten we eens kijken naar een paar concrete voorbeelden van wat er is. De tijd dat AI alleen cijfers verwerkte, is voorbij. Generatieve AI is de norm.

Generatieve AI en de 'Nexus' suite

Een sprekend voorbeeld is de ‘Nexus’ suite van QuantumLeap Technologies. Dit systeem beheert niet alleen marketingcampagnes, maar creëert ook productontwerpen en zelfs muziek.

Voor kleine bedrijven is deze krachtige tool nu betaalbaar: de prijs is gedaald naar €15.000 per jaar.

Alomtegenwoordige 'Cognitive Assistants'

Grote spelers zoals OmniCorp en Stellar Dynamics gaan nog verder met hun eigen gespecialiseerde platforms, die tussen de €100.000 en €500.000 per jaar kosten. Het is een markt die explodeert. Thuis en op kantoor zijn 'Cognitive Assistants' (CA's) niet meer weg te denken. Een bekende is ‘Aether’ van Nova Solutions.

Voor een basisprijs van €800 beheert Aether je agenda, beantwoordt e-mails en geeft realtime feedback op je werk. Deze assistenten zijn zo geavanceerd dat ze een integraal onderdeel van ons leven zijn geworden.

Autonoom rijden en medische doorbraken

De autosector ziet er ook anders uit. Dankzij de ‘AutonomyDrive’-technologie van Vector Motors rijdt in de VS inmiddels 35% van alle nieuwe auto's autonoom; in Europa is dat 22%. Deze voertuigen navigeren zelfstandig door complex verkeer.

In de zorg heeft AI een nog grotere impact. ‘HealAI’ van BioGenesis verbetert de nauwkeurigheid van kankerdiagnoses met 15%.

Gepersonaliseerde medicatie, gebaseerd op AI-analyses, is in 2026 standaard, hoewel de initiële kosten voor een behandeling tussen de €10.000 en €25.000 liggen.

De AI-wet: proberen te regelen wat er is

Om grip te krijgen op deze explosieve ontwikkeling, heeft Europa op 2 augustus 2026 een nieuwe, omvangrijke AI-wet aangenomen. Deze wet probeert een brug te slaan tussen de huidige realiteit en een ideale, veilige toekomst.

Low, Medium, High: de risicoklassen

Het centrale idee is ‘verantwoordelijke AI’, gebaseerd op een risico-classificatiesysteem. De wet deelt AI-systemen in drie categorieën in: Een cruciaal onderdeel van de wet is de ‘Data Accountability Directive’ (DAD).

  • Low-risk: Denk aan de meeste CA’s en entertainment-tools. Deze mogen vrijwel zonder beperkingen worden ingezet.
  • Medium-risk: Systemen in de financiële sector, zoals AI voor kredietverlening. Hier gelden strenge transparantie-eisen. Bedrijven moeten uitleggen hoe hun AI tot beslissingen komt en bias tegengaan.
  • High-risk: AI in kritieke infrastructuren, defensie en justitie. Deze systemen moeten een uitgebreide audit doorstaan en krijgen alleen goedkeuring van een onafhankelijke ‘AI Ethics Board’.

Data Accountability en het recht op uitleg

Deze wet verplicht bedrijven om verantwoordelijkheid te nemen voor de data die ze gebruiken.

Data moet representatief en vrij van bias zijn. De boetes zijn fors: tot €50 miljoen of 4% van de jaaromzet. Daarnaast is er een ‘Right to Explanation’: iedereen heeft het recht om te vragen hoe een AI tot een beslissing is gekomen die hem of haar raakt.

De kloof tussen de wet en de praktijk

Hier komen we bij de kern van het verhaal: de ‘is-ought’ kloof in digitaal recht. De nieuwe wet probeert de complexiteit van AI te vangen in regels, maar de praktijk blijkt weerbarstiger.

Innovatie versus regulering

De filosoof Harry Frankfurt omschreef dit verschil tussen wat is en wat zou moeten zijn. In de AI-regulering van 2026 zien we dit dagelijks terug, waarbij de dynamiek tussen feitelijke praktijken en normatieve vorming een belangrijk spanningsveld vormt tussen vooruitgang en veiligheid.

Sommige experts, zoals Elon Musk, waarschuwen dat te strenge regels de innovatie in Europa kunnen afremmen.

De uitdaging van 'Explainability'

In een interview met Wired Magazine stelde hij in 2026 nog steeds: “We risk stifling the very technology that could solve humanity’s greatest challenges if we overregulate it prematurely.” Hij pleit voor een ‘sandbox’-benadering, waar AI-systemen in een gecontroleerde omgeving kunnen groeien zonder direct gebonden te zijn aan alle regels van de AI-wet. De wet eist transparantie, maar de technologie is soms te complex voor simpele uitleg. Zelfs met geavanceerde systemen zoals de ARE (Adaptive Reasoning Engine) van Nexus is het vaak lastig om precies te begrijpen hoe een AI tot een specifieke beslissing komt. Dit maakt het moeilijk om bias op te sporen en het ondermijnt het vertrouwen van het publiek.

De ‘AI Ethics Board’ heeft de handen vol aan het verifiëren van de claims van bedrijven over de transparantie van hun systemen. De kloof speelt ook op de arbeidsmarkt.

De arbeidsmarkt in transitie

De AI-wet stimuleert banen in de AI-sector, maar tegelijkertijd verdwijnen er veel taken door automatisering. Volgens een rapport van het ‘Future of Work Institute’ overleven banen die creativiteit, kritisch denken en emotionele intelligentie vereisen. Denk aan rollen als ‘Creative Strategist’ (gemiddeld salaris €120.000) of ‘Human-AI Collaboration Manager’ (€95.000).

Tegelijkertijd staan routinematige banen in administratie en klantenservice onder druk. De uitdaging is om mensen om te scholen naar nieuwe rollen, een complexe taak waar de huidige wetgeving nog maar beperkt op inspeelt.

De toekomst: hoe overbruggen we de kloof?

De AI-regulering van 2026 is geen eindstation. De ‘AI Ethics Board’ en de ‘European AI Oversight Committee’ werken voortdurend aan aanpassingen.

AI Auditing Standards en algoritmische accountability

De trend is duidelijk: we bewegen weg van rigide regels naar flexibele kaders die bedrijven helpen verantwoordelijke AI te bouwen. Een belangrijke ontwikkeling is de opkomst van ‘AI Auditing Standards’, gebaseerd op principes van ‘Algorithmic Accountability’ en ‘Fairness’. Organisaties zoals de ISO (International Standards Organization) werken aan standaarden die bedrijven helpen bias te detecteren en te corrigeren. Hoewel dit de kosten voor bedrijven verhoogt, vergroot het ook het vertrouwen in AI-systemen.

Uiteindelijk hangt het succes van AI-regulering af van ons vermogen om de normatieve kloof in bestuursrechtelijke beslissingen te overbruggen. Het gaat niet alleen om het opstellen van wetten, maar om een continue dialoog tussen technologie, politiek en maatschappij.

Conclusie: een continue dialoog

In 2026 staan we aan de vooravond van een nieuwe fase, waarin we moeten leren om innovatie en veiligheid in balans te brengen.

De toekomst van AI is niet alleen een technologische uitdaging, maar een maatschappelijke keuze.

Veelgestelde vragen

Hoe ziet AI er in 2026 uit?

In 2026 is AI alomtegenwoordig en transformeert het onze dagelijkse ervaringen. Generatieve AI, zoals de ‘Nexus’ suite van QuantumLeap Technologies, beheert nu taken van marketing tot productontwerp en muziekproductie, en is zelfs betaalbaar voor kleine bedrijven. Bovendien zien we steeds meer ‘Cognitive Assistants’ zoals Aether, die taken beheren en realtime feedback geven, waardoor AI een integraal onderdeel van ons leven is geworden.

Wat houdt de AI-wet van 2 augustus 2026 in?

De AI-wet van 2026 streeft naar ‘verantwoordelijke AI’ door AI-systemen in drie risicoklassen in te delen: laag, medium en hoog. De ‘Data Accountability Directive’ is een cruciaal onderdeel, waardoor exploitanten van hoog-risico AI-systemen verantwoordelijkheid moeten nemen voor hun impact, en er overgangsregelingen zijn voor systemen die eerder op de markt waren.

Welke banen zullen AI overleven?

Beroepen die menselijke empathie, fysieke behendigheid in complexe omgevingen of complex creatief oordeel vereisen, zullen waarschijnlijk niet door AI worden vervangen. Denk aan zorgverleners, vakmensen en creatieve strategen, omdat deze functies eigenschappen hebben die AI (nog) niet kan nabootsen.

Welke banen zal AI in 2030 niet kunnen vervangen?

Hoewel AI taken automatiseert, zullen beroepen die gebaseerd zijn op data-analyse en verantwoordelijkheid, zoals ethische besluitvorming, empathie en het nemen van beslissingen in onzekere situaties, in 2030 nog steeds menselijke expertise vereisen. AI zal deze rollen ondersteunen, maar niet vervangen.

Wat voorspelde Elon Musk over AI?

Elon Musk voorspelde dat humanoïde robots tegen 2040 de meerderheid zullen vormen ten opzichte van mensen. Hij gelooft dat AI en robotica de economie en ons dagelijks leven fundamenteel zullen veranderen, waardoor machines de meeste fysieke en cognitieve taken kunnen uitvoeren.


Jaap Hage
Jaap Hage
Hoogleraar Rechtsfilosofie en Juridische Argumentatie

Jaap Hage is een gerenommeerd hoogleraar in de rechtsfilosofie aan de Universiteit Maastricht.

Meer over De is-ought kloof in het recht

Bekijk alle 38 artikelen in deze categorie.

Naar categorie →
Lees volgende
Wat is de is-ought kloof en waarom is het het lastigste probleem in het recht
Lees verder →