Sla over naar inhoud

Hoe weet ik in welke EU AI Act-categorie onze AI-toepassing valt?

De AI Act kent verboden praktijken, hoog-risico-systemen, beperkt-risico (transparantie) en minimaal-risico. Inwerkingtreding loopt gefaseerd. De categorie bepaalt jouw verplichtingen.

Probeer dit eerst zelf

  1. 1Begin met de uitsluitingen. Verboden praktijken zoals social scoring door overheden of bepaalde biometrische identificatie zijn vanaf februari 2025 verboden in de EU.
  2. 2Controleer hoog-risico bijlages. Toepassingen in werving, toegang tot onderwijs, krediet-scoring, kritieke infrastructuur en sommige rechtshandhavings-tools vallen daar doorgaans onder.
  3. 3Beperkt-risico. Chatbots, gegenereerde inhoud (deepfakes) en emotie-herkenning vragen vooral transparantie naar de gebruiker.
  4. 4GPAI-modellen. Aanbieders van algemene AI-modellen krijgen vanaf augustus 2025 specifieke documentatie- en transparantieverplichtingen onder de AI Act.
  5. 5Documenteer de classificatie en beoordeling. Bij twijfel houd je de strengere categorie aan tot duidelijk is wat de toezichthouder voor jouw casus zegt.

Wanneer ons inschakelen

Bouw je iets dat richting hoog-risico tendeert, met directe gevolgen voor mensen, dan is een AI-Act-jurist en een DPIA niet optioneel.

Zie ook

Past het bovenstaande niet?

Beschrijf je situatie hieronder. We sturen jouw input plus de stappen die je al zag naar onze AI en geven gericht vervolg-advies. Als het te risicovol is om zelf te doen, zeggen we dat ook.

Wie ben je?

Voor de AI-vraag hebben we je e-mailadres en bedrijfsnaam nodig, zo kunnen we opvolgen als de AI er niet uitkomt, en voorkomt het misbruik van de tool.

Maximaal 2 vragen per uur en 5 per dag, bewust beperkt zodat de AI snel en goed blijft. Voor meer help je jezelf en ons door direct contact op te nemen.

Of doe het helemaal niet zelf

Onze Managed IT-klanten zoeken dit soort vragen niet op. Eén aanspreekpunt, vaste prijs per maand, en het is binnen werktijd opgelost.