Welke AI mag wat met onze data?
Data-residency en training-policies verschillen per leverancier en per tier. De gratis variant is bijna nooit hetzelfde als de zakelijke.
Probeer dit eerst zelf
- 1Microsoft 365 Copilot: data binnen je tenant, EU-data Boundary beschikbaar, prompts niet gebruikt voor model-training. DPA via je M365-overeenkomst.
- 2ChatGPT Team/Enterprise: prompts beleidsmatig niet voor training, opslag standaard 30 dagen voor abuse-monitoring (configureerbaar bij Enterprise).
- 3Claude (Anthropic): zakelijke API en Claude for Work niet voor training. Hosting in VS, EU-residency afhankelijk van product en moment, controleer actueel bij Anthropic.
- 4Gemini in Google Workspace: prompts uit zakelijke accounts niet voor training, Workspace-DPA dekt het. Privé-Gemini gedraagt zich anders.
- 5Maak voor elke tool die jullie gebruiken een korte regel in je AI-policy: welke data-klasse mag erin. Beleid wijzigt jaarlijks, kalender-herinnering.
Wanneer ons inschakelen
Audit, klantvraag of due diligence over wat een specifieke tool met jouw data doet: dat vraagt een actuele check van DPA en sub-processors, daar helpen wij bij.
Zie ook
- Mag ik een klantbestand of mail in ChatGPT plakken?Hangt af van het account en de instellingen. Een gratis ChatGPT en een Team-tenant gedragen zich anders dan veel mensen denken.
- Ik wil één pagina AI-beleid voor mijn teamEen echte one-pager werkt beter dan een dik document dat niemand leest. Vier kopjes en concrete voorbeelden.
- Hoe weet ik of een AI-antwoord verzonnen is?Modellen klinken zelfverzekerd, ook als ze fout zijn. Een paar vaste checks vangen de meeste fouten af.
Past het bovenstaande niet?
Beschrijf je situatie hieronder. We sturen jouw input plus de stappen die je al zag naar onze AI en geven gericht vervolg-advies. Als het te risicovol is om zelf te doen, zeggen we dat ook.
Of doe het helemaal niet zelf
Onze Managed IT-klanten zoeken dit soort vragen niet op. Eén aanspreekpunt, vaste prijs per maand, en het is binnen werktijd opgelost.