Agent-modus, computer-use, AI die zelf actie onderneemt
Modellen die op je pc kunnen klikken of mails sturen zijn productief en risicovol. De controle hangt af van wat je hem laat doen.
Probeer dit eerst zelf
- 1Begin met read-only acties. Een agent die 'kijk in mijn agenda en stel drie tijdsloten voor' kan doen is veiliger dan een agent met send-mail-recht.
- 2Acties met externe impact (mail sturen, bestellen, betalen) altijd door gebruiker bevestigen. Een 'YES'-knop is een goedkope rem.
- 3Houd een log van wat de agent heeft gedaan en review het de eerste maand wekelijks. Drift komt langzaam en pakt je later.
- 4Test op een sandbox-account voor je een agent op een hoofd-mailbox laat los. Eén ronde 'mail naar iedereen' doe je niet zomaar terug.
- 5Houd de scope smal. Een agent die een specifiek formulier invult werkt beter dan een agent die 'alles op je computer kan'. Dat laatste is ook qua security een rampscenario.
Wanneer ons inschakelen
Een agent deed iets dat hij niet had moeten doen: stop hem, log behouden, mail ons. Deze klasse incidenten wordt belangrijker in 2026.
Zie ook
- Mag ik een klantbestand of mail in ChatGPT plakken?Hangt af van het account en de instellingen. Een gratis ChatGPT en een Team-tenant gedragen zich anders dan veel mensen denken.
- Ik wil één pagina AI-beleid voor mijn teamEen echte one-pager werkt beter dan een dik document dat niemand leest. Vier kopjes en concrete voorbeelden.
- Hoe weet ik of een AI-antwoord verzonnen is?Modellen klinken zelfverzekerd, ook als ze fout zijn. Een paar vaste checks vangen de meeste fouten af.
Past het bovenstaande niet?
Beschrijf je situatie hieronder. We sturen jouw input plus de stappen die je al zag naar onze AI en geven gericht vervolg-advies. Als het te risicovol is om zelf te doen, zeggen we dat ook.
Of doe het helemaal niet zelf
Onze Managed IT-klanten zoeken dit soort vragen niet op. Eén aanspreekpunt, vaste prijs per maand, en het is binnen werktijd opgelost.