Sla over naar inhoud
Alle cases

Development

On-premises documentverwerking voor zorg met strikte privacy-eisen

Voor zorg, overheid en bedrijven met gevoelige data: documentanalyse en classificatie zonder een byte naar overzee.

Een Nederlandse zorgaanbieder wilde dossiers laten samenvatten en bevindingen geautomatiseerd laten classificeren, maar patiëntgegevens via een buitenlandse API sturen mocht niet. We bouwden een opzet die het werk binnen hun eigen muren doet, geen lock-in, met audit-trail.

De situatie

Veel organisaties zitten met data die juridisch of contractueel niet de EU uit mag, laat staan via een derde-partij-API verwerkt mag worden. Ziekenhuizen met patiëntgegevens. Overheidsorganisaties met classified documenten. Advocatenkantoren met geheime cliëntdata. R&D-afdelingen van pharma met onderzoeksdata. Defensie-leveranciers. En een groeiende groep MKB-bedrijven die onder NIS2, AVG of sectorale regels werken.

Tegelijk hebben die organisaties wel een echte werklast: documenten samenvatten, classificeren, doorzoeken, of een interne kennis-zoekfunctie op eigen procedures. De vraag was niet "willen we automatiseren?", die was al beantwoord. De vraag was of het in eigen beheer kon tegen redelijke kosten en in een redelijke tijd.

Wat we deden

In dit traject werkten we in vijf fases over vier maanden:

Week 1-2: discovery. Welke use-cases mochten daadwerkelijk on-prem draaien (samenvatten dossiers, classificeren bevindingen, een interne kennis-chatbot voor protocollen), wie ging het gebruiken, welke kwaliteits- en privacy-eisen golden.

Week 3-5: hardware. We adviseerden tegen de "neem maar het beste" GPU-server die ze in eerste instantie wilden kopen. Voor het verwachte volume volstond een single-GPU-server met een RTX 6000 Ada (rond 18.000 euro), met een upgrade-pad voor later. Inkoop en kantoor-installatie kostten drie weken.

Week 6-7: model-selectie en benchmarking. We testten drie open-source modellen (Llama 3 70B, Qwen 3 32B, Mistral Large) op echte voorbeeld-dossiers. Qwen 3 won op kwaliteit-per-watt voor hun specifieke use-cases.

Week 8-13: applicatielaag. RAG-pipeline gebouwd met de bestaande document-stores als bron, een eenvoudige web-interface voor specialisten, en integratie met hun bestaande EPD-systeem voor "stuur deze samenvatting terug naar het dossier". Audit-logging op elke verwerking, zodat een inspecteur kan zien wat er wanneer aan welke vraag is voorgelegd.

Week 14-16: pilot, hardening, acceptatie en kennisoverdracht. Drie specialisten werkten twee weken met de pilot, gaven feedback, we tunden, en daarna ging het breder uit.

Wat het opleverde

Na vier maanden:

- 100% van de verwerking on-prem, geen byte naar overzee. - Tijd-besparing per specialist op administratie: gemiddeld 45 minuten per dag (gemeten over 12 weken pilot-periode). - Audit-trail per verwerking, eenvoudig overlegbaar bij inspectie. - Totale projectkosten: 73.000 euro (hardware + engineering). Operationele kosten: rond 2.200 euro per maand voor onderhoud, monitoring, model-updates. - Vergelijking met cloud-API's: was juridisch geen optie, dus ROI ligt in de tijd-besparing van specialisten (bij hun loonkosten verdient het zich in 8-10 maanden terug, exclusief de compliance-waarde).

Geen vendor-lock: de stack is open source. Als wij morgen weg zijn loopt het door op hun eigen hardware met hun eigen team.

Wat dit niet was

Geen "we hebben de zwaarste GPU-cluster van Nederland" vanity-build. Geen black-box waar niemand meer in kan kijken. Geen meerjaren-licentiecontract waar je niet uit komt. Wel: een gerichte opzet voor de werkelijke use-cases, met hardware die past en software die jullie team zelf kan beheren.