Mijn LLM-stap geeft soms vrije tekst, soms JSON, downstream breekt
Standaard LLM-output is tekstueel en niet betrouwbaar parsebaar. Voor automatie heb je structured output nodig: JSON-mode of tool-calling. Dan is de output gegarandeerd geldig JSON met je schema.
Probeer dit eerst zelf
- 1OpenAI: zet response_format op {type: 'json_object'} of beter: 'json_schema' met een schema-definitie. Anthropic: gebruik tool-use om een schema af te dwingen.
- 2Definieer een minimaal schema: alleen de velden die je nodig hebt, met types en required-markers. Hoe strakker, hoe betrouwbaarder de output.
- 3Sluit het schema in de prompt af met expliciete instructie 'antwoord met alleen JSON, geen toelichting'. Dat dempt de overshoot bij oudere modellen.
- 4Test op edge-cases: invoer met geen relevante info, met conflicterende info, met heel lange invoer. Wat doet het model?
- 5Vang JSON.parse-fouten op met een fall-back: tweede LLM-call met de instructie 'fix dit JSON', of een hardgecodeerd default-record.
Wanneer ons inschakelen
Heb je LLM-output die je downstream wilt verwerken en bepaalde velden zijn cruciaal, dan helpt een gevalideerd schema plus assertion. Daar kunnen we mee opzetten.
Zie ook
- n8n: zelf hosten of cloud-versie nemen?Self-hosted is goedkoper bij volume en geeft data-controle. Cloud spaart je de ops weg.
- Zapier of Make: welke past beter?Zapier is rechttoe-rechtaan, Make doet complexere flows met routers en iterators voor minder geld.
- Power Automate Cloud of Desktop: wat moet ik nemen?Cloud voor SaaS-koppelingen en triggers. Desktop voor RPA op een Windows-machine met legacy-apps.
Past het bovenstaande niet?
Beschrijf je situatie hieronder. We sturen jouw input plus de stappen die je al zag naar onze AI en geven gericht vervolg-advies. Als het te risicovol is om zelf te doen, zeggen we dat ook.
Of doe het helemaal niet zelf
Onze Managed IT-klanten zoeken dit soort vragen niet op. Eén aanspreekpunt, vaste prijs per maand, en het is binnen werktijd opgelost.