Terug naar artikelen
Goldmund's AI Agent Framework

Goldmund's AI Agent Framework

Scott Jones - Front-end Developer & Designer

13 juni 2025

Bij Goldmund ontwikkelen we een intern framework waarmee we AI-agenten kunnen inzetten voor verschillende taken en workflows in onze klantprojecten. We hebben ervoor gekozen om dit framework intern te bouwen om maximale controle te behouden over de informatie, diensten en LLM's die onze agenten aandrijven. Deze aanpak stelt ons ook in staat om onze oplossing te implementeren op verschillende hostingdiensten en infrastructuur, afgestemd op de specifieke behoeften en vereisten van onze klanten.

In dit artikel bespreken we ons besluitvormingsproces, leggen we uit wat AI-agenten zijn en delen we onze huidige voortgang op dit gebied.

Disclaimer

Dit artikel gaat over onze interne ontwikkeling van AI-agenten en frameworks. Hoewel we onze aanpak en overwegingen delen, raden we aan om elke AI-implementatie te laten beoordelen door uw technische en juridische teams om ervoor te zorgen dat deze aansluit bij de behoeften en compliance-eisen van uw organisatie.

Ontwikkelingsstatus

Dit framework is momenteel in actieve ontwikkeling. De besproken aanpakken en implementaties kunnen evolueren naarmate we onze oplossing blijven verfijnen.

Veiligheid & Privacy

Alle implementaties van AI-agenten moeten zorgvuldig worden overwogen in termen van gegevensprivacy en veiligheid. We raden sterk aan om elke AI-implementatie te laten beoordelen door uw veiligheids- en compliance-teams.

Wat zijn AI-agenten voor ons

We beschouwen AI-agenten als tijdelijke, 'on-demand' teamleden die helpen bij het uitvoeren van geautomatiseerde redeneertaken met beperkte reikwijdte en kennis. Terwijl we traditionele validatiebenaderingen behouden om ervoor te zorgen dat gegevens aan specifieke vereisten en drempelwaarden voldoen, zetten we AI-agenten in om taken uit te voeren op de inhoud zelf.

Deze taken zijn zorgvuldig afgebakend en worden gemonitord om te voorkomen dat gevoelige informatie uitlekt en om de hallucinaties en overreach die AI-systemen typisch vertonen te beheren.

Niet elke taak vereist een AI-agent, dus bij het creëren van workflows behouden we controle over wanneer en hoe AI moet worden ingezet om organisatieprocessen te verbeteren.

Workflows met Gevoelige Informatie

Workflows met Gevoelige Informatie

AI-modellen trainen nog steeds op en behouden informatie uit prompts, wat betekent dat ze kunnen en zullen leren van de gegevens die je ze stuurt. Wat je naar AI-modellen stuurt is cruciaal en moet voldoen aan privacywetten en verplichtingen.

Laten we een voorbeeldworkflow verkennen die we bij Goldmund hebben gemaakt, waarbij we een zorgverzekeringssysteem voor claims simuleren.

Traditionele Workflow:

  1. Gebruiker dient een aanvraag in met handmatige informatie
  2. Gebruiker uploadt foto's van bonnetjes
  3. Verzekeringsmedewerker beoordeelt de handmatige informatie
  4. Medewerker voert informatie van de bonnetjes in
  5. Intern systeem en richtlijnen valideren de claim
  6. Beslissing wordt genomen en gecommuniceerd naar de gebruiker

Verbeterde AI-ondersteunde Workflow:

  1. Gebruiker dient aanvraag in met handmatige informatie
  2. Gebruiker uploadt foto's van bonnetjes
  3. Systeem (niet-AI) anonimiseert de claiminformatie
  4. AI analyseert claiminhoud tegen gebruikersdekking voor eerste beoordeling
  5. Systeem (niet-AI) anonimiseert bonnetjesgegevens, extraheert alleen factuurinformatie
  6. AI verwerkt de gesanitiseerde bonnetjesgegevens en vergelijkt deze met dekking
  7. AI vult het systeem met geëxtraheerde informatie
  8. Verzekeringsmedewerker beoordeelt AI-samenvatting en bonnetjes voor finale beoordeling
  9. Beslissing wordt genomen en gecommuniceerd naar de gebruiker

Hoewel deze workflow meer stappen heeft, is veel ervan geautomatiseerd, zowel met als zonder AI. De verzekeringsmedewerker kan zich meer richten op de inhoud van de claim in plaats van administratie. We controleren zorgvuldig welke informatie de AI bereikt, houden het beperkt en afgebakend om ervoor te zorgen dat geen persoonlijke gegevens worden blootgesteld. De medewerker behoudt de uiteindelijke beslissingsbevoegdheid terwijl AI assisteert bij niet-gevoelige taken en voorlopige beoordelingen.

Complexe Iteratieve Workflows

Complexe Iteratieve Workflows

Naast lineaire workflows hebben we complexere systemen ontwikkeld waarbij AI suggesties kan doen, verbeteringen kan aanbrengen of kan itereren over workflow-aspecten.

TV & Omroep Workflow:

  1. Gebruiker dient een TV-voorstel in
  2. Systeem (niet-AI) valideert volledigheid van informatie
  3. AI 'Review' Agent analyseert het voorstel:
    • Controleert op bestaande vergelijkbare shows
    • Identificeert potentiële auteursrechtkwesties
    • Vergelijkt met vergelijkbare shows en hun kijkcijfers
    • Valideert categorisering
    • Biedt verbeteringssuggesties
  4. Indien nodig verfijnt de 'Iteration Agent' het voorstel:
    • Past titels en karakternamen aan
    • Werkt categorieën bij
    • Adresseert auteursrechtkwesties
    • Doorloopt het beoordelingsproces totdat criteria zijn behaald
  5. Originele en herziene voorstellen worden gepresenteerd aan gebruiker en omroep
  6. Omroep beoordeelt met verbeterde inzichten voor snellere, zelfverzekerdere beslissingen

Deze workflow maakt gebruik van meerdere AI-agenten die elkaars werk beoordelen, waardoor omroepen vanaf het begin over uitgebreide inzichten beschikken.

Een Hulpmiddel, Geen Vervanging

In dit stadium kunnen AI-agenten alleen betrouwbaar functioneren als hulpmiddelen om bestaande workflows te verbeteren. Ze zijn nog niet in staat om menselijk toezicht volledig te vervangen. Hoewel we hebben geëxperimenteerd met volledige automatisering, maken zorgen over gegevensveiligheid, informatieverwerking en de neiging van AI om te hallucineren complexe workflows onbetrouwbaar zonder menselijk toezicht.

Ons framework integreert met externe API's, ondersteunt meerdere LLM's en modellen, maakt collaboratieve iteratieve workflows mogelijk en prioriteert gebruikersinformatieveiligheid. Maar deze agenten helpen alleen nog steeds om de workflow te verbeteren, ze vervangen niet de behoefte aan menselijk toezicht en validatie.

Veiligheidszorgen

Veiligheidszorgen

AI-agenten zijn kwetsbaar voor exploits van door gebruikers ingediende gegevens of blootgestelde instructies. We hebben verschillende veiligheidsmaatregelen geïmplementeerd:

  • AI-agenten opereren op de achtergrond achter beschermde API's
  • Agenten krijgen instructies om invoergegevens nooit direct uit te voeren
  • Elke agent is beperkt tot specifieke taken en tools
  • Agenten zijn geïsoleerd om kruisbesmetting te voorkomen
  • Toegang tot informatie is strikt gecontroleerd

Deze compartimentering voorkomt dat agenten toegang hebben tot of invloed uitoefenen op andere agenten in de workflow, waardoor strikte controle over hun mogelijkheden en reikwijdte wordt gehandhaafd.

Conclusie

Vooruitblik

We blijven ons framework ontwikkelen en verfijnen, waarbij we integraties uitbreiden en onze tools verbeteren. Naarmate we vorderen, zullen we meer inzichten en updates delen over onze aanpak van AI-agenten.

Als u geïnteresseerd bent in meer informatie over Goldmund's werk met AI-agenten of het verkennen van potentiële samenwerkingen, horen we graag van u.

Wil je contact opnemen?

Vond je het artikel interessant, wil je het bespreken of manieren waarop Goldmund je zou kunnen helpen? Neem gerust contact op via een van de onderstaande methoden.

Andere Artikelen

Bezoek ons

Hoofdkantoor Groningen

Winschoterdiep 50, 9723 AB Groningen