Opening
Een holistische data-architectuur: van bron tot inzicht [Engelstalig]
Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
- De drie soorten IT-systemen: bronsystemen, compensatiesystemen en analysesystemen
- De positionering van datawarehouses, datalakes en datalakehouses als compensatiesystemen
- Een overzicht van de Delta data-architectuur
- Hoe bronsystemen toekomstbestendig gemaakt kunnen worden door ze te ‘wrappen’ met aanvullende modules
- Het belang van abstractie en dataminimalisatie binnen een data-architectuur
- De rol van metadata als drijvende kracht achter een moderne datawinkel.
Grounded AI in Data Warehousing: How to Make Your LLM Stop Lying [Engelstalig]
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
- Hoe u LLM’s in uw semantische laag kunt integreren.
- Hoe u tekst-naar-SQL veilig in BI-workflows kunt integreren.
- Hoe u AI-output traceerbaar en verdedigbaar kunt maken.
- Hoe u ongestructureerde documenten en gestructureerde data in één systeem kunt koppelen.
- Hoe u observatievermogen in AI kunt inbouwen, zodat u weet wanneer het systeem faalt.
Data Governance Sprint: Start Governance in Slechts Enkele Weken [Engelstalig]
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
- Begrijp waarom governance-initiatieven vaak mislukken—van gebrek aan momentum tot niet-betrokken stakeholders—en hoe een sprintaanpak deze barrières wegneemt
- Ontdek de 5-weekse Data Governance Sprint™-structuur—een getimede, herhaalbare methode om kerncomponenten van governance te ontwerpen, bouwen en valideren
- Leer praktische facilitatie-technieken om onproductieve meetings om te vormen tot impactvolle workshops die business en IT rond gedeelde doelen op één lijn brengen
- Leer om een prototype te maken en minimale governance-deliverables te testen zoals een business glossary, een lichtgewicht operating model en duidelijke data stewardship-rollen
- Ontdek praktijkvoorbeelden en lessons learned van organisaties die de sprint toepasten om adoptie te versnellen, valkuilen te vermijden en verandering duurzaam te maken
- Vertrek met een concreet actieplan om een governance-initiatief in jouw organisatie te lanceren of te herstarten, met snelle resultaten én een basis voor langetermijnsucces.
Van Hive naar Iceberg: De nieuwe generatie open table formats voor data lakes [Engelstalig]
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckLake. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
- Formats vergeleken: Diepgaande vergelijking van DuckLake, Iceberg, Hudi, Delta Lake en Hive op ACID-garanties, partitionering, query-performance en operationeel beheer
- Lessen uit de praktijk: Ervaringen uit productieomgevingen, migratiestrategieën, performance-optimalisatie en kostenoverwegingen bij petabyte-schaal
- Ecosysteem-integratie: Hoe elk format werkt met bv Spark, Flink, Trino, Dremio en DuckDB, welke cloudplatforms worden ondersteund en waar vendor lock-in dreigt
- Verborgen kosten: Operationele overhead, benodigde teamkennis en onderhoudskosten die verder gaan dan storage en compute
- Beslismodel: Praktisch stappenplan om te bepalen welk format past bij uw architectuur, workloads en strategische ambities.
Lunchpauze
Modeling the Mesh: understanding data products and domains [Engelstalig]
Het concept Data Mesh is bedacht door Zhamak Dehghani, en behelst een framework voor gefedereerd data management en data governance dat wereldwijd veel aandacht krijgt van organisaties die te maken hebben met problemen als bottlenecks bij datateams en uitdijende oplossingsmogelijkheden. Hoewel de kernprincipes van Data Mesh goed zijn vastgelegd in de literatuur en er praktische implementatieverhalen verschijnen die de theoretische basis in de praktijk brengen, blijven er nog diverse vragen over.
Een van de grootste uitdagingen is het beheren van de bedrijfscontext over meerdere domeinen en dataproducten heen. In deze sessie bespreken we hoe datamodellering kan worden ingezet om zowel het ontwerpen van begrijpelijke en traceerbare dataproducten binnen een domein mogelijk te maken, als het domeinoverschrijdend begrijpen van de grenzen, overlappingen en mogelijk conflicterende bedrijfsconcepten. De bekende best practices van conceptuele en logische datamodellen bewijzen hun waarde in dit moderne gedecentraliseerde framework door semantische interoperabiliteit tussen verschillende dataproducten en domeinen mogelijk te maken en door de organisatie in staat te stellen een totaaloverzicht van hun data te behouden.
Onderwerpen en discussiepunten die aan de orde komen:
- Basisprincipes van Data Mesh – het paradigma en de principes ervan
- Voor- en nadelen van de Data Mesh-aanpak
- Waarom context belangrijk is – semantische interoperabiliteit
- Datamodellering als sleutel tot context en semantiek
- Modellering op twee niveaus – dataproducten en domeinen
- Het totaaloverzicht behouden en waarom het ‘Enterprise Data Model’ nog steeds een relevant onderwerp is.
De Data Administratie: onmisbare basis voor effectief data management
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
- Waarom een Data Administratie net zo essentieel is als de financiële administratie
- Hoe je een eenduidig metamodel opstelt dat de hele organisatie begrijpt
- Praktische inrichting van processen, rollen en governance
- Hoe tooling (catalogs, metadata platforms) wél werkt — en wanneer niet
- Stapsgewijs starten: van use-casegedreven aanpak tot duurzame implementatie.
Nieuwe tijden: Van Data voor AI naar AI voor Data [Engelstalig]
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
- Data wordt door AI een levend, zelflerend systeem.
- Fouten en ontbrekende data kunnen automatisch worden opgespoord en gecorrigeerd.
- Databronnen vloeien straks automatisch samen.
- Classificatie, documentatie en compliance worden in toenemende mate realtime ondersteund.
- De belofte van minder handwerk lijkt binnen handbereik, hoe ver staan we er werkelijk vanaf?
Aanpak private en soevereine Data & AI Cloud - Data-architectuur en realisatie [Engelstalig]
Antoine neemt ons mee in het traject dat twee jaar geleden begon met een eenvoudige maar ambitieuze vraag: kunnen we een echt schaalbaar, soeverein data- en AI-platform bouwen dat daadwerkelijk voldoet aan de behoeften van de markt? Voortbouwend op meer dan twintig jaar ervaring in consultancy en training, zijn Antoine en zijn team aan de slag gegaan om hun eigen soevereine data- en AI-platform te ontwerpen, bouwen en implementeren. In deze sessie deelt hij zijn ervaringen en neemt u mee binnen het ontwerp van dat platform, zonder te verdwalen in technische details.
Antoine zal de belangrijkste uitdagingen belichten waarmee ze te maken kregen en hoe ze met succes tot een werkende oplossing zijn gekomen, waaronder:
- Schaalbaarheid met behulp van Kubernetes
- Beheer van de beveiliging
- Publieke of private cloud, of beide
- Het vinden van de juiste balans tussen open source en closed source technologie
- Software as a Service & Product as a Service.
Hij zal ook de belangrijkste oplossingscomponenten introduceren die uit dit traject naar voren zijn gekomen:
- Datawarehouse-automatisering
- Data Catalog
- Datavirtualisatie
- Databases en Data Lake
- AI-oplossingen die AI naar de data brengen.
Concept Modelling with Normal People – Five Key Lessons From 45 Years of Modelling [Engelstalig]
Alec Sharp bouwde zijn eerste conceptmodel in 1979: het bleek niet erg goed. Het leek eigenlijk op een hiërarchisch IMS fysiek database-ontwerp. Uiteindelijk, na vele modelleringsopdrachten over de hele wereld, in allerlei soorten organisaties en culturen, kwam een klein aantal kernprincipes naar voren voor effectieve modellering. Deze principes draaien allemaal om het idee dat we modelleren voor mensen, niet voor machines. Het blijkt dat zelfs in het tijdperk van AI, virtueel werk, desinformatie en voortdurend veranderende technologie, deze lessen net zo belangrijk zijn als – of zelfs belangrijker dan – ooit. We zijn tenslotte maar mensen.
1. Datamodellering is (in eerste instantie) niet belangrijk – begin gewoon met een leuk gesprek.
2. Tot de essentie komen – ‘Wat’ versus ‘Wie, hoe en andere afleidingen’.
3. ‘Good things come to those who wait’ – waarom geduld een schone zaak is.
4. Wees onbevreesd en speel in op je sterke punten – kwetsbaarheid en onwetendheid.
5. Elk beeld vertelt een verhaal, behalve die dat niet doen: neem een grafisch ontwerper in dienst.
6. Bonus: je conceptueel model is voor zoveel meer geschikt dan alleen ‘data’.
Borrel
Opening
Een holistische data-architectuur: van bron tot inzicht [Engelstalig]
Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
- De drie soorten IT-systemen: bronsystemen, compensatiesystemen en analysesystemen
- De positionering van datawarehouses, datalakes en datalakehouses als compensatiesystemen
- Een overzicht van de Delta data-architectuur
- Hoe bronsystemen toekomstbestendig gemaakt kunnen worden door ze te ‘wrappen’ met aanvullende modules
- Het belang van abstractie en dataminimalisatie binnen een data-architectuur
- De rol van metadata als drijvende kracht achter een moderne datawinkel.
Grounded AI in Data Warehousing: How to Make Your LLM Stop Lying [Engelstalig]
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
- Hoe u LLM’s in uw semantische laag kunt integreren.
- Hoe u tekst-naar-SQL veilig in BI-workflows kunt integreren.
- Hoe u AI-output traceerbaar en verdedigbaar kunt maken.
- Hoe u ongestructureerde documenten en gestructureerde data in één systeem kunt koppelen.
- Hoe u observatievermogen in AI kunt inbouwen, zodat u weet wanneer het systeem faalt.
Data Governance Sprint: Start Governance in Slechts Enkele Weken [Engelstalig]
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
- Begrijp waarom governance-initiatieven vaak mislukken—van gebrek aan momentum tot niet-betrokken stakeholders—en hoe een sprintaanpak deze barrières wegneemt
- Ontdek de 5-weekse Data Governance Sprint™-structuur—een getimede, herhaalbare methode om kerncomponenten van governance te ontwerpen, bouwen en valideren
- Leer praktische facilitatie-technieken om onproductieve meetings om te vormen tot impactvolle workshops die business en IT rond gedeelde doelen op één lijn brengen
- Leer om een prototype te maken en minimale governance-deliverables te testen zoals een business glossary, een lichtgewicht operating model en duidelijke data stewardship-rollen
- Ontdek praktijkvoorbeelden en lessons learned van organisaties die de sprint toepasten om adoptie te versnellen, valkuilen te vermijden en verandering duurzaam te maken
- Vertrek met een concreet actieplan om een governance-initiatief in jouw organisatie te lanceren of te herstarten, met snelle resultaten én een basis voor langetermijnsucces.
Van Hive naar Iceberg: De nieuwe generatie open table formats voor data lakes [Engelstalig]
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckLake. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
- Formats vergeleken: Diepgaande vergelijking van DuckLake, Iceberg, Hudi, Delta Lake en Hive op ACID-garanties, partitionering, query-performance en operationeel beheer
- Lessen uit de praktijk: Ervaringen uit productieomgevingen, migratiestrategieën, performance-optimalisatie en kostenoverwegingen bij petabyte-schaal
- Ecosysteem-integratie: Hoe elk format werkt met bv Spark, Flink, Trino, Dremio en DuckDB, welke cloudplatforms worden ondersteund en waar vendor lock-in dreigt
- Verborgen kosten: Operationele overhead, benodigde teamkennis en onderhoudskosten die verder gaan dan storage en compute
- Beslismodel: Praktisch stappenplan om te bepalen welk format past bij uw architectuur, workloads en strategische ambities.
Lunchpauze
Modeling the Mesh: understanding data products and domains [Engelstalig]
Het concept Data Mesh is bedacht door Zhamak Dehghani, en behelst een framework voor gefedereerd data management en data governance dat wereldwijd veel aandacht krijgt van organisaties die te maken hebben met problemen als bottlenecks bij datateams en uitdijende oplossingsmogelijkheden. Hoewel de kernprincipes van Data Mesh goed zijn vastgelegd in de literatuur en er praktische implementatieverhalen verschijnen die de theoretische basis in de praktijk brengen, blijven er nog diverse vragen over.
Een van de grootste uitdagingen is het beheren van de bedrijfscontext over meerdere domeinen en dataproducten heen. In deze sessie bespreken we hoe datamodellering kan worden ingezet om zowel het ontwerpen van begrijpelijke en traceerbare dataproducten binnen een domein mogelijk te maken, als het domeinoverschrijdend begrijpen van de grenzen, overlappingen en mogelijk conflicterende bedrijfsconcepten. De bekende best practices van conceptuele en logische datamodellen bewijzen hun waarde in dit moderne gedecentraliseerde framework door semantische interoperabiliteit tussen verschillende dataproducten en domeinen mogelijk te maken en door de organisatie in staat te stellen een totaaloverzicht van hun data te behouden.
Onderwerpen en discussiepunten die aan de orde komen:
- Basisprincipes van Data Mesh – het paradigma en de principes ervan
- Voor- en nadelen van de Data Mesh-aanpak
- Waarom context belangrijk is – semantische interoperabiliteit
- Datamodellering als sleutel tot context en semantiek
- Modellering op twee niveaus – dataproducten en domeinen
- Het totaaloverzicht behouden en waarom het ‘Enterprise Data Model’ nog steeds een relevant onderwerp is.
De Data Administratie: onmisbare basis voor effectief data management
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
- Waarom een Data Administratie net zo essentieel is als de financiële administratie
- Hoe je een eenduidig metamodel opstelt dat de hele organisatie begrijpt
- Praktische inrichting van processen, rollen en governance
- Hoe tooling (catalogs, metadata platforms) wél werkt — en wanneer niet
- Stapsgewijs starten: van use-casegedreven aanpak tot duurzame implementatie.
Nieuwe tijden: Van Data voor AI naar AI voor Data [Engelstalig]
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
- Data wordt door AI een levend, zelflerend systeem.
- Fouten en ontbrekende data kunnen automatisch worden opgespoord en gecorrigeerd.
- Databronnen vloeien straks automatisch samen.
- Classificatie, documentatie en compliance worden in toenemende mate realtime ondersteund.
- De belofte van minder handwerk lijkt binnen handbereik, hoe ver staan we er werkelijk vanaf?
Aanpak private en soevereine Data & AI Cloud - Data-architectuur en realisatie [Engelstalig]
Antoine neemt ons mee in het traject dat twee jaar geleden begon met een eenvoudige maar ambitieuze vraag: kunnen we een echt schaalbaar, soeverein data- en AI-platform bouwen dat daadwerkelijk voldoet aan de behoeften van de markt? Voortbouwend op meer dan twintig jaar ervaring in consultancy en training, zijn Antoine en zijn team aan de slag gegaan om hun eigen soevereine data- en AI-platform te ontwerpen, bouwen en implementeren. In deze sessie deelt hij zijn ervaringen en neemt u mee binnen het ontwerp van dat platform, zonder te verdwalen in technische details.
Antoine zal de belangrijkste uitdagingen belichten waarmee ze te maken kregen en hoe ze met succes tot een werkende oplossing zijn gekomen, waaronder:
- Schaalbaarheid met behulp van Kubernetes
- Beheer van de beveiliging
- Publieke of private cloud, of beide
- Het vinden van de juiste balans tussen open source en closed source technologie
- Software as a Service & Product as a Service.
Hij zal ook de belangrijkste oplossingscomponenten introduceren die uit dit traject naar voren zijn gekomen:
- Datawarehouse-automatisering
- Data Catalog
- Datavirtualisatie
- Databases en Data Lake
- AI-oplossingen die AI naar de data brengen.
Concept Modelling with Normal People – Five Key Lessons From 45 Years of Modelling [Engelstalig]
Alec Sharp bouwde zijn eerste conceptmodel in 1979: het bleek niet erg goed. Het leek eigenlijk op een hiërarchisch IMS fysiek database-ontwerp. Uiteindelijk, na vele modelleringsopdrachten over de hele wereld, in allerlei soorten organisaties en culturen, kwam een klein aantal kernprincipes naar voren voor effectieve modellering. Deze principes draaien allemaal om het idee dat we modelleren voor mensen, niet voor machines. Het blijkt dat zelfs in het tijdperk van AI, virtueel werk, desinformatie en voortdurend veranderende technologie, deze lessen net zo belangrijk zijn als – of zelfs belangrijker dan – ooit. We zijn tenslotte maar mensen.
1. Datamodellering is (in eerste instantie) niet belangrijk – begin gewoon met een leuk gesprek.
2. Tot de essentie komen – ‘Wat’ versus ‘Wie, hoe en andere afleidingen’.
3. ‘Good things come to those who wait’ – waarom geduld een schone zaak is.
4. Wees onbevreesd en speel in op je sterke punten – kwetsbaarheid en onwetendheid.
5. Elk beeld vertelt een verhaal, behalve die dat niet doen: neem een grafisch ontwerper in dienst.
6. Bonus: je conceptueel model is voor zoveel meer geschikt dan alleen ‘data’.
Borrel
Data Mesh Information Architecture: modeling data products and domains [Engelstalig]
Data Mesh is een federatieve benadering van data management en data governance, ontwikkeld door Zhamak Dehghani. De structuur is gebaseerd op domeinen en gegevensproducten, elementen die ook veel aandacht hebben gekregen van organisaties die niet bezig zijn met een volledige Mesh-implementatie. Werken met autonome domeinen die gegevens via dataproducten delen met de rest van de organisatie is een uitstekende manier om data dichter bij het bedrijf te brengen en domeinspecifieke prioritering mogelijk te maken in plaats van een enorm gecentraliseerd bottleneckteam. Omdat domeinen echter hun eigen begrip van de business en de kernconcepten ervan hebben, wordt semantische interoperabiliteit een uitdaging. Deze workshop richt zich op de problemen van informatiearchitectuur in een gedecentraliseerd landschap.
Hoe kunnen we documenteren welke gegevens we beschikbaar hebben, hoe begrijpen we wat de gegevens van andere teams betekenen en hoe behouden we een totaalbeeld van wat waar te vinden is? We zullen conceptuele modellering onderzoeken als een belangrijke methode voor het documenteren van de business-context en semantiek van domeinen en dataproducten, meer gedetailleerde logische modellering als een middel om dataproductstructuren te documenteren, en zowel domein-interne als domeinoverschrijdende koppelingen van verschillende modellen en objecten daarin overwegen. Als praktische oefening zullen we een domein modelleren en enkele voorbeeld dataproducten ontwerpen die sterk verbonden zijn met hun semantiek op domeinniveau. De workshop geeft u de basisvaardigheden om datamodellering op deze hogere abstractieniveaus uit te voeren, en inzicht in de belangrijkste kenmerken en uitdagingen van het Data Mesh die van invloed zijn op de manier waarop we datamodellering moeten uitvoeren.
Leerdoelen
- Begrijp de basisprincipes van het Data Mesh-paradigma en de uitdagingen ervan met betrekking tot informatiearchitectuur en semantiek
- Leer de basisprincipes van conceptuele modellering als methode om de zakelijke context van domeinen en dataproducten te definiëren.
- Leer de basisprincipes van logische modellering als onderdeel van het ontwerpproces van dataproducten.
- Leer hoe metadata op oplossingsniveau (bijv. datacontracten) de context op domeinniveau over domeingrenzen heen kan blootleggen.
- Begrijp het basisbedrijfsmodel van informatiearchitectuurbeheer in de context van onafhankelijke domeinteams binnen een Data Mesh-opstelling
Voor wie?
- Data Architecten
- Chief Data Officers en Heads of Data die geïnteresseerd zijn in gefedereerde bedrijfsmodellen
- Data Product Owners en Team Leads die werken in een gefedereerd model
- Data Governance experts
Gedetailleerde overzicht
1. Introductie
- Ontvangst and introductie
- Workshopagenda en doelen
2. Data Mesh basisbegrippen
- Algemeen
- De vier pijlers van Data Mesh volgens Dehghani
- Domeinen en domeinteams
- Dataproducten
- De uitdaging van interoperabiliteit
3. Hoe conceptuele modellen helpen met cross-domain overzicht
- Basisprincipes van conceptuele modellering: entiteiten, relaties en attributen
- Hoe de echte bedrijfsobjecten te identificeren
- Definities en woordenlijsten opstellen
4. Praktische oefening: modellering van een domein
- Domeinbegrenzing
- Entiteiten binnen het domein identificeren
- Definities en ‘domeinontologie’
5. Datamodellering als onderdeel van dataproduct ontwerp
- Inzicht in de productomvang als onderdeel van het domeinmodel
- Logisch model als ontwerp en documentatie op productniveau
- Logische modellen afleiden uit conceptuele modellen
- Verbindingen met het domeinmodel onderhouden
- Wat gebeurt er als het product buiten het domein valt?
6. Semantische interoperabiliteit aan de domeingrens waarborgen
- Metadata van domeinen en dataproducten blootstellen
- Basisprincipes van gegevenscontracten
- Domeinwoordenlijsten versus gedeelde bedrijfswoordenlijsten
- Omgaan met polysemen
7. Data Mesh informatie-architectuur operating model
- Verantwoordelijkheden van het domeinteam
- Verantwoordelijkheden van de eigenaar van het dataproduct
- Verantwoordelijkheden van het platformteam
- Federatieve governance
8. Conclusies
- Belangrijkste punten
- Waar te beginnen in uw organisatie
- Hoe u meer te weten kunt komen
Grounded AI in Data Warehousing: How to Make Your LLM Stop Lying [Engelstalig]
Input volgt spoedig.
Praktische hands-on workshop waarbij je zélf met oefeningen aan de slag gaat op de eigen laptop.
Lees minderConcept Modelling for Business Analysts [Engelstalig]
Of je het nu een conceptueel datamodel, een domeinmodel, een business object model of zelfs een ‘dingmodel’ noemt, het conceptmodel kent wereldwijd een hernieuwde belangstelling. Waarom? Omdat een conceptmodel een fundamentele techniek is om de communicatie tussen belanghebbenden bij elk soort initiatief te verbeteren. Helaas gaat die communicatie vaak verloren – in de wolken, in de details of in het najagen van het nieuwste, glimmende object. Business analisten overal ter wereld hebben dit ervaren en beseffen dat conceptmodellering een krachtige aanvulling is op hun BA-toolkit. In deze sessie wordt zelfs getoond hoe een conceptmodel kan worden gebruikt om eenvoudig use cases, user story’s, services en andere functionele vereisten te identificeren.
Het besef van de waarde van conceptmodellering begint ook, verrassend genoeg, post te vatten in de data-gemeenschap. “Verrassend” omdat veel data-professionals conceptmodellering als een “ouderwetse” techniek beschouwden. Dat is nu niet meer het geval! De afgelopen jaren hebben data-professionals die hebben gezien dat hun inspanningen op het gebied van big data, data science/AI, data lake, data mesh, data fabric, data lakehouse, enzovoort niet de verwachte voordelen opleverden, zich gerealiseerd dat dit komt omdat ze niet gebaseerd zijn op een gedeelde visie van de onderneming en de zaken die voor haar belangrijk zijn. Dat is waar conceptmodellering helpt. Data management- en governance-teams maken (of zouden moeten) gebruik van de huidige ondersteuning voor conceptmodellering. We kunnen immers niet beheren wat niet gemodelleerd is!
De Agile-gemeenschap vooral ziet de noodzaak van conceptmodellering. Omdat Agile nu de standaardaanpak is, zelfs bij initiatieven op bedrijfsniveau, hebben Agile-teams meer nodig dan alleen een paar user story’s op Post-its in hun backlog. Conceptmodellering wordt omarmd als een essentiële basis voor het bedenken en ontwikkelen van oplossingen. In al deze gevallen is het van cruciaal belang om een conceptmodel te zien als een beschrijving van een bedrijfsactiviteit, niet als een technische beschrijving van een databaseschema.
Deze workshop introduceert conceptmodellering vanuit een niet-technisch perspectief, geeft tips en richtlijnen voor de analist en verkent entiteit-relatiemodellering op conceptueel en logisch niveau met behulp van technieken die de betrokkenheid en het begrip van de klant maximaliseren. We zullen ook kijken naar technieken voor het faciliteren van conceptmodelleringssessies (virtueel en persoonlijk), het toepassen van conceptmodellering binnen andere disciplines (bijvoorbeeld procesverandering of bedrijfsanalyse) en het overstappen naar complexere modelleringssituaties.
Op basis van meer dan veertig jaar in succesvolle consultancy en modellering, bij projecten van elke omvang en elk type, biedt deze sessie beproefde technieken, ondersteund met actuele praktijkvoorbeelden.
Omderwerpen die aan de orde komen:
- De essentie van conceptmodellering en essentiële richtlijnen om veelvoorkomende valkuilen te vermijden.
- Methoden om de business te betrekken bij conceptmodellering zonder dat ze het doorhebben.
- Een eenvoudige, taalgerichte aanpak toepassen om de ontwikkeling van een conceptmodel op gang te brengen.
- Waarom bottom-up technieken vaak het beste werken.
- “Gebruik je woorden!” – hoe definities en beweringen conceptmodellen verbeteren.
- Hoe je snel bruikbare entiteitsdefinities kunt ontwikkelen en conflicten kunt vermijden.
- Waarom een datamodel een richting nodig heeft.
- De vier meest voorkomende patronen in datamodellering en de vier meest voorkomende fouten bij het specificeren van entiteiten
- De overgang maken van conceptueel naar logisch met behulp van ’s werelds eenvoudigste gids voor normalisatie
- Begrijp “de vier D’s van datamodellering”: definition, dependency, demonstration en detail
- Tips voor het geven van een presentatie over een conceptmodel/datamodel
- Kritische verschillen tussen conceptuele, logische en fysieke modellen
- Conceptmodellen gebruiken om use cases, zakelijke gebeurtenissen en andere vereisten te ontdekken
- Interessante technieken om aanvullende vereisten te ontdekken en te vervullen
- Hoe conceptmodellen helpen bij pakketimplementaties, procesveranderingen en agile ontwikkeling
Leerdoelen:
- Begrijp de essentiële componenten van een conceptmodel: dingen (entiteiten), feiten over dingen (relaties en attributen) en regels.
- Gebruik entiteit-relatiemodellering om feiten en regels over bedrijfsentiteiten weer te geven op verschillende detailniveaus en vanuit verschillende perspectieven, met name conceptuele (overzicht) en logische (gedetailleerde) modellen.
- Pas verschillende technieken toe die de actieve deelname en betrokkenheid van bedrijfsprofessionals en materiedeskundigen ondersteunen.
- Ontwikkel snel conceptuele en logische modellen met behulp van herhaalbare en agile methoden
- Teken een entiteit-relatiediagram (ERD) voor maximale leesbaarheid
- Lees een conceptmodel/datamodel en communiceer met specialisten met behulp van de juiste terminologie.
AI Governance, Responsible AI en Data Governance: Connecting the Dots
Artificiële intelligentie belooft enorme meerwaarde, maar zonder sterke governancefundamenten lopen AI-initiatieven het risico bevooroordeeld, ondoorzichtig of niet-conform te zijn. Organisaties worden in toenemende mate — door toezichthouders, klanten en de samenleving — verwacht te zorgen dat AI-systemen ethisch, uitlegbaar en betrouwbaar zijn. Toch blijven de meeste governance-inspanningen gefragmenteerd: AI Governance wordt vaak losgekoppeld van de principes van Responsible AI, terwijl Data Governance in een silo opereert.
Dit seminar verbindt de punten. Deelnemers krijgen een volledig inzicht in hoe Data Governance de basis vormt voor Responsible AI, en hoe AI Governance-kaders ethiek en compliance in de praktijk brengen. Door strategie, praktijkcases en hands-on kaders te combineren, biedt de cursus deelnemers de middelen om governance-aanpakken te ontwerpen en te implementeren die AI niet alleen innovatief maken, maar ook betrouwbaar en verantwoord.
Leerdoelen
Aan het einde van deze seminar zijn deelnemers in staat om:
- De principes van AI Governance te begrijpen en het belang van Responsible AI te duiden
- De rol van Data Governance te verkennen in het ondersteunen van ethische en conforme AI-praktijken
- Te leren hoe AI Governance-kaders ontwikkeld en geïmplementeerd kunnen worden in lijn met organisatiedoelstellingen
- Best practices te ontdekken voor het waarborgen van transparantie, verantwoordelijkheid en eerlijkheid in AI-systemen
- Praktijkcases te onderzoeken die succesvolle integratie van AI- en datagovernance illustreren
- Praktische tools en technieken te verkrijgen om een cultuur van verantwoord AI- en datamanagement te bevorderen
- Veelvoorkomende uitdagingen en strategieën te identificeren om deze te overwinnen in de governance van AI en data.
Voor wie?
- Data & AI Leaders: Chief Data Officers, AI-programmaleiders en executives die verantwoordelijk zijn voor datagedreven strategie
- Governance & Compliance Professionals: Data Governance-managers, risicomanagers en compliance-teams die AI-verantwoordelijkheid willen borgen
- Technology Leaders: Architecten, product owners en IT-leiders die AI/ML-oplossingen ontwikkelen of beheren
- Business Leaders & Policy Makers: Bestuurders en besluitvormers die moeten garanderen dat AI aansluit bij organisatiedoelen en ethische standaarden
- Onderzoekers & Onderwijzers: Professionals in hoger onderwijs en onderzoeksinstellingen die AI inzetten in gevoelige, kritieke contexten.
Gedetailleerd cursusoverzicht
Deel 1 — Fundamenten & Risico’s
- Sessie 1: AI Primer – De groei van AI, kansen en opkomende risico’s.
- Sessie 2: AI Pitfalls – Inzicht in algoritmische bias, data¬kwaliteit¬uitdagingen en onbedoelde consequenties.
- Sessie 3: The Need for Governance – Waarom AI Governance essentieel is, en hoe het samenkomt met Responsible AI en Data Governance.
Deel 2 — Frameworks & Praktijken
- Sessie 4: AI Governance in Practice – Beleidslijnen, standaarden en risicomanagementkaders.
- Sessie 5: Responsible AI – Ethische principes (eerlijkheid, transparantie, verantwoordelijkheid, inclusiviteit) in systemen en processen verankeren.
- Sessie 6: Data Governance for AI – Data-ethiek, datakwaliteit, lineage en security als basis voor betrouwbare AI.
Deel 3 — Connecting the Dots & Implementatie
- Sessie 7: Practical Integration Framework – Een blauwdruk voor het combineren van AI Governance, Responsible AI en Data Governance.
- Sessie 8: From Frameworks to Business Strategy – Governance opschalen naar enterpriseprogramma’s, waarde communiceren en duurzame praktijken inbedden.
Boek ook een van de praktische workshops!
Drie internationale topsprekers verzorgen de dag na het congres boeiende en zeer praktische workshops. Congresdeelnemers genieten combinatiekorting dus aarzel niet en boek snel want deelname aan de workshops is gelimiteerd.
24 maart 2026
Zaal 1 Rick van der Lans
Zaal 1 Eevamaija Virtanen
Zaal 1 Mathias Vercauteren
Zaal 2 Jos van Dongen
Plenair
Zaal 1 Juha Korpela
Zaal 2 Wouter van Aerle
Zaal 1 Rutger Rienks
Zaal 2 Antoine Stelma
Zaal 1 Alec Sharp
Workshops 2026
25 maart Juha Korpela
25 maart Eevamaija Virtanen
25 maart Mathias Vercauteren