Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckLake. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
Het concept Data Mesh is bedacht door Zhamak Dehghani, en behelst een framework voor gefedereerd data management en data governance dat wereldwijd veel aandacht krijgt van organisaties die te maken hebben met problemen als bottlenecks bij datateams en uitdijende oplossingsmogelijkheden. Hoewel de kernprincipes van Data Mesh goed zijn vastgelegd in de literatuur en er praktische implementatieverhalen verschijnen die de theoretische basis in de praktijk brengen, blijven er nog diverse vragen over.
Een van de grootste uitdagingen is het beheren van de bedrijfscontext over meerdere domeinen en dataproducten heen. In deze sessie bespreken we hoe datamodellering kan worden ingezet om zowel het ontwerpen van begrijpelijke en traceerbare dataproducten binnen een domein mogelijk te maken, als het domeinoverschrijdend begrijpen van de grenzen, overlappingen en mogelijk conflicterende bedrijfsconcepten. De bekende best practices van conceptuele en logische datamodellen bewijzen hun waarde in dit moderne gedecentraliseerde framework door semantische interoperabiliteit tussen verschillende dataproducten en domeinen mogelijk te maken en door de organisatie in staat te stellen een totaaloverzicht van hun data te behouden.
Onderwerpen en discussiepunten die aan de orde komen:
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
Antoine neemt ons mee in het traject dat twee jaar geleden begon met een eenvoudige maar ambitieuze vraag: kunnen we een echt schaalbaar, soeverein data- en AI-platform bouwen dat daadwerkelijk voldoet aan de behoeften van de markt? Voortbouwend op meer dan twintig jaar ervaring in consultancy en training, zijn Antoine en zijn team aan de slag gegaan om hun eigen soevereine data- en AI-platform te ontwerpen, bouwen en implementeren. In deze sessie deelt hij zijn ervaringen en neemt u mee binnen het ontwerp van dat platform, zonder te verdwalen in technische details.
Antoine zal de belangrijkste uitdagingen belichten waarmee ze te maken kregen en hoe ze met succes tot een werkende oplossing zijn gekomen, waaronder:
Hij zal ook de belangrijkste oplossingscomponenten introduceren die uit dit traject naar voren zijn gekomen:
Alec Sharp bouwde zijn eerste conceptmodel in 1979: het bleek niet erg goed. Het leek eigenlijk op een hiërarchisch IMS fysiek database-ontwerp. Uiteindelijk, na vele modelleringsopdrachten over de hele wereld, in allerlei soorten organisaties en culturen, kwam een klein aantal kernprincipes naar voren voor effectieve modellering. Deze principes draaien allemaal om het idee dat we modelleren voor mensen, niet voor machines. Het blijkt dat zelfs in het tijdperk van AI, virtueel werk, desinformatie en voortdurend veranderende technologie, deze lessen net zo belangrijk zijn als – of zelfs belangrijker dan – ooit. We zijn tenslotte maar mensen.
1. Datamodellering is (in eerste instantie) niet belangrijk – begin gewoon met een leuk gesprek.
2. Tot de essentie komen – ‘Wat’ versus ‘Wie, hoe en andere afleidingen’.
3. ‘Good things come to those who wait’ – waarom geduld een schone zaak is.
4. Wees onbevreesd en speel in op je sterke punten – kwetsbaarheid en onwetendheid.
5. Elk beeld vertelt een verhaal, behalve die dat niet doen: neem een grafisch ontwerper in dienst.
6. Bonus: je conceptueel model is voor zoveel meer geschikt dan alleen ‘data’.
Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckLake. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
Het concept Data Mesh is bedacht door Zhamak Dehghani, en behelst een framework voor gefedereerd data management en data governance dat wereldwijd veel aandacht krijgt van organisaties die te maken hebben met problemen als bottlenecks bij datateams en uitdijende oplossingsmogelijkheden. Hoewel de kernprincipes van Data Mesh goed zijn vastgelegd in de literatuur en er praktische implementatieverhalen verschijnen die de theoretische basis in de praktijk brengen, blijven er nog diverse vragen over.
Een van de grootste uitdagingen is het beheren van de bedrijfscontext over meerdere domeinen en dataproducten heen. In deze sessie bespreken we hoe datamodellering kan worden ingezet om zowel het ontwerpen van begrijpelijke en traceerbare dataproducten binnen een domein mogelijk te maken, als het domeinoverschrijdend begrijpen van de grenzen, overlappingen en mogelijk conflicterende bedrijfsconcepten. De bekende best practices van conceptuele en logische datamodellen bewijzen hun waarde in dit moderne gedecentraliseerde framework door semantische interoperabiliteit tussen verschillende dataproducten en domeinen mogelijk te maken en door de organisatie in staat te stellen een totaaloverzicht van hun data te behouden.
Onderwerpen en discussiepunten die aan de orde komen:
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
Antoine neemt ons mee in het traject dat twee jaar geleden begon met een eenvoudige maar ambitieuze vraag: kunnen we een echt schaalbaar, soeverein data- en AI-platform bouwen dat daadwerkelijk voldoet aan de behoeften van de markt? Voortbouwend op meer dan twintig jaar ervaring in consultancy en training, zijn Antoine en zijn team aan de slag gegaan om hun eigen soevereine data- en AI-platform te ontwerpen, bouwen en implementeren. In deze sessie deelt hij zijn ervaringen en neemt u mee binnen het ontwerp van dat platform, zonder te verdwalen in technische details.
Antoine zal de belangrijkste uitdagingen belichten waarmee ze te maken kregen en hoe ze met succes tot een werkende oplossing zijn gekomen, waaronder:
Hij zal ook de belangrijkste oplossingscomponenten introduceren die uit dit traject naar voren zijn gekomen:
Alec Sharp bouwde zijn eerste conceptmodel in 1979: het bleek niet erg goed. Het leek eigenlijk op een hiërarchisch IMS fysiek database-ontwerp. Uiteindelijk, na vele modelleringsopdrachten over de hele wereld, in allerlei soorten organisaties en culturen, kwam een klein aantal kernprincipes naar voren voor effectieve modellering. Deze principes draaien allemaal om het idee dat we modelleren voor mensen, niet voor machines. Het blijkt dat zelfs in het tijdperk van AI, virtueel werk, desinformatie en voortdurend veranderende technologie, deze lessen net zo belangrijk zijn als – of zelfs belangrijker dan – ooit. We zijn tenslotte maar mensen.
1. Datamodellering is (in eerste instantie) niet belangrijk – begin gewoon met een leuk gesprek.
2. Tot de essentie komen – ‘Wat’ versus ‘Wie, hoe en andere afleidingen’.
3. ‘Good things come to those who wait’ – waarom geduld een schone zaak is.
4. Wees onbevreesd en speel in op je sterke punten – kwetsbaarheid en onwetendheid.
5. Elk beeld vertelt een verhaal, behalve die dat niet doen: neem een grafisch ontwerper in dienst.
6. Bonus: je conceptueel model is voor zoveel meer geschikt dan alleen ‘data’.
Data Mesh is een federatieve benadering van data management en data governance, ontwikkeld door Zhamak Dehghani. De structuur is gebaseerd op domeinen en gegevensproducten, elementen die ook veel aandacht hebben gekregen van organisaties die niet bezig zijn met een volledige Mesh-implementatie. Werken met autonome domeinen die gegevens via dataproducten delen met de rest van de organisatie is een uitstekende manier om data dichter bij het bedrijf te brengen en domeinspecifieke prioritering mogelijk te maken in plaats van een enorm gecentraliseerd bottleneckteam. Omdat domeinen echter hun eigen begrip van de business en de kernconcepten ervan hebben, wordt semantische interoperabiliteit een uitdaging. Deze workshop richt zich op de problemen van informatiearchitectuur in een gedecentraliseerd landschap.
Hoe kunnen we documenteren welke gegevens we beschikbaar hebben, hoe begrijpen we wat de gegevens van andere teams betekenen en hoe behouden we een totaalbeeld van wat waar te vinden is? We zullen conceptuele modellering onderzoeken als een belangrijke methode voor het documenteren van de business-context en semantiek van domeinen en dataproducten, meer gedetailleerde logische modellering als een middel om dataproductstructuren te documenteren, en zowel domein-interne als domeinoverschrijdende koppelingen van verschillende modellen en objecten daarin overwegen. Als praktische oefening zullen we een domein modelleren en enkele voorbeeld dataproducten ontwerpen die sterk verbonden zijn met hun semantiek op domeinniveau. De workshop geeft u de basisvaardigheden om datamodellering op deze hogere abstractieniveaus uit te voeren, en inzicht in de belangrijkste kenmerken en uitdagingen van het Data Mesh die van invloed zijn op de manier waarop we datamodellering moeten uitvoeren.
Leerdoelen
Voor wie?
Gedetailleerde overzicht
1. Introductie
2. Data Mesh basisbegrippen
3. Hoe conceptuele modellen helpen met cross-domain overzicht
4. Praktische oefening: modellering van een domein
5. Datamodellering als onderdeel van dataproduct ontwerp
6. Semantische interoperabiliteit aan de domeingrens waarborgen
7. Data Mesh informatie-architectuur operating model
8. Conclusies
Input volgt spoedig.
Praktische hands-on workshop waarbij je zélf met oefeningen aan de slag gaat op de eigen laptop.
Lees minderOf je het nu een conceptueel datamodel, een domeinmodel, een business object model of zelfs een ‘dingmodel’ noemt, het conceptmodel kent wereldwijd een hernieuwde belangstelling. Waarom? Omdat een conceptmodel een fundamentele techniek is om de communicatie tussen belanghebbenden bij elk soort initiatief te verbeteren. Helaas gaat die communicatie vaak verloren – in de wolken, in de details of in het najagen van het nieuwste, glimmende object. Business analisten overal ter wereld hebben dit ervaren en beseffen dat conceptmodellering een krachtige aanvulling is op hun BA-toolkit. In deze sessie wordt zelfs getoond hoe een conceptmodel kan worden gebruikt om eenvoudig use cases, user story’s, services en andere functionele vereisten te identificeren.
Het besef van de waarde van conceptmodellering begint ook, verrassend genoeg, post te vatten in de data-gemeenschap. “Verrassend” omdat veel data-professionals conceptmodellering als een “ouderwetse” techniek beschouwden. Dat is nu niet meer het geval! De afgelopen jaren hebben data-professionals die hebben gezien dat hun inspanningen op het gebied van big data, data science/AI, data lake, data mesh, data fabric, data lakehouse, enzovoort niet de verwachte voordelen opleverden, zich gerealiseerd dat dit komt omdat ze niet gebaseerd zijn op een gedeelde visie van de onderneming en de zaken die voor haar belangrijk zijn. Dat is waar conceptmodellering helpt. Data management- en governance-teams maken (of zouden moeten) gebruik van de huidige ondersteuning voor conceptmodellering. We kunnen immers niet beheren wat niet gemodelleerd is!
De Agile-gemeenschap vooral ziet de noodzaak van conceptmodellering. Omdat Agile nu de standaardaanpak is, zelfs bij initiatieven op bedrijfsniveau, hebben Agile-teams meer nodig dan alleen een paar user story’s op Post-its in hun backlog. Conceptmodellering wordt omarmd als een essentiële basis voor het bedenken en ontwikkelen van oplossingen. In al deze gevallen is het van cruciaal belang om een conceptmodel te zien als een beschrijving van een bedrijfsactiviteit, niet als een technische beschrijving van een databaseschema.
Deze workshop introduceert conceptmodellering vanuit een niet-technisch perspectief, geeft tips en richtlijnen voor de analist en verkent entiteit-relatiemodellering op conceptueel en logisch niveau met behulp van technieken die de betrokkenheid en het begrip van de klant maximaliseren. We zullen ook kijken naar technieken voor het faciliteren van conceptmodelleringssessies (virtueel en persoonlijk), het toepassen van conceptmodellering binnen andere disciplines (bijvoorbeeld procesverandering of bedrijfsanalyse) en het overstappen naar complexere modelleringssituaties.
Op basis van meer dan veertig jaar in succesvolle consultancy en modellering, bij projecten van elke omvang en elk type, biedt deze sessie beproefde technieken, ondersteund met actuele praktijkvoorbeelden.
Omderwerpen die aan de orde komen:
Leerdoelen:
Artificiële intelligentie belooft enorme meerwaarde, maar zonder sterke governancefundamenten lopen AI-initiatieven het risico bevooroordeeld, ondoorzichtig of niet-conform te zijn. Organisaties worden in toenemende mate — door toezichthouders, klanten en de samenleving — verwacht te zorgen dat AI-systemen ethisch, uitlegbaar en betrouwbaar zijn. Toch blijven de meeste governance-inspanningen gefragmenteerd: AI Governance wordt vaak losgekoppeld van de principes van Responsible AI, terwijl Data Governance in een silo opereert.
Dit seminar verbindt de punten. Deelnemers krijgen een volledig inzicht in hoe Data Governance de basis vormt voor Responsible AI, en hoe AI Governance-kaders ethiek en compliance in de praktijk brengen. Door strategie, praktijkcases en hands-on kaders te combineren, biedt de cursus deelnemers de middelen om governance-aanpakken te ontwerpen en te implementeren die AI niet alleen innovatief maken, maar ook betrouwbaar en verantwoord.
Leerdoelen
Aan het einde van deze seminar zijn deelnemers in staat om:
Voor wie?
Deel 1 — Fundamenten & Risico’s
Deel 2 — Frameworks & Praktijken
Deel 3 — Connecting the Dots & Implementatie
Boek ook een van de praktische workshops!
Drie internationale topsprekers verzorgen de dag na het congres boeiende en zeer praktische workshops. Congresdeelnemers genieten combinatiekorting dus aarzel niet en boek snel want deelname aan de workshops is gelimiteerd.
Kijk op de agenda van Adept Events