Programma-inhoud

Het programma start beide dagen om 9:30 uur en duurt tot 17:15 uur. Registratie is mogelijk vanaf 8:30 uur.

 

Dinsdag 28 maart 2017

9:30 uur Opening door de dagvoorzitter Rick van der Lans
Sessie 1
Zaal 2
Fast Data: de Tweede Generatie Big Data
Rick van der Lans
Case
Zaal 2
Data gedreven bedrijfsvoering: Hoe data scientists een geavanceerd dataplatform en self-service analytics inzetten in de DJ & Entertainment sector
Edwin Witvoet en Mischa van Werkhoven

Sessie 2A
Zaal 2

Organizing the Data Lake: How to Extend Data Management beyond the Data Warehouse
Mark Madsen

Sessie 2B
Zaal 1

Op Weg naar de Amsterdamse Smart City Infrastructure
Rutger Rienks

Sessie 3A
Zaal 1

Rocking Analytics in a Data Flooded World
Bart Baesens

Sessie 3B
Zaal 2

Agility door Datavirtualisatie, van Data Vault via SuperNova naar een Logisch Datawarehouse
Jos Kuiper
Case
Zaal 2
Voeg complexiteit toe en verander uw huidige datawarehouse in een agile datawarehouse
Jos Driessen

Sessie 4
Zaal 2

Agile Project Management for Data Warehouse and Business Intelligence Projects
William McKnight
17:15 uur Borrel

 

Woensdag 29 maart 2017

9:30 uur Opening door de dagvoorzitter Rick van der Lans

Sessie 5
Zaal 2

Logical Data Lake en Logical Data Warehouse – Twee zijden van dezelfde medaille
Rick van der Lans
Case
Zaal 2
Continue integratie in Business Intelligence. Innovatie-gedreven, door bedrijfscultuur geïnspireerd.
Martin Pardede en Lukas Ames

Sessie 6A
Zaal 2

Strategies for Consolidating Enterprise Data Warehouses and Data Marts into a Single Platform
William McKnight

Sessie 6B
Zaal 1

Het vernieuwde BI-landschap van het Erasmus MC middels het Scrum Framework en Datavirtualisatie
Kishan Shri

Sessie 7A
Zaal 2

IoD: Internet of Data
Pieter den Hamer

Sessie 7B
Zaal 1

Implementeren van het Enterprise Data Delivery Platform met Data Vault modelleren
Erik Fransen
Case
Zaal 2
Instrument your business with an enterprise-ready data lake
Rixt Altenburg and Rens Weijers

Sessie 8
Zaal 2

Beer, Diapers and Correlation: a Tale of Ambiguity
Mark Madsen

 

De globale dagindeling voor beide dagen:

09:30 – 09:45 Opening
09:45 – 11:00 Sessie 1
11:00 – 11:15 Koffiepauze
11:15 – 11:45 Praktijkcase
11:45 – 13:00 Sessie 2A en Sessie 2B (Parallel)
13:00 – 14:00 Lunch
14:00 – 15:15 Sessie 3A en Sessie 3B (Parallel)
15:15 – 15:30 Koffiepauze
15:30 – 16:00 Praktijkcase
16:00 – 17:15 Sessie 4

Op 28 maart is er tevens een borrel vanaf 17:15.

Rick van der Lans1. Fast Data: de Tweede Generatie Big Data
Rick van der Lans, Managing Director, R20/Consultancy

In de eerste generatie big data systemen was de focus primair gericht op het opslaan en analyseren van zeer grote hoeveelheden gegevens. De focus lag volledig op volume. Momenteel zijn organisaties de tweede fase van big data gestart: fast data. Fast data gaat over het streamen en direct analyseren van grote hoeveelheden gegevens. Dit is de wereld van het Internet of Things (IoT) waarbij onderling gekoppelde devices over het Internet met elkaar communiceren, maar ook van machine-gegenereerde sensordata en weblogs. Alles draait hier om snelheid. Fast data is heel duidelijk de tweede generatie big data systemen. En de meeste organisatie krijgen hier mee te maken, van de meest traditionele financiële instellingen tot en met fabrieken en online gaming bedrijven.

In deze massale stroom van gegevens zijn waardevolle business insights vaak diep, heel diep verstopt. De business value van fast data zit in het analyseren van al deze streaming gegevens. Helaas is het analyseren van fast data anders dan het analyseren van enterprise gegevens die opgeslagen zijn in datawarehouses en die met datavisualisatie tools geanalyseerd worden. Bijvoorbeeld, fast data kan zeer cryptisch van aard zijn waardoor ze vaak met enterprise data gekoppeld moeten worden, die weer in het datawarehouse opgeslagen liggen. En om er iets mee te kunnen doen, moeten deze gegevens real-time geanalyseerd worden, want een reactie wordt direct verwacht. Soms moeten ze zelfs geanalyseerd worden voordat ze opgeslagen worden. De wereld van fast data is een nieuwe wereld. Deze sessie bespreekt de architectuur-aspecten van fast data, geeft richtlijnen voor het adopteren van fast data en behandelt hoe fast data geïntegreerd kan worden met de bestaande BI-omgeving.

  • Wat is de relatie tussen fast data en de klassieke wereld van business intelligence en data warehousing?
  • Voor het verwerken van fast data is een nieuwe architectuur noodzakelijk
  • Technologieën en producten benodigd voor het analyseren van fast data
  • Hoe moeten we fast data integreren met het enterprise datawarehouse?
  • De uitdaging van het real-time reageren op binnenkomende fast data
  • Wat is de relatie tussen big data en het IoT?

Mark Madsen2A. Organizing the Data Lake: How to Extend Data Management Beyond the Data Warehouse
Mark Madsen, President and founder of Third Nature

Building a data lake involves more than installing and using Hadoop. The focus in the market has been on all the different technology components, ignoring the more important part: the data architecture that the code implements, and that lies at the core of the system.
In the same way that a data warehouse has a data architecture, the data lake has a data architecture. If one expects any longevity from the platform, it should be a designed rather than accidental architecture.

What are the design principles that lead to good functional design and a workable data architecture? What are the assumptions that limit old approaches? How can one integrate with or migrate from the older environments? How does this affect an organization’s data management? Answering these questions is key to building long-term infrastructure.

This talk will discuss hidden design assumptions, review some design principles to apply when building multi-use data infrastructure, and provide a conceptual architecture. Our goal in most organizations is to build a multi-use data infrastructure that is not subject to past constraints. This conceptual architecture has been used across different organizations to work toward a unified data management and analytics infrastructure.

You Will Learn:

  • Data architecture alternatives that are able to adapt to today’s data realities
  • New ways of looking at technology that can be applied to address new problems inherent in today’s uses and scale of data
  • Methods and techniques to migrate from older data architecture to new ones that resolve today’s problems and prepare for the future

 

Rutger Rienks2B. Op weg naar de Amsterdamse Smart City Infrastructure
Rutger Rienks, Programmamanager Datapunt, Gemeente Amsterdam.

De lezing zal gaan over de stand van zaken in de realisatie van een van de modernste data infrastructuren ter wereld. Met behulp van opensource componenten wordt op een scrum/agile wijze de fonkelnieuwe Amsterdamse data-infrastructuur gerealiseerd. De hindernissen die moeten worden geslecht in een grote organisatie alsook de personele en technische uitdagingen zullen worden behandeld. Daarnaast zal aan de hand van actuele smart-city casuïstiek de potentie van informatiegedreven werken en beslissingondersteunende systemen in een smart City duidelijk worden.

  • Wat kan van epidemiologie geleerd worden om de mogelijkheden van een informatiegedreven organisatie te vergroten?
  • Hoe moet de organisatie beïnvloed worden om een dergelijke ontwikkeling te kick-starten?
  • Enkele voorbeelden van hoe het welzijn van burgers werd verbeterd en hoe de effectiviteit van de gemeente werd aangescherpt
  • Hoe mobiliseer je werknemers in de stad om adviezen te volgen die gepresenteerd worden door theoretische modellen
  • Inzicht in de ambities van de smartcity data infrastructuur.

Bart Baesens3A. Rocking Analytics in a Data Flooded World
Bart Baesens, professor aan de KU Leuven en verbonden aan de University of Southampton (UK)

Bedrijven worden overspoeld door een vloedgolf aan data, verzameld uit een multichannel zakelijke omgeving, waarmee een onaangeboorde hoeveelheid data wordt verzameld voor analyse om de complexe dynamiek van klantgedrag beter te kunnen begrijpen, besturen en voor strategisch gebruik aan te wenden.
In deze presentatie wordt allereerst een globaal beeld van het analytisch procesmodel gegeven, waarna in een aantal voorbeelden wordt geschetst hoe dit krachtige model optimaal kan worden toegepast.
Data is het hoofdbestanddeel van elk analytisch model en deze wordt behandeld en er wordt bekeken hoe de kwaliteit ervan meetbaar is.
Er wordt ingezoomd op de belangrijkste eisen aan een goed analytisch model (bijv. statistische validiteit, interpreteerbaarheid, operational efficiency, voldoen aan regelgeving) en er wordt gekeken naar opkomende toepassingen.
De spreker gaaat uitgebreid in op de resultaten van zijn research en praktijkervaringen uit het veld. U zult kennis opdoen over:

  • De impact van datakwaliteit op de ontwikkeling van het analytisch model
  • De belangrijkste eisen voor het succesvol bouwen van analytische applicaties
  • De balans tussen accuratesse en interpretatie van analytische modellen
  • Opkomende analytische toepassingen en de daarmee vergezeld gaande uitdagingen
  • State-of-the-Art research en branche inzichten in Big Data & Analytics.

Jos Kuiper3B. Agility door Datavirtualisatie: van Data Vault via SuperNova naar een Logisch Datawarehouse
Jos Kuiper, IT Enterprise Architect, Volkswagen Pon Financial Services

Hoe kunnen we onze afnemers van data en informatie sneller bedienen? Het prepareren en leveren van gegevens, het ontwikkelen van nieuwe rapportages, dashboards, inzichten etcetera kan immers nooit snel genoeg gaan.
Aan de hand van een aantal uitdagingen in een traditionele BI architectuur wordt ingegaan op de waarde van een datavirtualisatie oplossing. Hiertoe vormen de bevindingen uit een proof of concept de leidraad. In de proof of concept is een datavirtualisatie oplossing getest op een Data Vault datawarehouse. Ook is daarin data uit het datawarehouse  geïntegreerd met  live data uit een operationeel back-office systeem. In deze presentatie wordt daarnaast kort ingegaan op de datamodelleringsmethoden Data Vault en SuperNova. In deze sessie krijgt u inzicht in:

  • Aanleidingen voor datavirtualisatie
  • Hoe de proof of concept is uitgevoerd, met een korte toelichting van de modelleertechnieken Data Vault en SuperNova
  • De voordelen van een datavirtualisatie oplossing
  • Hoe een datavirtualisatie oplossing ingepast kan worden in een BI datawarehouse architectuur
  • En als uitsmijter een onverwacht voordeel ….

William McKnight4. Agile Project Management for Data Warehouse and Business Intelligence Projects
William McKnight, President McKnight Consulting Group

Learn from Success: Deliver success leading your data warehouse, MDM, big data, business intelligence or CRM project. Making effective use of information is a central focus of organizations both large and small in our contemporary competitive landscape. Information is an asset to exploit without restrictions on accessing new data and using it to provide better insight on overcoming business challenges. The use of agile techniques accelerates development, drives collaboration between IT and end users and ultimately conserves and maximizes budget. SCRUM, a form of agile, can maximum utilization of resource towards the important tasks. This session, from an instructor with several active Information Management project SCRUMS, outlines the modern components of information project project management and helps participants understand how these innovations can be put to work in today’s ever more complex IT environment.
  • When Does Agile Apply to DW&BI Projects
  • Getting Set Up for Agile
  • Agile Terms to Use and Do
  • DW&BI Agile Roles
  • Implications & Challenges of Moving to Agile
  • Organizational Change Management and Agile

Rick van der Lans5. Logical Data Lake en Logical Data Warehouse: Twee Zijden van dezelfde Medaille
Rick van der Lans, Managing Director, R20/Consultancy

Voor het populaire data lake concept bestaan veel definities. Veel van deze definities lijken op de volgende:
“A data lake is a storage repository that holds a vast amount of raw data in its native format, including structured, semi-structured, and unstructured data.”
Uiteraard kan het zeer nuttig zijn om één omgeving te hebben waar alle gegevens in hun originele (raw) vorm gevonden kunnen worden. Zeer zeker voor data science en investigative analytics is een data lake zeer geschikt. Maar de essentiële vraag is of het echt een fysiek gegevensopslagpunt moet zijn zoals gesuggereerd door de experts?  Is het niet voldoende als gebruikers een systeem kunnen benaderen dat hen toegang geeft tot alle gegevens in hun originele vorm? Ofwel, waarom geen logical (of virtueel) data lake? De technologie bestaat, zoals datavirtualisatie servers, en is volwassen genoeg om logical data lakes te ontwikkelen. Het zou het kopiëren van massale hoeveelheden big data van hun bron naar het data lake enorm verminderen.Maar wat is het verschil tussen een logical data lake en een logical data warehouse? Werken ze niet op dezelfde manier? Zijn ze eigenlijk niet hetzelfde? Beide presenteren een heterogene verzameling van gegevensbronnen als één grote logische database. Deze sessie behandelt hoe de twee concepten, logical data lake en logical data warehouse geïntegreerd kunnen worden, maar nog steeds typische data lake en data warehouse workloads kunnen ondersteunen. Het zijn werkelijk twee zijden van dezelfde medaille. Eén geïntegreerde architectuur wordt getoond die beide moderne concepten ondersteunt.
  • Wat zijn de beperkingen van een fysiek data lake en wat zijn de voordelen van een logical data lake?
  • De verschillen tussen een data lake en een data warehouse: schema-on-read, highly agile, ongestructureerde en semi-gestructureerde gegevens, low-cost storage
  • Wat zijn de praktische voordelen van de logical data warehouse architectuur en wat zijn de verschillen met de klassieke datawarehouse architectuur?
  • Richtlijnen voor het opzetten van één geïntegreerde architectuur voor een logical data lake en een logical datawarehouse
  • Enkele real-life ervaringen met het implementeren van logical data lakes en logical datawarehouses.
 

William McKnight6A. Strategies for Consolidating Enterprise Data Warehouses and Data Marts into a Single Platform
William McKnight, President McKnight Consulting Group

As companies grow in their realization of the value of information as a strategic asset, a re-evaluation of information architecture maturity and capabilities becomes essential. This has led many to corral their unwieldy, expensive environment into a more manageable and cost-effective infrastructure that produces the elusive bankable company numbers and metrics. During this session, industry expert William McKnight, will highlight key strategies leading edge companies have adopted to reduce the complexity of their data warehouse environment for maximum efficiency.
  • Inefficient Information Architecture
  • Methods of Data Mart Consolidation
  • Databases and data warehouse continued relevance
  • Many data warehouses, 1 data warehouse
  • Columnar orientation to databases
  • Keys to Data Mart Consolidation Success.
 

Kishan Shri6B. Het vernieuwde BI-landschap van het Erasmus MC middels het Scrum Framework en Datavirtualisatie
Kishan Shri, Adviseur BI en Scrum Master bij Erasmus Medisch Centrum (MC)

Het Erasmus MC staat de komende jaren voor enorme uitdagingen. Zo wordt er gewerkt aan een compleet nieuw ziekenhuis met eenpersoonspatiëntenkamers en vindt gelijktijdig een implementatie plaats van een nieuw Elektronisch Patiëntendossier. Dit alles heeft niet alleen een enorme impact op de manier van werken, maar ook de volledige informatiehuishouding staat hierdoor op z’n kop voor de domeinen zorg, onderwijs, onderzoek en bedrijfsvoering.
Hoe gaat het Erasmus MC om met het herstellen van de informatievoorziening? Hoe past het Scrum Framework hierin en welke rol speelt datavirtualisatie?
Kishan Shri, Adviseur Business Intelligence en Scrum Master bij het Erasmus MC, gaat in op de aanpak van het ziekenhuis en vertelt hierbij welke strategische keuzes gemaakt zijn en wat de belangrijkste lessons learned zijn.
Zaken die de revue passeren zijn:
  • Een visie op een data-gedreven ziekenhuis;
  • Het vernieuwde BI-architectuur van het Erasmus MC, inclusief de positionering van een datavirtualisatie-platform;
  • Lessons learned m.b.t.
    • het selecteren van een leverancier voor datavirtualisatie;
    • het implementeren van datavirtualisatie;
  • Adoptie en implementatie van het Scrum Framework in relatie tot datavirtualisatie.

Pieter den Hamer7A. IoD: Internet of Data
Pieter den Hamer, Lead Big Data, Business Intelligence & Analytics, Alliander

Is het ‘Internet of Data’ het antwoord op de vraag hoe we de vruchten van het ‘Internet of Things’ daadwerkelijk gaan plukken? Want hoe anders gaan we ons niet verslikken in steeds meer data, in steeds meer verschillende data en in steeds meer real-time data? Als het al moeilijk is om data uit uw bekende interne databronnen slechts 1x per dag te integreren, hoe gaat u dat dan doen als het Internet of Things uw organisatie gaat overspoelen met nog veel meer data uit talloze en steeds veranderende externe bronnen die u continu wilt integreren, verrijken, analyseren en vertalen naar waardevolle besluiten en acties? Het Internet of Data -als pragmatische reïncarnatie van het semantische web- belooft hier beterschap.  Concepten en technieken als linked (open)data, ontologieën, OWL, RDF en SPARQL kunnen helpen om data op een ‘agile’ manier aan elkaar te linken, maar dan wel gefocust op een toepassingsdomein, en niet voor de hele wereld. Niettemin blijft de Toren van Babel ons hier parten spelen – gelukkig lijken AI en (deep) machine learning steeds beter in staat om verschillen in semantiek en taal te overbruggen. Het Internet of Data zien we in de echte wereld al toegepast in smart city & smart society initiatieven. En wie weet kan een ‘Intranet of Data’ het einde inluiden van het vertrouwde enterprise data warehouse?
  • Hoe het ‘Internet of Things’ leidt tot het ‘Internet of Data’: de groeiende behoefte aan agile data integratie
  • Voorbij het semantische web: van idealisme naar pragmatisme
  • State-of-the-art technologie en tools
  • Het eeuwige probleem van semantiek, en hoe AI de reddende engel zou kunnen zijn
  • Van enterprise data warehouses naar enterprise linked data networks: the Intranet of Data
  • IoD voor smart cities en de publieke sector

Erik Fransen7B. Implementeren van het Enterprise Data Delivery Platform met Data Vault Modelleren
Erik Fransen, Management consultant bij Centennium

Organisaties blijven moeite hebben met het leveren Data en Analytics oplossingen naar hun klanten. Vele van hen hebben de klassieke rapportagefabriek draaien, voortkomend uit de datawarehouse en business intelligence architecturen van de jaren 90. En laten we wel zijn: hoewel hiermee in het verleden veel waarde is gecreëerd met standaardrapportages. Het snel leveren van data op een integrale en maatwerkwijze voor interactieve analyses was echter niet de eerste prioriteit. Dat is de reden dat deze data architecturen niet goed werken in het nieuwe tijdperk van Data en Analytics waar directe analyse, toegang tot alle data, data-integratie, snel en eenvoudige levering cruciaal is in het leveren van waarde aan de eindgebruikers. Gebruikers eisen real time levering van zowel bedrijfsbrede gegevens en data van andere bronnen, snelle implementaties, toegang tot big data, BI en ETL self service, impact analyse en inzicht in de lineage van gegevens.
Deze volgende generatie Enterprise Data Delivery Platforms (EDDP) maken gebruik van moderne Ensemble Modelling methoden zoals Data Vault om meer agile, flexibel en transparant te zijn in het aansluiten op elke databron: in een uniforme, consistente wijze waarbij data virtualisatie technologie wordt gebruikt voor snelle levering naar de gebruiker.

  • Data & Analytics uitdagingen: meer, sneller, beter, goedkoper en eenvoudiger
  • Trimodal Data & Analytics stromen: innovatieve voorspelling versus voorspelbare innovatie
  • Korte historie van Data Vault: van modelleren van het klassieke EDW naar het modelleren van de volgende generatie EDDP
  • Data Vault en het Enterprise Data Delivery Platform: implementeren van het logische datawarehouse
  • Cases van het implementeren van het Enterprise Data Delivery Platform

Mark Madsen8. Beer, Diapers and Correlation: A Tale of Ambiguity
Mark Madsen, President and founder of Third Nature

The story of the correlation of beer and diaper sales is a common one, still used to discuss the value of analytics in retailing and marketing.
Rarely does anyone ask about the origin of this story. Is it true? Why is it true? What does “true” actually mean?
The latter question is the most interesting because it challenges beliefs about the usefulness and accuracy in analytic models. Many people believe that data is absolute rather than relative, and that all analytic models produce an answer rather than a range of answers.
This is the history of the beer and diapers story, explaining its origins and truth (or falsehood), based on repeated analysis of retail data over the intervening decades. It will explain how one can have multiple, contradictory results and how they can all be simultaneously true.
This brings up the real question: how does one apply analytics in business when the data does not give you an unambiguous answer?

  • Lessons learned with applying analytics and data science
  • Is the notorious beer diaper example really true?
  • Data science is one half of the solution, interpreting the results is the other half
  • There is no single version of the truth
  • It’s not the insight, but what you do with it, that matters.

Cases

Mischa van WerkhovenEdwin WitvoetCase: Data gedreven bedrijfsvoering: Hoe data scientists een geavanceerd dataplatform en self-service analytics inzetten in de DJ & Entertainment sector

Edwin Witvoet, Directeur Jibe Company
Mischa van Werkhoven, Principal Solution Architect

Festivals, DJ en artiesten zetten scala aan netwerken in om in hun ‘mediabedrijf’ te groeien. Dit zorgt dat zij kunnen bouwen aan fan-relatie, marktaandeel, sponsors, sales etc. Echter, met zo veel data word het complexer inzicht te krijgen in de bijdrage van deze netwerken aan de bedrijfsdoelstellingen. Ontdek hoe Jibe met Qlik Data Management & Intelligence biedt.

Jos DriessenCase: Voeg complexiteit toe en verander uw huidige datawarehouse in een agile datawarehouse

Jos Driessen, founder BI Demystified

Echter, hoe kan complexiteit toevoegen toch agile vergroten? Experts zeggen u hoe een agile datawarehouse te bouwen. Gebruik een data lake, evenals concepten als een logical datawarehouse, data vault en supernova. Het antwoord is datawarehouse automatisering. Leer in deze sessie hoe het programmeren van robots een datawarehouse voor u genereert. U behoudt controle. U beslist wat er gebouwd wordt, maar u hoeft uzelf niet in de details te verdiepen. Dat doen de robots voor u. Met deze aanpak verandert u uw projecten in initiatieven en maakt u Business Analytics mogelijk.

Lukas AmesMartin PardedeCase: Continue integratie in Business Intelligence. Innovatie-gedreven, door bedrijfscultuur geïnspireerd.

Martin Pardede, BI Delivery Manager, Bestseller
Lukas Ames, IT consultant, Cimt

Bestseller ondergaat een sterke groei in zijn E-commerce afdeling. De divisie doorloopt een overgangsproces van in essentie een succesvolle start-up naar toekomstige leider worden in de e-commerce van de mode-industrie.
Om een BI-systeem te hebben dat niet alleen geschikt was om om te gaan met de snelle groei, werd niet alleen gekeken naar de technische aspecten maar ook naar een proces dat de kwaliteit van het systeem verzekert.
Deze sessie biedt u een inzage in hoe Bestseller de bedrijfscultuur combineert met de best-practices uit de ontwikkelaarsgemeenschap.
Besproken wordt hoe een way of working werd gecreëerd met Scrum, Jira, Talend, Bitbucket en TeamCity.

Rixt AltenburgRens WeijersCase: Een enterprise-ready data lake als instrument voor uw business

Rens Weijers, Director Data & Performance Management, Nuon Vattenfall
Rixt Altenburg, Manager Customer Insights, Nuon Vattenfall

Voor analisten en andere data professionals is het vaak duidelijk; de traditionele BI omgeving is onvoldoende in staat om alle data te benutten die voorhanden is.  Er is een data lake nodig om grote hoeveelheden data te kunnen verwerken, nieuwe data formats op te slaan en de bijbehorende tools te krijgen om deze data snel en efficiënt te kunnen combineren en analyseren. Want deze stap zetten is echt noodzakelijk om nieuwe klant inzichten te genereren of interne processen te verbeteren.  Maar hoe kom je snel naar een goed geïmplementeerde data lake? In een corporate omgeving, waarin veel verschillende stakeholders zijn, valt dat nog niet mee. Bovendien is het nieuwe materie voor de organisatie waardoor er in het begin nog veel onduidelijk is over hoe je dit moet operationeel moet krijgen.

Zaken die besproken zullen worden zijn:

  • De samenwerking met IT
  • Hoe krijg je het senior management mee
  • Implementatie van een data lake en de operationele uitdagingen
  • Lessons learned vanuit Nuon