20 maart
Zaal 1 Rick van der Lans
Zaal 1 Jan Henderyckx
Plenair, Zaal 1
Zaal 1 Lance Cameron
21 maart
Zaal 1 Mike Ferguson
Plenair, Zaal 1
Zaal 1 Rick van der Lans
Beyond Social Media – The Real Use for Big Data Analytics
Do they understand how they must transform their organizations to get the full benefits of big data? Do they see understand that it not just acquiring big data that is important; it is what they do with it that is? Finally do they understand the need for and role of the data scientist? These are the topics of Dr. Claudia Imhoff’s session. Specifically attendees will learn about:
- The characteristics and misconceptions of big data
- The need for “advanced analytics”
- The characteristics of analytically-driven enterprises
- The characteristics of, need for and skill sets of data scientists
- How to get started down the path of analytics
Opening door de dagvoorzitter
Combineren van data warehouse, data lake en data marktplaats
De wereld van business intelligence en datawarehousing blijft veranderen. Er zit lijkt wel geen stop op de stroom aan nieuwe technologieën, zoals Hadoop, NoSQL, self-service data preparation, nieuwe architecturen, ontwerptechnieken en inzichten. Het lijken allemaal op zichzelf staande ontwikkelingen. Maar de verbindende en overkoepelende trend is dat het gebruik van data binnen een organisatie drastisch aan het veranderen is. Hoe data gebruikt wordt, waar, door wie, wanneer, in welke vorm, al deze aspecten zijn aan het veranderen. En dit zet BI-afdelingen onder druk. Bestaande architecturen, oplossingen en technologieën zijn niet meer toereikend. In deze sessie wordt deze ingrijpende verandering toegelicht.
- Nieuwe vormen data datagebruik, zoals customer-facing apps, data science, embedded BI
- De krakende klassieke datawarehouse-architectuur
- Zijn de nieuwe data storage technologieën, zoals Hadoop en NoSQL, de oplossing voor het nieuwe gebruiksvormen van data?
- Wie ontwikkelt customer-facing apps: IT of BI?
- Wat is de rol van dark data, data governance en GDPR hierbij?
Is your BI Architecture fit for the demands of tomorrow?
Self-service. Data Science. Big Data. The more data we create the more important Time-To-Data becomes. We will discuss benefits of a modern analytics architecture, a shared semantic layer as a common language across the organisation and how to gain access to data as fast as possible in a speedy agile way.
Based on case studies from Business Intelligence Competence Centres, Majken Sander will also explore some of the challenges companies face when having multiple front-end tools, the value of data quality and the importance of easy access to numerous data sources, a process where automation can aid by lowering the need for resources.
And what does the market show as current trends in BI market? What would a future ready architecture look like?
Lees minderDe grote uitdagingen die GDPR teweeg brengt in Datawarehouse-projecten
Business Intelligence, BIG DATA, data warehouse, data lakes…. U hoort er dagelijks over: de digitale economie is een feit! Data is de nieuwe “olie”. Droomt niet elk bedrijf ervan om zijn klanten zo goed mogelijk te kennen om zo beter in te spelen op de behoeften: big data, big business! De technische mogelijkheden via connected devices maken massale data collectie over u als persoon mogelijk: ongelimiteerd in tijd, plaats, wat en over wie. Maar wat gebeurt er met mijn data en wat met mijn privacy?
Er werd een nieuwe Europese privacy wetgeving goedgekeurd (General data protection regulation, 25 mei 2016) die op 25 mei 2018 in voege treedt. Data-projecten moeten nu reeds rekening houden met de vergaande eisen die door deze wetgeving opgelegd worden.
In deze sessie verneemt u:
- De essentie van GDPR
- Welke GDPR eisen van toepassing zijn op de informatie levenscyclus: big data collection, big data processing en big data use
- Wat zijn de grootste uitdagingen bij datawarehouseprojecten, van wettelijke basis tot en met anonymisatie
- Welke maatregelen moet u treffen om in orde te zijn met de privacy wetgeving, zoals privacy by design & default, privacy impact assessment en data protection impact assessment
- Praktische project aanpak voor datawarehouse projecten
Kick start Data Science
CB verzorgt al sinds jaar en dag de supply chain voor het boekenvak en sinds kort ook voor healthcare. Klanten voorzien van de juiste informatie, zowel over producten als het logistieke proces, is de toegevoegde waarde die CB daarnaast biedt.
De afgelopen tijd heeft de organisatie ervaring opgedaan met data science, op het vlak van financiële performance, risk reduction, customer focus, new business en procesoptimalisatie. Emiel van Bockel deelt zijn ervaring met het opzetten van data science en de meerwaarde ervan voor CB.
- Wat is Data Science anders dan BI?
- Hoe werkt Data Science in de praktijk?
- Welke tooling en mensen heb je nodig voor Data Science?
- Wat is de toegevoegde waarde van Data Science?
- Belangrijke best practices en lessons learned uit CB project
Lunchpauze
Data Management in a Cloud Computing Environment
As the adoption of cloud computing continues to grow, we are now at the point where many companies may have deployed applications both off-premise on public clouds and on-premises on private clouds. They may even be using off-premise infrastructure to extend their private cloud environments. As a consequence, there is now a demand to seamlessly manage and govern data in a consistent way irrespective of its location in a cloud computing and hybrid environment.
This session looks in detail at the challenge of consistently managing data in a cloud computing environment and looks at what is needed to keep data consistent across off-premises and on-premises systems. In particular, it looks at important data management disciplines such as maintaining data privacy, data access security, data quality, data consolidation, data virtualisation, replication, master data management and data synchronisation across on-premises and off-premises clouds and what is possible today. It also looks at hybrid logical data lakes and explores concerns about the added complexity that off-premises data brings. Furthermore, it will highlight problems that still need to be solved to get to a point where companies can confidently and freely manage off-premises and on-premises data in a seamless manner.
The following will be discussed during this session:
- Pros and cons of deploying on the cloud?
- Deploying systems on public and private clouds – what are the options
- Cloud object storage, e.g. Amazon S3, Azure Storage, Openstack Swift
- Managing data governance across cloud and on-premises systems
- Managing data privacy and data access security in a hybrid cloud computing environment
- Ingesting data in the cloud – streaming and batch ingestion
- Cloud-based and on-premises data integration solutions, such as MDM, data virtualisation
CBS - De Transitie van Procesgedreven naar Data Centric
De vraag naar informatie en data neemt enorme proporties aan, het Centraal Bureau voor de Statistiek weet daar alles van af. Ook zij zijn net als een groot aantal andere bedrijven bezig met de transitie van een procesgedreven naar een data centrische aanpak. Dit betekent in de eerste plaats dat de data architectuur aan een stevige vernieuwing toe is. Ook de manier van data verkrijgen, gebruiken, hergebruiken en delen zal forse aanpassingen vergen in de processen. Daarbij spelen niet alleen inhoudelijke of technische overwegingen een rol maar ook culturele, juridische en politieke aspecten zijn van invloed. Naast de interne organisatie rond datagebruik neemt de vraag van buiten om gezamenlijk data te gebruiken enorm toe. Zo zoeken steeds meer universiteiten contact met het CBS om bijvoorbeeld onderzoekdata en CBS data te delen en te combineren. Met de voortdurende focus op privacybescherming en statistische beveiliging is dat geen sinecure. In deze praktijkcase wordt ingegaan op de uitdagingen die het CBS ondervindt bij het datadelen in brede zin en wordt daarnaast getoond hoe ze denken deze uitdagingen het hoofd te bieden. In deze sessie wordt dit besproken vanuit het perspectief van de business aan de hand van een aantal praktijkvoorbeelden. Een van de onderwerpen die meer expliciet toegelicht zal worden is het gebruik van Data Virtualisatie technologie als mogelijke oplossing voor het meer en veilig kunnen delen en (her)gebruiken van data. In deze sessie komen de volgende onderwerpen aan bod:
- Waarom zouden we data überhaupt willen of moeten delen
- De uitdagingen die een kennisinstituut als het CBS ervaart
- Welke oplossingen, zowel op architectuurgebied als technologisch, bieden zich aan?
- Hoe wil het CBS Data Virtualisatie inzetten om dit mogelijk te maken?
- Welke organisatorische uitdagingen komt men tegen?
- Hoe ziet de business case voor een dergelijke oplossing er uit?
A Data Governance Playbook: leveraging data management knowledge across the enterprise
Data Governance and Data Management offices often contain extensive knowledge and expertise in various areas of data management such as metadata management, data modeling, data profiling, evaluating privacy requirements and assigning criticality. This use case will explain the journey NNIP took to create a one-stop instruction manual, or playbook, for data owners to understand the methodical steps they need to take to be assured of the quality of their data and meta data. This data governance playbook is meant to create a holistic approach by assembling all the pieces of the data governance puzzle into a document that will eventually stand on its own without the assistance of members of a Centre of Excellence. The playbook also attempts to show the business value provided at each step of the way.
Lees minderGovernance and Compliance in the Age of Self-Service
In the BI market, everyone is talking about “self-service.” Business users are excited to have new tools which make analysis and collaboration easier than ever before. IT departments hope that life will be easier without the large number of requests from users for new dashboards, visualizations and apps.
But in practice, life for the IT department can be even busier with self-service BI. Users are no longer demanding reports – they are demanding access to data, with ease of use, high performance and security.
In this session we will show how IT can respond effectively to these demands, but only if they also use the appropriate tools: tools which enable automated, agile deployment of governed, managed sources. We’ll show how these tools for IT match the self-service tools of business users to make data discovery truly effective and enterprise-ready in a modern organization.
For business users trying to work with IT to make data discovery a viable, reputable alternative to traditional BI, this session will be insightful. For IT departments, struggling to keep up with a new stream of demands from business along with stricter rules around governance and compliance, this session will be essential.
- The different worlds of IT and business users
- User-focussed technologies that enable Self-Service
- User practices that challenge governance and compliance
- Data Supply Chains vs Data Lifecycles
- IT as Shopkeepers vs IT as Gatekeepers
- Compliance and Ethics
Borrel
Beyond Social Media – The Real Use for Big Data Analytics
Do they understand how they must transform their organizations to get the full benefits of big data? Do they see understand that it not just acquiring big data that is important; it is what they do with it that is? Finally do they understand the need for and role of the data scientist? These are the topics of Dr. Claudia Imhoff’s session. Specifically attendees will learn about:
- The characteristics and misconceptions of big data
- The need for “advanced analytics”
- The characteristics of analytically-driven enterprises
- The characteristics of, need for and skill sets of data scientists
- How to get started down the path of analytics
Opening door de dagvoorzitter
Combineren van data warehouse, data lake en data marktplaats
De wereld van business intelligence en datawarehousing blijft veranderen. Er zit lijkt wel geen stop op de stroom aan nieuwe technologieën, zoals Hadoop, NoSQL, self-service data preparation, nieuwe architecturen, ontwerptechnieken en inzichten. Het lijken allemaal op zichzelf staande ontwikkelingen. Maar de verbindende en overkoepelende trend is dat het gebruik van data binnen een organisatie drastisch aan het veranderen is. Hoe data gebruikt wordt, waar, door wie, wanneer, in welke vorm, al deze aspecten zijn aan het veranderen. En dit zet BI-afdelingen onder druk. Bestaande architecturen, oplossingen en technologieën zijn niet meer toereikend. In deze sessie wordt deze ingrijpende verandering toegelicht.
- Nieuwe vormen data datagebruik, zoals customer-facing apps, data science, embedded BI
- De krakende klassieke datawarehouse-architectuur
- Zijn de nieuwe data storage technologieën, zoals Hadoop en NoSQL, de oplossing voor het nieuwe gebruiksvormen van data?
- Wie ontwikkelt customer-facing apps: IT of BI?
- Wat is de rol van dark data, data governance en GDPR hierbij?
Is your BI Architecture fit for the demands of tomorrow?
Self-service. Data Science. Big Data. The more data we create the more important Time-To-Data becomes. We will discuss benefits of a modern analytics architecture, a shared semantic layer as a common language across the organisation and how to gain access to data as fast as possible in a speedy agile way.
Based on case studies from Business Intelligence Competence Centres, Majken Sander will also explore some of the challenges companies face when having multiple front-end tools, the value of data quality and the importance of easy access to numerous data sources, a process where automation can aid by lowering the need for resources.
And what does the market show as current trends in BI market? What would a future ready architecture look like?
Lees minderDe grote uitdagingen die GDPR teweeg brengt in Datawarehouse-projecten
Business Intelligence, BIG DATA, data warehouse, data lakes…. U hoort er dagelijks over: de digitale economie is een feit! Data is de nieuwe “olie”. Droomt niet elk bedrijf ervan om zijn klanten zo goed mogelijk te kennen om zo beter in te spelen op de behoeften: big data, big business! De technische mogelijkheden via connected devices maken massale data collectie over u als persoon mogelijk: ongelimiteerd in tijd, plaats, wat en over wie. Maar wat gebeurt er met mijn data en wat met mijn privacy?
Er werd een nieuwe Europese privacy wetgeving goedgekeurd (General data protection regulation, 25 mei 2016) die op 25 mei 2018 in voege treedt. Data-projecten moeten nu reeds rekening houden met de vergaande eisen die door deze wetgeving opgelegd worden.
In deze sessie verneemt u:
- De essentie van GDPR
- Welke GDPR eisen van toepassing zijn op de informatie levenscyclus: big data collection, big data processing en big data use
- Wat zijn de grootste uitdagingen bij datawarehouseprojecten, van wettelijke basis tot en met anonymisatie
- Welke maatregelen moet u treffen om in orde te zijn met de privacy wetgeving, zoals privacy by design & default, privacy impact assessment en data protection impact assessment
- Praktische project aanpak voor datawarehouse projecten
Kick start Data Science
CB verzorgt al sinds jaar en dag de supply chain voor het boekenvak en sinds kort ook voor healthcare. Klanten voorzien van de juiste informatie, zowel over producten als het logistieke proces, is de toegevoegde waarde die CB daarnaast biedt.
De afgelopen tijd heeft de organisatie ervaring opgedaan met data science, op het vlak van financiële performance, risk reduction, customer focus, new business en procesoptimalisatie. Emiel van Bockel deelt zijn ervaring met het opzetten van data science en de meerwaarde ervan voor CB.
- Wat is Data Science anders dan BI?
- Hoe werkt Data Science in de praktijk?
- Welke tooling en mensen heb je nodig voor Data Science?
- Wat is de toegevoegde waarde van Data Science?
- Belangrijke best practices en lessons learned uit CB project
Lunchpauze
Data Management in a Cloud Computing Environment
As the adoption of cloud computing continues to grow, we are now at the point where many companies may have deployed applications both off-premise on public clouds and on-premises on private clouds. They may even be using off-premise infrastructure to extend their private cloud environments. As a consequence, there is now a demand to seamlessly manage and govern data in a consistent way irrespective of its location in a cloud computing and hybrid environment.
This session looks in detail at the challenge of consistently managing data in a cloud computing environment and looks at what is needed to keep data consistent across off-premises and on-premises systems. In particular, it looks at important data management disciplines such as maintaining data privacy, data access security, data quality, data consolidation, data virtualisation, replication, master data management and data synchronisation across on-premises and off-premises clouds and what is possible today. It also looks at hybrid logical data lakes and explores concerns about the added complexity that off-premises data brings. Furthermore, it will highlight problems that still need to be solved to get to a point where companies can confidently and freely manage off-premises and on-premises data in a seamless manner.
The following will be discussed during this session:
- Pros and cons of deploying on the cloud?
- Deploying systems on public and private clouds – what are the options
- Cloud object storage, e.g. Amazon S3, Azure Storage, Openstack Swift
- Managing data governance across cloud and on-premises systems
- Managing data privacy and data access security in a hybrid cloud computing environment
- Ingesting data in the cloud – streaming and batch ingestion
- Cloud-based and on-premises data integration solutions, such as MDM, data virtualisation
CBS - De Transitie van Procesgedreven naar Data Centric
De vraag naar informatie en data neemt enorme proporties aan, het Centraal Bureau voor de Statistiek weet daar alles van af. Ook zij zijn net als een groot aantal andere bedrijven bezig met de transitie van een procesgedreven naar een data centrische aanpak. Dit betekent in de eerste plaats dat de data architectuur aan een stevige vernieuwing toe is. Ook de manier van data verkrijgen, gebruiken, hergebruiken en delen zal forse aanpassingen vergen in de processen. Daarbij spelen niet alleen inhoudelijke of technische overwegingen een rol maar ook culturele, juridische en politieke aspecten zijn van invloed. Naast de interne organisatie rond datagebruik neemt de vraag van buiten om gezamenlijk data te gebruiken enorm toe. Zo zoeken steeds meer universiteiten contact met het CBS om bijvoorbeeld onderzoekdata en CBS data te delen en te combineren. Met de voortdurende focus op privacybescherming en statistische beveiliging is dat geen sinecure. In deze praktijkcase wordt ingegaan op de uitdagingen die het CBS ondervindt bij het datadelen in brede zin en wordt daarnaast getoond hoe ze denken deze uitdagingen het hoofd te bieden. In deze sessie wordt dit besproken vanuit het perspectief van de business aan de hand van een aantal praktijkvoorbeelden. Een van de onderwerpen die meer expliciet toegelicht zal worden is het gebruik van Data Virtualisatie technologie als mogelijke oplossing voor het meer en veilig kunnen delen en (her)gebruiken van data. In deze sessie komen de volgende onderwerpen aan bod:
- Waarom zouden we data überhaupt willen of moeten delen
- De uitdagingen die een kennisinstituut als het CBS ervaart
- Welke oplossingen, zowel op architectuurgebied als technologisch, bieden zich aan?
- Hoe wil het CBS Data Virtualisatie inzetten om dit mogelijk te maken?
- Welke organisatorische uitdagingen komt men tegen?
- Hoe ziet de business case voor een dergelijke oplossing er uit?
A Data Governance Playbook: leveraging data management knowledge across the enterprise
Data Governance and Data Management offices often contain extensive knowledge and expertise in various areas of data management such as metadata management, data modeling, data profiling, evaluating privacy requirements and assigning criticality. This use case will explain the journey NNIP took to create a one-stop instruction manual, or playbook, for data owners to understand the methodical steps they need to take to be assured of the quality of their data and meta data. This data governance playbook is meant to create a holistic approach by assembling all the pieces of the data governance puzzle into a document that will eventually stand on its own without the assistance of members of a Centre of Excellence. The playbook also attempts to show the business value provided at each step of the way.
Lees minderGovernance and Compliance in the Age of Self-Service
In the BI market, everyone is talking about “self-service.” Business users are excited to have new tools which make analysis and collaboration easier than ever before. IT departments hope that life will be easier without the large number of requests from users for new dashboards, visualizations and apps.
But in practice, life for the IT department can be even busier with self-service BI. Users are no longer demanding reports – they are demanding access to data, with ease of use, high performance and security.
In this session we will show how IT can respond effectively to these demands, but only if they also use the appropriate tools: tools which enable automated, agile deployment of governed, managed sources. We’ll show how these tools for IT match the self-service tools of business users to make data discovery truly effective and enterprise-ready in a modern organization.
For business users trying to work with IT to make data discovery a viable, reputable alternative to traditional BI, this session will be insightful. For IT departments, struggling to keep up with a new stream of demands from business along with stricter rules around governance and compliance, this session will be essential.
- The different worlds of IT and business users
- User-focussed technologies that enable Self-Service
- User practices that challenge governance and compliance
- Data Supply Chains vs Data Lifecycles
- IT as Shopkeepers vs IT as Gatekeepers
- Compliance and Ethics
Borrel
Opening door de dagvoorzitter
Managing the Data Lake - The Critical Importance of An Information Catalog
With so much new data being captured across the enterprise and multiple self-service and data science initiatives being undertaken, something has to know and track what’s going on and what’s available in an increasingly complex data landscape. At the same time, people need the ability to publish what data and what artefacts (ETL jobs, data preparation jobs, analytical models, dashboards, etc) currently exist to encourage re-use and prevent re-invention. This session shows how information catalogue software can be used to publish data and artefacts to manage and organise a multi-platform analytical environment.
This session will cover:
- What is an information catalogue?
- Information catalogue capabilities, e.g. automatic data profiling, automatic tagging and data classification, automatic data indexing, faceted search, data marketplaces, artefact publishing
- Information Catalog technology offerings
- How does a in Information catalogue help govern a data lake?
- Creating a governed information value chain using an information catalogue
- Key roles and responsibilities – Information producers, information consumers and governance
- Publishing data and analytics as a service
- Integrating disparate metadata via Open Metadata and Governance
- Integrating the catalog with data management, data science, and BI technologies
- Consumer trust – Accessing business glossaries and metadata lineage
Praktijkcase FrieslandCampina
Uncertainty and Analytics
With the growth of machine learning and artificial intelligence, you may think we have more and better analytic insight than ever before. We do, but there’s a catch. The models used by data mining and deep learning use the language of probability and inference. We may be used to sales forecasts and budget predictions, but in the future our data will be more like weather forecasts and sporting predictions – open to change and chance.
In this session, we explore what business and IT need to know about these new analytics. We will consider the advantages and pitfalls of building decision support in an uncertain world, looking at issues with data quality, data visualization and regulatory compliance as relevant issues. The session will cover:
- Why machine learning is different to BI
- Sources of uncertainty in machine learning
- Probability and Data Literacy
- Communicating probabilities
- Uncertainty and visualization
De invloed van Blockchains op Data & Business Intelligence
Blockchains bestaan inmiddels negen jaar en nu pas beginnen veel mensen zich bewust te worden van hun potentieel. Ook na uren studie en video’s bekijken zit men vaak nog met talloze brandende vragen. Wat voor impact zullen blockchains op uw business hebben? Kan onze organisatie zelf voordeel behalen uit deze technologie? In zijn presentatie geeft Sam Wouters een eenvoudige uitleg over waarom blockchains bestaan, hoe ze werken en wat men er mee kan doen. Hij zal vooral dieper ingaan op de relatie tussen Blockchains en Data, en Business Intelligence.
- Waarom bestaan blockchains?
- Hoe werken open blockchains zoals Bitcoin?
- Hoe werken permissioned blockchains zoals Hyperledger?
- Welke impact zullen blockchains hebben op data infrastructuur?
- Hoe kunnen blockchains gebruikt worden voor Business Intelligence?
- Hoe zit het met blockchains en GDPR?
Lees minder
Lunchpauze
Artificial Intelligence en Business Intelligence
Omdat de laatste tijd AI steeds meer ingezet wordt, zal Cor Baars in deze sessie aandacht besteden aan wat AI en BI elkaar te bieden hebben.
AI draait op dit moment vooral om Deep Learning, een gelaagde variant van Machine Learning gebaseerd op Neurale Netwerken. Door een netwerk te trainen met voorbeelden vormt het een competentie, doorgaans het classificeren van bijvoorbeeld beelden of gebeurtenissen. Aan de trainingsvoorbeelden worden eisen gesteld en we zullen zien hoe BI een rol kan spelen bij het maken van geschikt trainingsmateriaal.
Of u laat zich als Data Scientist assisteren door een reeds getrainde AI! We zullen verschillende voorbeelden zien van op AI gebaseerde systemen die een deel van het werk van Data Scientists kunnen overnemen.
En voor de echte fijnproever is er de mogelijkheid om zelf een AI te trainen met eigen voorbeelden en deze vervolgens een deel van het BI werk te laten uitvoeren. Typische voorbeelden hiervan zijn anomaliedetectie in fraudeonderzoek en het bepalen wanneer er onderhoud aan machines moet plaatsvinden. We zullen diverse platformen zien die het een en ander mogelijk maken. Tenslotte kijken we wat AI-technologie BI te bieden heeft in de nabije toekomst.
In deze sessie zal Cor Baars het volgende bespreken:
- Deep Learning: Machine Learning in lagen om competenties te ontwikkelen
- BI voor AI: Met BI geschikte trainingsvoorbeelden voor Deep Learning maken
- AI voor BI: Kant-en-klare AI om de Data Scientist te ondersteunen
- BI voor AI voor BI: Train de AI met uw eigen voorbeelden om BI werk uit te voeren
- AI en BI in de nabije toekomst
Data & Analytics in de praktijk: putting it all together
Het vakgebied Data & Analytics is volop in ontwikkeling: Business Intelligence en Datawarehousing lijkt compleet verdrongen te worden door Big Data, Data Science, Machine Learning en AI. Op technologisch vlak is dat te verklaren, gezien de doorbraak van krachtige hybride dataverwerkingsplatformen en technologieën zoals, Spark, Drill, NoSQL, microservices, streaming data, datavirtualisatie plus decommoditisering van AI en Analytics.
We lijken echter veel van wat we de afgelopen 25 jaar geleerd hebben alweer vergeten te zijn: technologie is slechts een onderdeel van “the mix”. Werken vanuit een sterke business case, relevante use cases, conceptueel, logisch en technisch modelleren van data, bepalen van datakarakteristieken en dataroutes plus de implementatie in de organisatie zijn cruciaal om echt succesvol te worden met Data & Analytics. Met de veelheid aan Data & Analytics technologieën lijken we soms door de bomen het bos niet meer te zien en vergeten we voldoende aandacht te besteden aan deze thema’s.
In deze sessie gaan we in op vier praktijkcases waarin we laten zien hoe moderne Data & Analytics technologieën niet het doel, maar het middel zijn om business waarde te creëren. Hoe gaat u vanuit een startsituatie (inflexibele datawarehouses, complex BI-landschap, wildgroei aan Big Data en AI toepassingen, behoefte aan control, datamanagement en sneller te reageren op nieuwe Data & Analytics behoeften van de business) naar een POC-, Pilot- en implementatiefase? Leer van een pensioenuitvoerder, Academisch Ziekenhuis, verzekeraar en zoetwarenbedrijf hoe zij deze stappen hebben doorlopen.
• Datagedreven versus procesgedreven organisaties: een schijnbare tegenstelling?
• De valkuilen van moderne Data en Analytics-toepassingen: technologie, kennis en complexiteit
• De business case voor Data en Analytics
• Vier praktijkcases: leren, proeven, doen.
Data Science & A.I.: een deep dive onder de motorkap
In deze praktijksessie geven we een kijkje onder de motorkap van Data Science & A.I. door in te gaan op verschillende use cases, die verder gaan dan standaardvoorbeelden. Aan de hand van verschillende projecten van Anchormen laten we zien welke resultaten bereikt kunnen worden. Ook geven we inzicht in het stappenplan achter de verwerking van data, aan de hand van voorbeelden waarbij gebruik is gemaakt van het Dataiku platform.
Lees minderIntegratie van big data technologie binnen de datawarehouse-omgeving
Uit de wereld van big data is de laatste jaren een enorme hoeveelheid technologieën voortgekomen. Van simpele filesystemen via high-end in-memory analytical engines tot streaming database servers. Niet al deze oplossingen kunnen nuttig gebruikt worden binnen datawarehouse en business intelligence systemen, maar vele wel. Maar welke en waar? Waar kunnen bijvoorbeeld oplossingen zoals Kafka en streaming databases goed ingezet worden en wanneer is Spark nuttig? En hoe voorkomen we dat al deze nieuwe technologieën geïsoleerde oplossingen worden die weinig tot niet geïntegreerd zijn met het huidige BI-systeem? In deze sessie bespreken we hoe en waar deze technologieën effectief en efficiënt toegepast kunnen worden binnen bestaande BI-systemen.
- Het labyrint van bigdata-opslag technologieën, inclusief Hadoop, Kudu, NoSQL, multi-model databases
- Een overzicht van streaming database servers, zoals Apache Apex, Samza SQL, SQLStream en Tibco StreamBase
- Kunnen SQL-on-Hadoop engines, zoals Impala, Presto en Spark SQL, dienst doen als vervanging voor klassieke SQL databaseservers?
- Welke rol kunnen NoSQL-producten spelen binnen een BI-systeem?
- Met welke technologieën gaan we dark data en fast data te lijf?
Opening door de dagvoorzitter
Managing the Data Lake - The Critical Importance of An Information Catalog
With so much new data being captured across the enterprise and multiple self-service and data science initiatives being undertaken, something has to know and track what’s going on and what’s available in an increasingly complex data landscape. At the same time, people need the ability to publish what data and what artefacts (ETL jobs, data preparation jobs, analytical models, dashboards, etc) currently exist to encourage re-use and prevent re-invention. This session shows how information catalogue software can be used to publish data and artefacts to manage and organise a multi-platform analytical environment.
This session will cover:
- What is an information catalogue?
- Information catalogue capabilities, e.g. automatic data profiling, automatic tagging and data classification, automatic data indexing, faceted search, data marketplaces, artefact publishing
- Information Catalog technology offerings
- How does a in Information catalogue help govern a data lake?
- Creating a governed information value chain using an information catalogue
- Key roles and responsibilities – Information producers, information consumers and governance
- Publishing data and analytics as a service
- Integrating disparate metadata via Open Metadata and Governance
- Integrating the catalog with data management, data science, and BI technologies
- Consumer trust – Accessing business glossaries and metadata lineage
Praktijkcase FrieslandCampina
Uncertainty and Analytics
With the growth of machine learning and artificial intelligence, you may think we have more and better analytic insight than ever before. We do, but there’s a catch. The models used by data mining and deep learning use the language of probability and inference. We may be used to sales forecasts and budget predictions, but in the future our data will be more like weather forecasts and sporting predictions – open to change and chance.
In this session, we explore what business and IT need to know about these new analytics. We will consider the advantages and pitfalls of building decision support in an uncertain world, looking at issues with data quality, data visualization and regulatory compliance as relevant issues. The session will cover:
- Why machine learning is different to BI
- Sources of uncertainty in machine learning
- Probability and Data Literacy
- Communicating probabilities
- Uncertainty and visualization
De invloed van Blockchains op Data & Business Intelligence
Blockchains bestaan inmiddels negen jaar en nu pas beginnen veel mensen zich bewust te worden van hun potentieel. Ook na uren studie en video’s bekijken zit men vaak nog met talloze brandende vragen. Wat voor impact zullen blockchains op uw business hebben? Kan onze organisatie zelf voordeel behalen uit deze technologie? In zijn presentatie geeft Sam Wouters een eenvoudige uitleg over waarom blockchains bestaan, hoe ze werken en wat men er mee kan doen. Hij zal vooral dieper ingaan op de relatie tussen Blockchains en Data, en Business Intelligence.
- Waarom bestaan blockchains?
- Hoe werken open blockchains zoals Bitcoin?
- Hoe werken permissioned blockchains zoals Hyperledger?
- Welke impact zullen blockchains hebben op data infrastructuur?
- Hoe kunnen blockchains gebruikt worden voor Business Intelligence?
- Hoe zit het met blockchains en GDPR?
Lees minder
Lunchpauze
Artificial Intelligence en Business Intelligence
Omdat de laatste tijd AI steeds meer ingezet wordt, zal Cor Baars in deze sessie aandacht besteden aan wat AI en BI elkaar te bieden hebben.
AI draait op dit moment vooral om Deep Learning, een gelaagde variant van Machine Learning gebaseerd op Neurale Netwerken. Door een netwerk te trainen met voorbeelden vormt het een competentie, doorgaans het classificeren van bijvoorbeeld beelden of gebeurtenissen. Aan de trainingsvoorbeelden worden eisen gesteld en we zullen zien hoe BI een rol kan spelen bij het maken van geschikt trainingsmateriaal.
Of u laat zich als Data Scientist assisteren door een reeds getrainde AI! We zullen verschillende voorbeelden zien van op AI gebaseerde systemen die een deel van het werk van Data Scientists kunnen overnemen.
En voor de echte fijnproever is er de mogelijkheid om zelf een AI te trainen met eigen voorbeelden en deze vervolgens een deel van het BI werk te laten uitvoeren. Typische voorbeelden hiervan zijn anomaliedetectie in fraudeonderzoek en het bepalen wanneer er onderhoud aan machines moet plaatsvinden. We zullen diverse platformen zien die het een en ander mogelijk maken. Tenslotte kijken we wat AI-technologie BI te bieden heeft in de nabije toekomst.
In deze sessie zal Cor Baars het volgende bespreken:
- Deep Learning: Machine Learning in lagen om competenties te ontwikkelen
- BI voor AI: Met BI geschikte trainingsvoorbeelden voor Deep Learning maken
- AI voor BI: Kant-en-klare AI om de Data Scientist te ondersteunen
- BI voor AI voor BI: Train de AI met uw eigen voorbeelden om BI werk uit te voeren
- AI en BI in de nabije toekomst
Data & Analytics in de praktijk: putting it all together
Het vakgebied Data & Analytics is volop in ontwikkeling: Business Intelligence en Datawarehousing lijkt compleet verdrongen te worden door Big Data, Data Science, Machine Learning en AI. Op technologisch vlak is dat te verklaren, gezien de doorbraak van krachtige hybride dataverwerkingsplatformen en technologieën zoals, Spark, Drill, NoSQL, microservices, streaming data, datavirtualisatie plus decommoditisering van AI en Analytics.
We lijken echter veel van wat we de afgelopen 25 jaar geleerd hebben alweer vergeten te zijn: technologie is slechts een onderdeel van “the mix”. Werken vanuit een sterke business case, relevante use cases, conceptueel, logisch en technisch modelleren van data, bepalen van datakarakteristieken en dataroutes plus de implementatie in de organisatie zijn cruciaal om echt succesvol te worden met Data & Analytics. Met de veelheid aan Data & Analytics technologieën lijken we soms door de bomen het bos niet meer te zien en vergeten we voldoende aandacht te besteden aan deze thema’s.
In deze sessie gaan we in op vier praktijkcases waarin we laten zien hoe moderne Data & Analytics technologieën niet het doel, maar het middel zijn om business waarde te creëren. Hoe gaat u vanuit een startsituatie (inflexibele datawarehouses, complex BI-landschap, wildgroei aan Big Data en AI toepassingen, behoefte aan control, datamanagement en sneller te reageren op nieuwe Data & Analytics behoeften van de business) naar een POC-, Pilot- en implementatiefase? Leer van een pensioenuitvoerder, Academisch Ziekenhuis, verzekeraar en zoetwarenbedrijf hoe zij deze stappen hebben doorlopen.
• Datagedreven versus procesgedreven organisaties: een schijnbare tegenstelling?
• De valkuilen van moderne Data en Analytics-toepassingen: technologie, kennis en complexiteit
• De business case voor Data en Analytics
• Vier praktijkcases: leren, proeven, doen.
Data Science & A.I.: een deep dive onder de motorkap
In deze praktijksessie geven we een kijkje onder de motorkap van Data Science & A.I. door in te gaan op verschillende use cases, die verder gaan dan standaardvoorbeelden. Aan de hand van verschillende projecten van Anchormen laten we zien welke resultaten bereikt kunnen worden. Ook geven we inzicht in het stappenplan achter de verwerking van data, aan de hand van voorbeelden waarbij gebruik is gemaakt van het Dataiku platform.
Lees minderIntegratie van big data technologie binnen de datawarehouse-omgeving
Uit de wereld van big data is de laatste jaren een enorme hoeveelheid technologieën voortgekomen. Van simpele filesystemen via high-end in-memory analytical engines tot streaming database servers. Niet al deze oplossingen kunnen nuttig gebruikt worden binnen datawarehouse en business intelligence systemen, maar vele wel. Maar welke en waar? Waar kunnen bijvoorbeeld oplossingen zoals Kafka en streaming databases goed ingezet worden en wanneer is Spark nuttig? En hoe voorkomen we dat al deze nieuwe technologieën geïsoleerde oplossingen worden die weinig tot niet geïntegreerd zijn met het huidige BI-systeem? In deze sessie bespreken we hoe en waar deze technologieën effectief en efficiënt toegepast kunnen worden binnen bestaande BI-systemen.
- Het labyrint van bigdata-opslag technologieën, inclusief Hadoop, Kudu, NoSQL, multi-model databases
- Een overzicht van streaming database servers, zoals Apache Apex, Samza SQL, SQLStream en Tibco StreamBase
- Kunnen SQL-on-Hadoop engines, zoals Impala, Presto en Spark SQL, dienst doen als vervanging voor klassieke SQL databaseservers?
- Welke rol kunnen NoSQL-producten spelen binnen een BI-systeem?
- Met welke technologieën gaan we dark data en fast data te lijf?
Tijdgebrek?
Heeft u slechts één dag de tijd om de DW&BI Summit te bezoeken? Maak een keuze uit de onderwerpen en kom op alleen 20 maart of op 21 maart. Het is namelijk ook mogelijk om alleen de eerste dag van het congres of alleen de tweede dag te bezoeken. De onderwerpen zijn zodanig gekozen dat zij op zich zelf staan zodat het ook mogelijk is om dag twee te volgen zonder dat u dag één heeft bijgewoond.