Ooit gingen we uit van de regel dat data-architecturen onafhankelijk van technologieën en producten opgezet moesten worden; eerst de data-architectuur en dan de bijpassende producten uitzoeken. Dat lukte ook omdat veel producten redelijk uitwisselbaar was. Maar kan dat nog steeds? De laatste jaren worden we geconfronteerd met een niet aflatende stroom technologieën voor het verwerken, analyseren en opslaan van gegevens. Denk hierbij aan Hadoop, NoSQL, NewSQL, GPU-databases, Spark en Kafka. Deze technologieën hebben een grote invloed op data-verwerkende architecturen, zoals datawarehouses en streaming applicaties. Maar het belangrijkste is dat veel van deze producten zeer unieke interne architecturen hebben en direct bepaalde data-architecturen afdwingen. Dus kunnen we nog wel een technologie onafhankelijke data-architectuur ontwikkelen? In deze sessie worden de unieke architecturen van de nieuwe technologieën op een rijtje gezet en hun mogelijke invloed op data-architecturen belicht.
- Zitten we vast in onze oude ideeën over data-architectuur?
- Van generieke naar specialistische technologieën
- Voorbeelden van technologieën die een bepaalde data-architectuur afdwingen
- Wat is de rol van softwaregeneratoren bij deze discussie?
- Nieuwe technologie kan alleen optimaal gebruikt worden als de data-architectuur er op afgestemd is.