We leren & delen

ACA Group Blog

Lees meer over onze inzichten en meningen over diverse onderwerpen, nuttige inzichten en advies van onze experts.

Uitgelicht

20 JAN. 2023
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Leestijd 6 min

Het starten van een nieuw webproject kan een ontmoedigende taak zijn met veel verschillende onderdelen om rekening mee te houden en te configureren. Voor ontwikkelaars kan het zeker handig zijn om toegang te hebben tot een startpunt voor het bouwen van webapps, met alle benodigde bestanden en configuraties al ingesteld. Het bespaart niet alleen veel tijd en moeite in vergelijking met wanneer je alles vanaf nul moet opbouwen, het verhoogt ook de productiviteit en maakt klanten blij omdat ze veel sneller tastbare resultaten kunnen zien. Bij ACA Group doen we veel van dergelijke implementaties en de volgende vereisten zijn gemeenschappelijk voor de meeste webapplicatieprojecten: Een geweldige gebruikerservaring: een snelle, responsieve en vlotte frontend die flexibel genoeg is om elk soort gebruikersinteractie te implementeren Betrouwbare en performante verwerking: een solide database en backend oplossing die gemakkelijk uitbreidbaar, testbaar, onderhoudbaar en begrijpbaar is voor elke ingenieur Gebruikersauthenticatie en -beveiliging: een robuuste en volwassen authenticatieserver die ook SSO en gebruikersfederatie heeft en integreert met veel verschillende providers Eenvoudige en veilige implementatie: toch eenvoudig te ontwikkelen zonder al te veel overhead Ons antwoord op deze terugkerende eisen is een flexibele softwarebasis die out of the box werkt. Met een paar regels in de terminal kun je een nieuw project opstarten dat alle bovenstaande functionaliteiten in een basistoestand heeft, wachtend om uitgebreid en uitgebouwd te worden. De figuur hieronder illustreert de basis van de architectuur die we vaak gebruiken voor kleine en middelgrote webapplicaties, en de verschillende services die een rol spelen. Natuurlijk zijn er nog andere componenten in het spel, maar die worden vaker per geval geïmplementeerd. Backend Laten we beginnen met het brein van de webapplicatie - de backend. Voor ons Python-team is het niet meer dan logisch om deze taal te gebruiken om de ruggengraat van de applicatie te bouwen. FastAPI biedt veel flexibiliteit in termen van hoe je bedrijfslogica en ontwerppatronen implementeert. Het is ook een van de best presterende backend-oplossingen die je kunt kiezen in Python; het heeft geweldige documentatie en wordt ondersteund door een solide community. Een populaire keuze voor projecten met data-analyse, machine learning of AI, een Python backend maakt het gemakkelijker om geavanceerde technologieën dichter bij de gebruiker te brengen. Frontend Voor het ontwerpen van de gebruikerservaring - of de frontend - geven we de voorkeur aan Angular , een volwassen en goed onderzocht JavaScript-framework dat overal in de industrie wordt gebruikt. Het is ontworpen om eenvoudig interactieve webapplicaties van één pagina te maken die in elke moderne webbrowser kunnen draaien. Angular heeft ook een gevestigde reputatie op het gebied van goede prestaties en schaalbaarheid, waardoor het risico op schaalbaarheidsproblemen bij grotere projecten afneemt. Een ander voordeel is dat Angular gestructureerd is en veel lijkt op backend code, waardoor het makkelijker te begrijpen is voor niet-frontend ontwikkelaars. Database en opslag Voor gegevensopslag is PostgreSQL een veelgebruikt en betrouwbaar databasemanagementsysteem (DBMS) dat zeer geschikt is voor verschillende toepassingen, waaronder webontwikkeling. Het staat bekend om zijn prestaties, vooral als het gaat om het verwerken van grote hoeveelheden gegevens. Het kan complexe query's efficiënt verwerken en heeft de reputatie goed te kunnen schalen naarmate de grootte van de database toeneemt. Het is ook rijk aan functies en heeft verschillende opties voor indexering en query optimalisatie. Beveiliging en verificatie Onze beveiligde authenticatieserver is gebouwd op Keycloak , een volwassen IAM-oplossing die organisaties helpt hun applicaties en diensten te beveiligen. Het is niet alleen open-source, maar ook gesponsord door 's werelds leider op het gebied van open source voor bedrijven, RedHat. Het biedt een enkel toegangspunt voor gebruikers om zichzelf te authenticeren en toegang te autoriseren tot verschillende bronnen; en het ondersteunt een breed scala aan authenticatiemechanismen, zoals gebruikersnaam en wachtwoord, twee-factor authenticatie en social login. Infrastructuur Het volgende stukje van de puzzel is NGinx , dat al het inkomende verkeer orkestreert en verdeelt over de services. Het is een krachtige en flexibele webserver en reverse proxy die vaak wordt gebruikt om inkomende klantverzoeken veilig en met hoge prestaties af te handelen. Het staat bekend om zijn vermogen om een groot aantal gelijktijdige verbindingen af te handelen met een laag gebruik van bronnen, en is vooral efficiënt bij het serveren van statische inhoud zoals afbeeldingen, CSS en JavaScript-bestanden. Nginx kan verzoeken van clients doorsturen naar een of meer services, waarbij het verkeer eenvoudig naar de juiste component van de webapplicatie wordt geleid en de belasting over meerdere servers of services wordt verdeeld, zelfs als ze dezelfde rol vervullen. Dit betekent ook dat alle verschillende services uitsluitend via NGinx communiceren met SSL/TLS protocollen, waardoor al het verkeer wordt versleuteld en gevoelige gegevens worden beveiligd. Implementatie Tot slot vergemakkelijkt Docker de implementatie en ontwikkeling. Door de verschillende onderdelen van de app te containeriseren, zoals de backend of de database, wordt het veel eenvoudiger om de app op verschillende hostingomgevingen te implementeren. Dit is vooral belangrijk als klanten verschillende eisen hebben op het gebied van hostingmachines, infrastructuur, enzovoort. Met Docker kunnen de services van de app op een gestandaardiseerde manier worden verpakt en vervolgens consistent worden ingezet in verschillende omgevingen. Docker heeft ook voordelen voor het beheren van de app in productie. Door componenten in containers te plaatsen, kun je eenvoudig op- of afschalen, updates en rollbacks uitrollen en de gezondheid van de app bewaken. Dit kan helpen om de betrouwbaarheid en onderhoudbaarheid van de app te verbeteren. Voor ontwikkelaars maakt Docker het ook makkelijker om de app in verschillende omgevingen te testen, samen te werken met teamleden en taken zoals het bouwen, testen en uitrollen van de app te automatiseren. Kickstart een nieuw project 👊 Het doel van deze architectuur is om een startpunt te bieden voor het bouwen van een webapplicatie met alle benodigde componenten al geconfigureerd. We hebben het verpakt in een sjabloon dat alles bevat wat je nodig hebt om te beginnen, zodat je niet vanaf nul een startarchitectuur hoeft te bouwen. In plaats daarvan kunt u de sjabloon gebruiken als basis en deze vervolgens aanpassen aan uw specifieke behoeften. Om deze template te gebruiken, hebben we gekozen voor een tool genaamd Cookiecutter. Het hoeft maar één keer geïnstalleerd te worden door de persoon die de initiële repository opzet om een nieuw project te maken op basis van een sjabloon van de bovenstaande architectuur. Als onderdeel van dit proces worden een paar waarden gevraagd om het sjabloon aan te passen, zoals de naam van het project, het e-mailadres van de beheerder, welke functies je wilt inschakelen, enzovoort. Zodra je Cookiecutter hebt gebruikt om de projectmap aan te maken, bevat deze alles wat je nodig hebt om de webapplicatie te bouwen en uit te voeren. Om met de app aan de slag te gaan, kun je een eenvoudig Docker-commando uitvoeren en de webapplicatie is in een mum van tijd klaar voor gebruik. Dit maakt live ontwikkeling op elk deel van de applicatie mogelijk met hot reload, en maakt de implementatie zo eenvoudig als een paar klikken. Conclusie Al met al kan een kant-en-klare webapplicatie-architectuur zoals beschreven in deze blog een waardevol hulpmiddel zijn om tijd en moeite te besparen op elk nieuw project. Door een solide basis te bieden voor het bouwen van een webapplicatie, kan het teams helpen om snel een MVP op te starten, zonder vanaf nul te hoeven beginnen. De combinatie van de bovenstaande technologieën bespaart niet alleen tijd en moeite, maar geeft je ook het vertrouwen dat je app goed is uitgerust voor een breed scala aan behoeften.

Lees verder
We leren & delen

ACA Group Blog

Lees meer over onze inzichten en meningen over diverse onderwerpen, nuttige inzichten en advies van onze experts.

Uitgelicht

20 JAN. 2023
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Leestijd 6 min

Het starten van een nieuw webproject kan een ontmoedigende taak zijn met veel verschillende onderdelen om rekening mee te houden en te configureren. Voor ontwikkelaars kan het zeker handig zijn om toegang te hebben tot een startpunt voor het bouwen van webapps, met alle benodigde bestanden en configuraties al ingesteld. Het bespaart niet alleen veel tijd en moeite in vergelijking met wanneer je alles vanaf nul moet opbouwen, het verhoogt ook de productiviteit en maakt klanten blij omdat ze veel sneller tastbare resultaten kunnen zien. Bij ACA Group doen we veel van dergelijke implementaties en de volgende vereisten zijn gemeenschappelijk voor de meeste webapplicatieprojecten: Een geweldige gebruikerservaring: een snelle, responsieve en vlotte frontend die flexibel genoeg is om elk soort gebruikersinteractie te implementeren Betrouwbare en performante verwerking: een solide database en backend oplossing die gemakkelijk uitbreidbaar, testbaar, onderhoudbaar en begrijpbaar is voor elke ingenieur Gebruikersauthenticatie en -beveiliging: een robuuste en volwassen authenticatieserver die ook SSO en gebruikersfederatie heeft en integreert met veel verschillende providers Eenvoudige en veilige implementatie: toch eenvoudig te ontwikkelen zonder al te veel overhead Ons antwoord op deze terugkerende eisen is een flexibele softwarebasis die out of the box werkt. Met een paar regels in de terminal kun je een nieuw project opstarten dat alle bovenstaande functionaliteiten in een basistoestand heeft, wachtend om uitgebreid en uitgebouwd te worden. De figuur hieronder illustreert de basis van de architectuur die we vaak gebruiken voor kleine en middelgrote webapplicaties, en de verschillende services die een rol spelen. Natuurlijk zijn er nog andere componenten in het spel, maar die worden vaker per geval geïmplementeerd. Backend Laten we beginnen met het brein van de webapplicatie - de backend. Voor ons Python-team is het niet meer dan logisch om deze taal te gebruiken om de ruggengraat van de applicatie te bouwen. FastAPI biedt veel flexibiliteit in termen van hoe je bedrijfslogica en ontwerppatronen implementeert. Het is ook een van de best presterende backend-oplossingen die je kunt kiezen in Python; het heeft geweldige documentatie en wordt ondersteund door een solide community. Een populaire keuze voor projecten met data-analyse, machine learning of AI, een Python backend maakt het gemakkelijker om geavanceerde technologieën dichter bij de gebruiker te brengen. Frontend Voor het ontwerpen van de gebruikerservaring - of de frontend - geven we de voorkeur aan Angular , een volwassen en goed onderzocht JavaScript-framework dat overal in de industrie wordt gebruikt. Het is ontworpen om eenvoudig interactieve webapplicaties van één pagina te maken die in elke moderne webbrowser kunnen draaien. Angular heeft ook een gevestigde reputatie op het gebied van goede prestaties en schaalbaarheid, waardoor het risico op schaalbaarheidsproblemen bij grotere projecten afneemt. Een ander voordeel is dat Angular gestructureerd is en veel lijkt op backend code, waardoor het makkelijker te begrijpen is voor niet-frontend ontwikkelaars. Database en opslag Voor gegevensopslag is PostgreSQL een veelgebruikt en betrouwbaar databasemanagementsysteem (DBMS) dat zeer geschikt is voor verschillende toepassingen, waaronder webontwikkeling. Het staat bekend om zijn prestaties, vooral als het gaat om het verwerken van grote hoeveelheden gegevens. Het kan complexe query's efficiënt verwerken en heeft de reputatie goed te kunnen schalen naarmate de grootte van de database toeneemt. Het is ook rijk aan functies en heeft verschillende opties voor indexering en query optimalisatie. Beveiliging en verificatie Onze beveiligde authenticatieserver is gebouwd op Keycloak , een volwassen IAM-oplossing die organisaties helpt hun applicaties en diensten te beveiligen. Het is niet alleen open-source, maar ook gesponsord door 's werelds leider op het gebied van open source voor bedrijven, RedHat. Het biedt een enkel toegangspunt voor gebruikers om zichzelf te authenticeren en toegang te autoriseren tot verschillende bronnen; en het ondersteunt een breed scala aan authenticatiemechanismen, zoals gebruikersnaam en wachtwoord, twee-factor authenticatie en social login. Infrastructuur Het volgende stukje van de puzzel is NGinx , dat al het inkomende verkeer orkestreert en verdeelt over de services. Het is een krachtige en flexibele webserver en reverse proxy die vaak wordt gebruikt om inkomende klantverzoeken veilig en met hoge prestaties af te handelen. Het staat bekend om zijn vermogen om een groot aantal gelijktijdige verbindingen af te handelen met een laag gebruik van bronnen, en is vooral efficiënt bij het serveren van statische inhoud zoals afbeeldingen, CSS en JavaScript-bestanden. Nginx kan verzoeken van clients doorsturen naar een of meer services, waarbij het verkeer eenvoudig naar de juiste component van de webapplicatie wordt geleid en de belasting over meerdere servers of services wordt verdeeld, zelfs als ze dezelfde rol vervullen. Dit betekent ook dat alle verschillende services uitsluitend via NGinx communiceren met SSL/TLS protocollen, waardoor al het verkeer wordt versleuteld en gevoelige gegevens worden beveiligd. Implementatie Tot slot vergemakkelijkt Docker de implementatie en ontwikkeling. Door de verschillende onderdelen van de app te containeriseren, zoals de backend of de database, wordt het veel eenvoudiger om de app op verschillende hostingomgevingen te implementeren. Dit is vooral belangrijk als klanten verschillende eisen hebben op het gebied van hostingmachines, infrastructuur, enzovoort. Met Docker kunnen de services van de app op een gestandaardiseerde manier worden verpakt en vervolgens consistent worden ingezet in verschillende omgevingen. Docker heeft ook voordelen voor het beheren van de app in productie. Door componenten in containers te plaatsen, kun je eenvoudig op- of afschalen, updates en rollbacks uitrollen en de gezondheid van de app bewaken. Dit kan helpen om de betrouwbaarheid en onderhoudbaarheid van de app te verbeteren. Voor ontwikkelaars maakt Docker het ook makkelijker om de app in verschillende omgevingen te testen, samen te werken met teamleden en taken zoals het bouwen, testen en uitrollen van de app te automatiseren. Kickstart een nieuw project 👊 Het doel van deze architectuur is om een startpunt te bieden voor het bouwen van een webapplicatie met alle benodigde componenten al geconfigureerd. We hebben het verpakt in een sjabloon dat alles bevat wat je nodig hebt om te beginnen, zodat je niet vanaf nul een startarchitectuur hoeft te bouwen. In plaats daarvan kunt u de sjabloon gebruiken als basis en deze vervolgens aanpassen aan uw specifieke behoeften. Om deze template te gebruiken, hebben we gekozen voor een tool genaamd Cookiecutter. Het hoeft maar één keer geïnstalleerd te worden door de persoon die de initiële repository opzet om een nieuw project te maken op basis van een sjabloon van de bovenstaande architectuur. Als onderdeel van dit proces worden een paar waarden gevraagd om het sjabloon aan te passen, zoals de naam van het project, het e-mailadres van de beheerder, welke functies je wilt inschakelen, enzovoort. Zodra je Cookiecutter hebt gebruikt om de projectmap aan te maken, bevat deze alles wat je nodig hebt om de webapplicatie te bouwen en uit te voeren. Om met de app aan de slag te gaan, kun je een eenvoudig Docker-commando uitvoeren en de webapplicatie is in een mum van tijd klaar voor gebruik. Dit maakt live ontwikkeling op elk deel van de applicatie mogelijk met hot reload, en maakt de implementatie zo eenvoudig als een paar klikken. Conclusie Al met al kan een kant-en-klare webapplicatie-architectuur zoals beschreven in deze blog een waardevol hulpmiddel zijn om tijd en moeite te besparen op elk nieuw project. Door een solide basis te bieden voor het bouwen van een webapplicatie, kan het teams helpen om snel een MVP op te starten, zonder vanaf nul te hoeven beginnen. De combinatie van de bovenstaande technologieën bespaart niet alleen tijd en moeite, maar geeft je ook het vertrouwen dat je app goed is uitgerust voor een breed scala aan behoeften.

Lees verder

Alle blogs

futuristische man achter laptop ai
futuristische man achter laptop ai
Leestijd 4 min
8 MEI 2025

De wereld van gegevensanalyse verandert snel. AI-tools zoals Copilot automatiseren taken die ons vroeger uren kostten, en dat is opwindend! Maar het betekent ook dat we onze vaardigheden moeten ontwikkelen om de curve voor te blijven. In plaats van tijd te besteden aan repetitieve taken, kunnen data-analisten zich nu richten op het grotere geheel: strategie, het oplossen van problemen en het echt begrijpen van de business. Deze blog onderzoekt de belangrijkste vaardigheden die data-analisten nodig hebben om te gedijen in deze nieuwe, door AI aangedreven omgeving. De nieuwe focus van de data-analist: van repetitieve taken naar strategie Stel je voor dat je meer tijd hebt om je te richten op wat echt belangrijk is: de business begrijpen, complexe problemen oplossen en strategische beslissingen nemen. Dat is de kans die AI biedt. Om het potentieel van Copilot te maximaliseren, moeten data-analisten hun focus verleggen van handmatige taken naar werk dat diepgaande bedrijfskennis en kritisch denken vereist. Een cruciaal onderdeel van deze verschuiving is nauwe samenwerking met belanghebbenden. Data-analisten moeten hun uitdagingen begrijpen, de juiste vragen definiëren en ervoor zorgen dat hun inzichten de besluitvorming echt sturen. Belangrijkste vaardigheden die data-analisten nodig hebben bij het werken met AI 1. Geavanceerde datamodellering en metadatabeheer Waarom het belangrijk is: Nu AI-tools zoals Copilot een groot deel van de front-end rapportcreatie voor hun rekening nemen, zal de kwaliteit van de inzichten steeds meer afhangen van de robuustheid van het onderliggende datamodel. Data-analisten moeten tijd investeren in het verfijnen van hun vaardigheden op het gebied van datamodellering en metadatamanagement. Mogelijke stappen: Zorg ervoor dat datamodellen schoon, schaalbaar en goed gedocumenteerd zijn. Wees eerlijk, hoe vaak heb je het veld "Beschrijving" ingevuld in je Power BI-datamodel? Hoe vaak heb je het veld "Synoniemen" gebruikt? Onze gok is: niet zo vaak. Ironisch genoeg zullen deze velden nu cruciaal zijn in je streven naar kwalitatieve antwoorden van Copilot... Je zult metadata moeten organiseren om de vindbaarheid te verbeteren, zodat Copilot (of andere AI-tools) de juiste gegevens kunnen gebruiken om inzichten te genereren. Zorg dat je goed begrijpt hoe je data moet structureren zodat AI bruikbare, accurate inzichten kan genereren. Kijk goed naar je datamodel en hoe het is opgebouwd. Bepaal wat er kan worden verbeterd op basis van best practices en pas deze vervolgens systematisch toe. 2. Datagovernance en kwaliteitsborging Waarom het belangrijk is: Copilot kan alleen betrouwbare output produceren met data van hoge kwaliteit. Data-analisten zullen zich moeten richten op het waarborgen van dataconsistentie, betrouwbaarheid en governance. Te nemen stappen: Implementeer en onderhoud best practices voor data governance. Gebruik duidelijke naamgevingsconventies, vooraf gedefinieerde maatregelen en logische datastructuren die het Copilot makkelijker maken om bruikbare inzichten te genereren. 3. Zakelijk inzicht en strategische inzichten genereren Waarom het belangrijk is: AI-tools missen contextueel begrip, dus moeten data-analisten deze kloof overbruggen. Door een goed begrip te ontwikkelen van bedrijfsactiviteiten, trends in de sector en strategische doelstellingen kunnen analisten inzichten creëren die zowel relevant als impactvol zijn. Mogelijke stappen: Investeer in kennis over de doelen en strategische uitdagingen van uw organisatie. Hoe beter u deze doelen en uitdagingen kunt begrijpen en documenteren, hoe beter u ze kunt vertalen naar relevante inzichten. Ga regelmatig de dialoog aan met bedrijfsleiders om de context achter de gegevens te begrijpen, wat op zijn beurt helpt bij het vertalen van bevindingen in bruikbare strategieën. 4. Communicatieve vaardigheden en storytelling Waarom het belangrijk is: Het vertalen van technische inzichten naar verhalen die aanslaan bij zakelijke belanghebbenden is cruciaal. Storytelling overbrugt de kloof tussen data en besluitvormers. Mogelijke stappen: Word een expert in het framen van de inzichten. Werk aan het presenteren van gegevens in verhalende formats die het "waarom" en "hoe" achter de inzichten benadrukken. Concentreer je op hoe de gegevens aansluiten bij de doelstellingen van het bedrijf en bied duidelijke aanbevelingen en visualisaties die belanghebbenden gemakkelijk kunnen begrijpen. Hoe deze vaardigheden te implementeren: praktische acties voor data-analisten Datamodellering en metadatabeheer ontwikkelen Met AI-tools zoals Copilot in de mix, is de kwaliteit van inzichten sterk afhankelijk van datamodellen. Data-analisten moeten tijd besteden aan het verfijnen van hun vaardigheden op het gebied van datamodellering, waarbij ze zich moeten richten op: Het organiseren en documenteren van data: Besteed aandacht aan metadatavelden zoals beschrijvingen en synoniemen, die AI zullen helpen nauwkeurigere outputs te genereren. Optimalisatie van gegevensstructuren : Zorg ervoor dat je datastructuur schaalbaar, schoon en flexibel is. Hierdoor kan Copilot naadloos met de gegevens werken. Samenwerken met zakelijke belanghebbenden AI-gegenereerde inzichten zijn alleen zo waardevol als ze overeenkomen met de bedrijfsdoelen. Data-analisten moeten regelmatig in gesprek gaan met belanghebbenden om: Duidelijke doelstellingen te definiëren: Doelstellingen en pijnpunten te bespreken met belanghebbenden om een duidelijke richting te bepalen voor AI-analyse. Feedback te verzamelen: Regelmatige feedback helpt bij het aanpassen van AI-gegenereerde inzichten om beter te voldoen aan bedrijfsbehoeften, zodat de output praktisch en bruikbaar is. Conclusie: de toekomst van data-analyse is hier AI-tools zoals Copilot transformeren data-analyse en het is een spannende tijd om op dit gebied actief te zijn! Door zich te richten op strategisch denken, communicatie en een sterke basis voor data, kunnen data-analisten zich niet alleen aanpassen, maar zich ook ontwikkelen. Het vermogen om data-inzichten te verbinden met de bedrijfscontext, gecombineerd met uitstekende communicatie en storytelling, zal de meest succesvolle data-analisten de komende jaren kenmerken. Door in deze vaardigheden te investeren, kunnen data-analisten in de voorhoede van datagestuurde innovatie blijven. Lees het artikel "How Copilot in Power BI is Transforming Data Analysis" voor meer informatie over hoe Copilot data-analyse vormgeeft . 🚀 Klaar om je datateam te voorzien van geavanceerde AI-vaardigheden? Neem contact op met onze experts om je transformatie te ondersteunen.

Lees verder
Leestijd 6 min
8 MEI 2025

De afgelopen jaren hebben digitalisering en innovatie een enorme impact gehad op het applicatielandschap. Vroeger was de applicatiearchitectuur van een bedrijf relatief eenvoudig, maar dat is nu niet meer het geval. Talloze cloudoplossingen, die maandelijks worden gehuurd, maken de zaken nu zo ingewikkeld dat het niet meer duidelijk is welke gegevens waar worden bewaard . Combineer deze trend met de verschuiving naar zelfbedieningsapplicaties vanuit het perspectief van gegevensconsumptie en de impact op gegevensarchitecturen is onvermijdelijk. In deze blogpost duiken we dieper in deze (r)evolutie in de wereld van data en de impact van een veranderend applicatielandschap op je data-architectuur . Een open data-architectuur behouden Data' is een breed begrip en omvat ongelooflijk veel domeinen die allemaal specifieke kennis of een vorm van specialisatie vereisen. Er zijn voorbeelden te over: data-architectuur, datavisualisatie, datamanagement, databeveiliging, GDPR, enzovoort. In de loop der jaren hebben veel organisaties geprobeerd grip te krijgen op al deze verschillende 'datadomeinen'. En dit is echt geen peulenschil, want in elk van deze domeinen vinden innovatieve veranderingen plaats . Bovendien vallen ze vaak samen met andere en nieuwere concepten zoals AI, data science, machine learning en andere. In elk geval is het beter om je visie en gegevensarchitectuur zo 'open' mogelijk te houden . Dit houdt de impact van toekomstige veranderingen op je huidige implementatie zo laag mogelijk. Dergelijke veranderingen weigeren betekent innovatie vertragen, mogelijk uw eindgebruikers irriteren en de kans op enorme extra kosten een paar jaar later, wanneer de noodzaak om uw architectuur te herzien niet langer kan worden uitgesteld, enorm vergroten. Moderne toepassingen compliceren het combineren van gegevens De hoeveelheid gegevens neemt elk jaar exponentieel toe . Bovendien is de nieuwe generatie eindgebruikers gewend om op hun wenken bediend te worden. Dit is een trend die het huidige applicatielandschap duidelijk ondersteunt. Binnen veel applicaties bieden softwareleveranciers gegevens in real-time op een efficiënte, aantrekkelijke en inzichtelijke manier. Enorme steun voor deze leveranciers natuurlijk, maar dit zorgt voor extra problemen voor CIO's om gecombineerde gegevens aan eindgebruikers te leveren. "Wat is de impact van een marketingcampagne op de verkoop van een bepaald product?" Het beantwoorden van een vraag als deze vormt voor veel organisaties een uitdaging. Het antwoord vereist het combineren van gegevens uit twee (weliswaar goed georganiseerde) applicaties. Atlassian biedt bijvoorbeeld rapportagefuncties in Jira, terwijl Salesforce hetzelfde doet met zijn bekende CRM-platform. De rapportagefuncties in beide softwarepakketten zijn zeer gedetailleerd en stellen je in staat om krachtige rapporten te maken. Het is echter moeilijk om deze gegevens te combineren in één enkel rapport. Bovendien vereist een vraag als deze, naast goed gestructureerde marketing- en verkoopdomeinen, een overkoepelende technische en organisatorische afstemming. Welk domein heeft de verantwoordelijkheid of het mandaat om een dergelijke vraag te beantwoorden? Is er budget beschikbaar? Hoe zit het met de middelen? En welk domein zal deze kosten dragen? Biedt Self-Service BI een oplossing? In een poging om dergelijke vragen te beantwoorden, kwamen oplossingen zoals Self-Service BI op de markt. Deze tools zijn in staat om eenvoudig gegevens te combineren en inzicht te verschaffen waar de gebruikers misschien nog niet aan hadden gedacht. De enige vereiste is dat deze tools toegang moeten hebben tot de gegevens in kwestie. Klinkt eenvoudig genoeg, toch? Self-Service BI-tools hebben de afgelopen jaren een hoge vlucht genomen, waarbij Microsoft het voorbeeld gaf met zijn Power-BI. Door visualisaties en intuïtieve 'self-service data loaders' tot een belangrijk onderdeel te maken, konden ze de 'business' overtuigen om te investeren. Maar dit creëert een zekere spanning tussen de zakelijke gebruikers van deze tools en de CIO's . De laatsten verliezen langzaam hun grip op hun bedrijf. Deze laatsten verliezen stilaan hun greep op hun eigen IT-landschap, aangezien een Self-Service BI-aanpak op de achtergrond ook heel wat 'schaduw-BI'-initiatieven kan voortbrengen . Iemand kan bijvoorbeeld op eigen initiatief Google Data Studio hebben gebruikt zonder dat de CIO het wist, terwijl die CIO een toolset met Power-BI probeert te standaardiseren. Conclusie: veel dubbele gegevens, inbreuk op de beveiliging en dan hebben we het nog niet eens gehad over GDPR-compliance. Welke andere oplossingen zijn er? De standaard inzichten en analyserapporten binnen applicaties zijn oud nieuws en de vraag naar real-time analytics, ook wel streaming analytics genoemd, neemt toe. Tijdens het online winkelen tonen winkels bijvoorbeeld hun actuele voorraad van een product op de productpagina zelf. Waarom is het dan zo moeilijk om de vraag naar de impact van mijn marketingcampagne op mijn verkoop te beantwoorden in een rapport? De eisen en behoeften aan gegevens veranderen. Wie is de eigenaar van welke gegevens en wie bepaalt het gebruik ervan? Verdwijnen historische gegevens als ze niet worden opgeslagen in een datawarehouse? Als de gegevens nog steeds beschikbaar zijn binnen de applicatie waar ze in eerste instantie zijn gemaakt, hoe lang blijven ze daar dan nog? Het opslaan van de gegevens in een data lake of data repository is een mogelijke goedkope(re) oplossing. Deze gegevens zijn echter niet of nauwelijks georganiseerd, waardoor ze moeilijk te gebruiken zijn voor zaken als managementrapportage. Misschien is het overbrengen van deze gegevens naar een datawarehouse de beste oplossing? Goed gestructureerde gegevens, gemakkelijk te combineren met gegevens uit andere domeinen en dus een ideale basis voor verdere analyse. Maar... de informatie is niet real-time beschikbaar en deze oplossing kan behoorlijk duur worden. Welke oplossing past het beste bij uw behoeften? Takeaway Zoals je inmiddels hebt gemerkt, is het gemakkelijk om een heleboel vragen en uitdagingen op te sommen met betrekking tot het structureren van data binnen organisaties. Sommige datagerelateerde vragen vereisen een snel antwoord, andere meer analytische of strategische vragen hebben eigenlijk geen real-time data nodig. Een data-architectuur die rekening houdt met al deze behoeften en open staat voor veranderingen is een must. Wij geloven in een data-aanpak waarbij de domeineigenaar ook eigenaar is van de data en deze data faciliteert naar de rest van de organisatie. Het is de verantwoordelijkheid van de domeineigenaar om zijn gegevens zo te organiseren dat ze een antwoord kunnen bieden op zoveel mogelijk vragen uit de organisatie. Het is mogelijk dat deze persoon niet de nodige kennis of vaardigheden binnen zijn team heeft om dit allemaal te organiseren. Daarom is er een nieuwe rol binnen de organisatie nodig om domeineigenaren te ondersteunen met kennis en middelen: de rol van een Chief Data Officer (CDO). Zij orkestreren alles en iedereen in de organisatie als het gaat om data en hebben het mandaat om algemene richtlijnen af te dwingen. Uit onderzoek blijkt dat bedrijven die een CDO hebben aangesteld succesvoller zijn bij het uitrollen van nieuwe data-initiatieven. ACA Group engageert zich om zijn klanten zo goed mogelijk te begeleiden in hun data-aanpak. Het is van vitaal belang om een duidelijke visie te hebben, ondersteund door een toekomstbestendige data-architectuur: een architectuur die openstaat voor verandering en innovatie, niet alleen vanuit een technisch perspectief, maar ook als het gaat om veranderende eisen op het vlak van dataverbruik. Een relevantie voor de nieuwe generatie en een uitdaging voor de meeste data-architecturen en organisaties. {% module_block module "widget_ee7fe7f9-05fc-4bd8-b515-6bb400cb56b4" %}{% module_attribute "buttons" is_json="true" %}{% raw %}[{"appearance":{"link_color":"light","primary_color":"primary","secondary_color":"primary","tertiary_color":"light","tertiary_icon_accent_color":"dark","tertiary_text_color":"dark","variant":"primary"},"content":{"arrow":"right","icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"tertiary_icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"text":"Check out our data services"},"target":{"link":{"no_follow":false,"open_in_new_tab":false,"rel":"","sponsored":false,"url":{"content_id":null,"href":"https://acagroup.be/en/services/data/","href_with_scheme":"https://acagroup.be/en/services/data/","type":"EXTERNAL"},"user_generated_content":false}},"type":"normal"}]{% endraw %}{% end_module_attribute %}{% module_attribute "child_css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "field_types" is_json="true" %}{% raw %}{"buttons":"group","styles":"group"}{% endraw %}{% end_module_attribute %}{% module_attribute "isJsModule" is_json="true" %}{% raw %}true{% endraw %}{% end_module_attribute %}{% module_attribute "label" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "module_id" is_json="true" %}{% raw %}201493994716{% endraw %}{% end_module_attribute %}{% module_attribute "path" is_json="true" %}{% raw %}"@projects/aca-group-project/aca-group-app/components/modules/ButtonGroup"{% endraw %}{% end_module_attribute %}{% module_attribute "schema_version" is_json="true" %}{% raw %}2{% endraw %}{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}{% raw %}"NOT_SMART"{% endraw %}{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "type" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "wrap_field_tag" is_json="true" %}{% raw %}"div"{% endraw %}{% end_module_attribute %}{% end_module_block %}

Lees verder
Copilot en Power BI
Copilot en Power BI
Leestijd 5 min
8 MEI 2025

In mei 2024 signaleerde Microsofts aankondiging van Copilot voor Power BI een grote verschuiving in gegevensanalyse. Met deze AI-tool kunnen gebruikers complexe gegevenstaken uitvoeren met behulp van gesproken aanwijzingen, waardoor de manier waarop gegevens worden gemodelleerd, geanalyseerd en gepresenteerd verandert. Maar wat betekent dit voor bedrijven, IT-managers en gegevensanalisten? Ontdek hoe Copilot kan worden geïntegreerd in Power BI, welke taken het kan uitvoeren en wat de bredere implicaties zijn voor gegevensanalisten. Hoewel Copilot routinetaken vereenvoudigt, vereist het ook nieuwe vaardigheden en perspectieven om het potentieel volledig te realiseren. Laten we hier dieper op ingaan. Wat is Copilot voor Power BI? AI integreren in Power BI Copilot introduceert krachtige AI-tools die taken automatiseren en stroomlijnen waarvoor voorheen geavanceerde technische kennis nodig was. Hier volgt een overzicht van de belangrijkste functies van Copilot in Power BI: Datamodellen samenvatten : Biedt overzichten van onderliggende semantische modellen. Inhoud voor rapporten voorstellen : Gebruikt prompts om relevante visuals en lay-outs aan te bevelen. Visuals en rapportpagina's genereren: Automatiseert het maken van rapportelementen. Vragen over datamodellen beantwoorden : Beantwoordt vragen over gegevens binnen de context van het model. DAX-query's schrijven: Genereert DAX-expressies, waardoor er minder DAX-expertise nodig is. Vraag antwoord verbeteren met synoniemen en beschrijvingen : Verbetert de bruikbaarheid van modellen door natuurlijke taalverwerking mogelijk te maken. Met deze functies kunnen gegevens sneller en eenvoudiger worden verkend en rapporten worden gemaakt. Er is echter nog meer onder de oppervlakte waar data-analisten rekening mee moeten houden. Copilot: een assistent op junior niveau met beperkingen Als we Copilot als een collega beschouwen, zien we het als een assistent op junior-niveau die kan helpen met taken zoals het genereren van rapporten, dashboards en query's in Power BI. Copilot werkt echter zonder domeinspecifieke kennis en heeft de neiging om taken letterlijk te benaderen. Het kan efficiënt instructies opvolgen en output genereren op basis van goed geconstrueerde prompts, maar mist de diepgaande bedrijfscontext die menselijke analisten inbrengen. Copilot heeft niet het vermogen om de nuances van een bedrijfsprobleem te begrijpen of de branchespecifieke fijne kneepjes die vaak van invloed zijn op data-inzichten. Maar toch 😉. Hoewel Copilot een aantal van de meer routinematige en mechanische aspecten van data-analyse kan automatiseren, zoals het bouwen van visuals of het toepassen van basistransformaties, heeft het nog steeds begeleiding en overzicht nodig. Het is aan de analist om ervoor te zorgen dat de output van Copilot relevant en zinvol is en aansluit bij de doelstellingen van de organisatie. Copilot vervangt geen data-analisten, maar verhoogt hun rol en dwingt hen om zich te richten op taken op een hoger niveau die een hoge mate van kritisch denken vereisen. Copilot implementeren voor PowerBI: Kosten en uitdagingen Ondanks de belofte gaat Copilot voor veel organisaties gepaard met een aanzienlijke instapdrempel. Op dit moment vereist het gebruik van Copilot in Power BI minimaal een F64 Fabric capaciteit of een P1 Premium capaciteit, wat vrij duur is. Kleinere organisaties of organisaties met een beperkt budget hebben mogelijk niet onmiddellijk toegang, waardoor de wijdverspreide toepassing op dit moment beperkt is. Voor organisaties die wel investeren in de nodige infrastructuur, heeft Copilot het potentieel om bepaalde processen te versnellen. De hoge toegangskosten betekenen echter dat data-analisten in deze omgevingen een duidelijk rendement op hun investering moeten kunnen aantonen. Dit maakt het nog belangrijker voor analisten om zich te richten op het leveren van hoogwaardige inzichten die direct van invloed zijn op zakelijke beslissingen, in plaats van simpelweg rapporten te genereren. De impact van Copilot op de rol van de gegevensanalist Front-end ontwikkeling van Power BI-rapporten en -dashboards was vroeger een belangrijke verantwoordelijkheid van Power BI-ontwikkelaars of de data-analisten zelf. Met Copilot kunnen goed geconstrueerde prompts echter leiden tot volledig functionele rapporten en dashboards, waardoor veel van het handmatige werk wordt geautomatiseerd. Dit betekent dat data-analisten de tijd die ze besteden aan het maken van technische rapporten aanzienlijk kunnen verminderen. Het proces van het ontwerpen van visuals, het opmaken van rapporten en het maken van dashboards wordt grotendeels afgehandeld door Copilot. Hoewel automatisering tijd bespaart, zal het het werk van de data-analist een nieuwe vorm geven: De focus verschuift van dashboards naar bedrijfswaarde: Data-analisten zullen prioriteit geven aan het leveren van bruikbare inzichten in plaats van het bouwen van dashboards, door ervoor te zorgen dat dashboards bruikbare inzichten leveren die gemakkelijk te begrijpen zijn voor zakelijke belanghebbenden. Problemen vertalen naar dataoplossingen: Analisten moeten bedrijfsproblemen omzetten in datavragen en daarbij effectief gebruikmaken van Copilot. Een sterk zakelijk inzicht en goede communicatieve vaardigheden zijn essentieel om met leiders samen te werken en ervoor te zorgen dat inzichten de belangrijkste uitdagingen aanpakken. Robuuste en flexibele semantische modellen bouwen: Copilot is afhankelijk van goed gestructureerde modellen, waardoor datamodellering en metadatabeheer essentieel zijn. Analisten moeten robuuste, flexibele en goed gedocumenteerde semantische modellen maken die de veranderende bedrijfsbehoeften ondersteunen en zich richten op langetermijnstrategieën en belangrijke meetgegevens. Datagovernance onder de knie krijgen: Om de waarde van Copilot te maximaliseren, moeten data-analisten ervoor zorgen dat de data schoon, betrouwbaar en goed beheerd is. Gegevens van hoge kwaliteit en een sterk beheer van metadata zijn cruciaal, omdat Copilot hierop vertrouwt om effectieve output te genereren. Overweeg de volgende lijst met overwegingen die Microsoft publiceerde voor datasets die worden gebruikt met Copilot om je in de juiste richting te leiden. Conclusie: is Copilot voor Power BI een must-have voor jouw organisatie? Microsoft's Copilot voor Power BI is een game-changer, maar het benadrukt de noodzaak voor analisten om hun vaardigheden verder te ontwikkelen dan alleen technische taken. Analisten worden gestimuleerd om hun werk op een hoger plan te brengen en zich te richten op het genereren van inzicht en strategisch denken. Lees het artikel "Essentiële vaardigheden voor data-analisten in het tijdperk van AI" om meer te weten te komen over welke vaardigheden essentieel zullen zijn voor data-analisten in een Copilot-omgeving . Benieuwd naar de impact van Copilot op je datateam of heb je hulp nodig bij het effectief implementeren ervan? {% module_block module "widget_940af9b0-b1f5-43b5-9803-c344d01d992f" %}{% module_attribute "buttons" is_json="true" %}{% raw %}[{"appearance":{"link_color":"light","primary_color":"primary","secondary_color":"primary","tertiary_color":"light","tertiary_icon_accent_color":"dark","tertiary_text_color":"dark","variant":"primary"},"content":{"arrow":"right","icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"tertiary_icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"text":"Contact us!"},"target":{"link":{"no_follow":false,"open_in_new_tab":false,"rel":"","sponsored":false,"url":{"content_id":null,"href":"https://25145356.hs-sites-eu1.com/en/blog/how-copilot-in-power-bi-is-transforming-data-analysis-new-ai-tools-new-opportunities","href_with_scheme":"https://25145356.hs-sites-eu1.com/en/blog/how-copilot-in-power-bi-is-transforming-data-analysis-new-ai-tools-new-opportunities","type":"EXTERNAL"},"user_generated_content":false}},"type":"normal"}]{% endraw %}{% end_module_attribute %}{% module_attribute "child_css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "field_types" is_json="true" %}{% raw %}{"buttons":"group","styles":"group"}{% endraw %}{% end_module_attribute %}{% module_attribute "isJsModule" is_json="true" %}{% raw %}true{% endraw %}{% end_module_attribute %}{% module_attribute "label" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "module_id" is_json="true" %}{% raw %}201493994716{% endraw %}{% end_module_attribute %}{% module_attribute "path" is_json="true" %}{% raw %}"@projects/aca-group-project/aca-group-app/components/modules/ButtonGroup"{% endraw %}{% end_module_attribute %}{% module_attribute "schema_version" is_json="true" %}{% raw %}2{% endraw %}{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}{% raw %}"NOT_SMART"{% endraw %}{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "type" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "wrap_field_tag" is_json="true" %}{% raw %}"div"{% endraw %}{% end_module_attribute %}{% end_module_block %}

Lees verder
Gegevensstrategie
Gegevensstrategie
Hoe bouw je een datastrategie op maat van je organisatie?
Leestijd 4 min
6 MEI 2025

Je bent misschien wel bekend met de term 'data mesh'. Het is een van die modewoorden over data die al een tijdje de ronde doen. Hoewel data mesh het potentieel heeft om een organisatie in heel wat situaties veel waarde te bieden, moeten we ons niet blind staren op alle mooie terminologie. Als je een goede datastrategie wilt ontwikkelen, doe je er goed aan om jezelf eerst de volgende vragen te stellen: wat is de uitdaging die we met data willen aangaan? En hoe kan een oplossing bijdragen aan het bereiken van onze bedrijfsdoelstellingen? Er is zeker niets nieuws aan het gebruik van data door organisaties, maar we hebben wel een lange weg afgelegd. Aanvankelijk verzamelden bedrijven gegevens uit verschillende systemen in een datawarehouse. Het nadeel was dat het databeheer door een centraal team werd gedaan en dat de doorlooptijd van rapporten ernstig opliep . Bovendien moesten deze data engineers een goed begrip hebben van het hele bedrijf. In de jaren die volgden, zorgde de opkomst van sociale media ervoor dat de hoeveelheid gegevens als paddenstoelen uit de grond schoten, wat op zijn beurt leidde tot de term Big Data. Als gevolg hiervan werden tools ontwikkeld om enorme hoeveelheden gegevens te analyseren, waarbij de focus steeds meer verschoof naar selfservice. Deze laatste trend betekent nu dat het bedrijf zelf steeds beter in staat is om op eigen kracht met gegevens om te gaan. En dat brengt weer een nieuwe uitdaging met zich mee: zoals vaak het geval is, zijn we niet in staat om technologie los te koppelen van de processen in het bedrijf of van de mensen die deze gegevens gebruiken. Zijn deze mensen klaar om gegevens te gaan gebruiken? Hebben ze de juiste vaardigheden en heb je nagedacht over het soort vaardigheden dat je morgen nodig zult hebben? Wat zijn de doelen van het bedrijf en hoe kunnen werknemers bijdragen aan het bereiken ervan? Het menselijke aspect is een cruciaal onderdeel van elke krachtige datastrategie. Hoe maak je het verschil met data? In de praktijk blijkt dat veel bedrijven op het gebied van datastrategieën niet verder zijn gekomen dan een paar jaar geleden. Onnodig te zeggen dat dit nauwelijks een solide basis is om door te gaan naar de volgende stap. Laten we ons daarom richten op enkele van de belangrijkste elementen in een datastrategie: Gegevens moeten aanzetten tot actie: het is niet genoeg om alleen maar een paar cijfers te vergelijken; een kwalitatief hoogstaand rapport leidt tot een beslissing of moet op zijn minst duidelijk maken welke actie nodig is. Sharing is caring: als je toch gegevens hebt, waarom zou je ze dan niet delen? Niet alleen met je eigen interne afdelingen, maar ook met de buitenwereld. Als je erin slaagt om gegevens weer beschikbaar te maken voor de klant, is er een echt concurrentievoordeel te behalen. Visualiseren: gegevens worden vaak verzameld in slecht georganiseerde tabellen zonder goede lay-out. Studies tonen aan dat het menselijk brein moeite heeft om dit soort tabellen te lezen. Door gegevens te visualiseren (bijvoorbeeld met GeoMapping) kun je tot inzichten komen waar je eerder niet aan had gedacht. Verbind datasets: in het geval van datasets moet 1+1 altijd gelijk zijn aan 3. Als je bijvoorbeeld de effectiviteit van een marketingcampagne meet, kijk dan niet alleen naar het aantal kliks. De echte toegevoegde waarde zit in het correleren van de gegevens die je hebt met gegevens over het bedrijf, zoals (toegenomen) verkoopcijfers. Maak gegevens transparant: wees duidelijk over je bedrijfsdoelen en KPI's, zodat iedereen in de organisatie de gegevens kan gebruiken en zo kan bijdragen aan het behalen van een benchmark. Train mensen: zorg ervoor dat je mensen begrijpen hoe ze technologie moeten gebruiken, maar ook hoe gegevens hun taken kunnen vereenvoudigen en hoe gegevens bijdragen aan het behalen van de bedrijfsdoelen. Welk probleem wil je oplossen met data? Als je de basis eenmaal op orde hebt, kunnen we een stappenplan opstellen. Een oplossing mag nooit uitgaan van de gegevens zelf, maar moet altijd gekoppeld zijn aan een uitdaging of een doel. Daarom organiseert ACA Group altijd eerst een workshop om te achterhalen wat de doelstellingen van de klant zijn. Op basis van de uitkomst van deze workshop komen we tot een concrete probleemstelling, die ons op het juiste spoor zet om voor elke situatie een oplossing te vinden. De integratie van datasets zal in de nabije toekomst nog belangrijker worden, onder andere als onderdeel van duurzaamheidsrapportage. Om bedrijven zo goed mogelijk voor te bereiden en te begeleiden, zullen we in de loop van dit jaar met een reeks blogs dieper ingaan op enkele belangrijke terminologieën, methoden en uitdagingen rond gegevens. Bent u in de tussentijd benieuwd wat 'Data Mesh' precies inhoudt en waarom dit lonend kan zijn voor uw organisatie? {% module_block module "widget_1aee89e6-fefb-47ef-92d6-45fc3014a2b0" %}{% module_attribute "child_css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "field_types" is_json="true" %}{% raw %}{"buttons":"group","styles":"group"}{% endraw %}{% end_module_attribute %}{% module_attribute "isJsModule" is_json="true" %}{% raw %}true{% endraw %}{% end_module_attribute %}{% module_attribute "label" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "module_id" is_json="true" %}{% raw %}201493994716{% endraw %}{% end_module_attribute %}{% module_attribute "path" is_json="true" %}{% raw %}"@projects/aca-group-project/aca-group-app/components/modules/ButtonGroup"{% endraw %}{% end_module_attribute %}{% module_attribute "schema_version" is_json="true" %}{% raw %}2{% endraw %}{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}{% raw %}"NOT_SMART"{% endraw %}{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "type" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "wrap_field_tag" is_json="true" %}{% raw %}"div"{% endraw %}{% end_module_attribute %}{% end_module_block %}

Lees verder