We leren & delen

ACA Group Blog

Lees meer over onze inzichten en meningen over diverse onderwerpen, nuttige inzichten en advies van onze experts.

Uitgelicht

20 JAN. 2023
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Leestijd 6 min

Het starten van een nieuw webproject kan een ontmoedigende taak zijn met veel verschillende onderdelen om rekening mee te houden en te configureren. Voor ontwikkelaars kan het zeker handig zijn om toegang te hebben tot een startpunt voor het bouwen van webapps, met alle benodigde bestanden en configuraties al ingesteld. Het bespaart niet alleen veel tijd en moeite in vergelijking met wanneer je alles vanaf nul moet opbouwen, het verhoogt ook de productiviteit en maakt klanten blij omdat ze veel sneller tastbare resultaten kunnen zien. Bij ACA Group doen we veel van dergelijke implementaties en de volgende vereisten zijn gemeenschappelijk voor de meeste webapplicatieprojecten: Een geweldige gebruikerservaring: een snelle, responsieve en vlotte frontend die flexibel genoeg is om elk soort gebruikersinteractie te implementeren Betrouwbare en performante verwerking: een solide database en backend oplossing die gemakkelijk uitbreidbaar, testbaar, onderhoudbaar en begrijpbaar is voor elke ingenieur Gebruikersauthenticatie en -beveiliging: een robuuste en volwassen authenticatieserver die ook SSO en gebruikersfederatie heeft en integreert met veel verschillende providers Eenvoudige en veilige implementatie: toch eenvoudig te ontwikkelen zonder al te veel overhead Ons antwoord op deze terugkerende eisen is een flexibele softwarebasis die out of the box werkt. Met een paar regels in de terminal kun je een nieuw project opstarten dat alle bovenstaande functionaliteiten in een basistoestand heeft, wachtend om uitgebreid en uitgebouwd te worden. De figuur hieronder illustreert de basis van de architectuur die we vaak gebruiken voor kleine en middelgrote webapplicaties, en de verschillende services die een rol spelen. Natuurlijk zijn er nog andere componenten in het spel, maar die worden vaker per geval geïmplementeerd. Backend Laten we beginnen met het brein van de webapplicatie - de backend. Voor ons Python-team is het niet meer dan logisch om deze taal te gebruiken om de ruggengraat van de applicatie te bouwen. FastAPI biedt veel flexibiliteit in termen van hoe je bedrijfslogica en ontwerppatronen implementeert. Het is ook een van de best presterende backend-oplossingen die je kunt kiezen in Python; het heeft geweldige documentatie en wordt ondersteund door een solide community. Een populaire keuze voor projecten met data-analyse, machine learning of AI, een Python backend maakt het gemakkelijker om geavanceerde technologieën dichter bij de gebruiker te brengen. Frontend Voor het ontwerpen van de gebruikerservaring - of de frontend - geven we de voorkeur aan Angular , een volwassen en goed onderzocht JavaScript-framework dat overal in de industrie wordt gebruikt. Het is ontworpen om eenvoudig interactieve webapplicaties van één pagina te maken die in elke moderne webbrowser kunnen draaien. Angular heeft ook een gevestigde reputatie op het gebied van goede prestaties en schaalbaarheid, waardoor het risico op schaalbaarheidsproblemen bij grotere projecten afneemt. Een ander voordeel is dat Angular gestructureerd is en veel lijkt op backend code, waardoor het makkelijker te begrijpen is voor niet-frontend ontwikkelaars. Database en opslag Voor gegevensopslag is PostgreSQL een veelgebruikt en betrouwbaar databasemanagementsysteem (DBMS) dat zeer geschikt is voor verschillende toepassingen, waaronder webontwikkeling. Het staat bekend om zijn prestaties, vooral als het gaat om het verwerken van grote hoeveelheden gegevens. Het kan complexe query's efficiënt verwerken en heeft de reputatie goed te kunnen schalen naarmate de grootte van de database toeneemt. Het is ook rijk aan functies en heeft verschillende opties voor indexering en query optimalisatie. Beveiliging en verificatie Onze beveiligde authenticatieserver is gebouwd op Keycloak , een volwassen IAM-oplossing die organisaties helpt hun applicaties en diensten te beveiligen. Het is niet alleen open-source, maar ook gesponsord door 's werelds leider op het gebied van open source voor bedrijven, RedHat. Het biedt een enkel toegangspunt voor gebruikers om zichzelf te authenticeren en toegang te autoriseren tot verschillende bronnen; en het ondersteunt een breed scala aan authenticatiemechanismen, zoals gebruikersnaam en wachtwoord, twee-factor authenticatie en social login. Infrastructuur Het volgende stukje van de puzzel is NGinx , dat al het inkomende verkeer orkestreert en verdeelt over de services. Het is een krachtige en flexibele webserver en reverse proxy die vaak wordt gebruikt om inkomende klantverzoeken veilig en met hoge prestaties af te handelen. Het staat bekend om zijn vermogen om een groot aantal gelijktijdige verbindingen af te handelen met een laag gebruik van bronnen, en is vooral efficiënt bij het serveren van statische inhoud zoals afbeeldingen, CSS en JavaScript-bestanden. Nginx kan verzoeken van clients doorsturen naar een of meer services, waarbij het verkeer eenvoudig naar de juiste component van de webapplicatie wordt geleid en de belasting over meerdere servers of services wordt verdeeld, zelfs als ze dezelfde rol vervullen. Dit betekent ook dat alle verschillende services uitsluitend via NGinx communiceren met SSL/TLS protocollen, waardoor al het verkeer wordt versleuteld en gevoelige gegevens worden beveiligd. Implementatie Tot slot vergemakkelijkt Docker de implementatie en ontwikkeling. Door de verschillende onderdelen van de app te containeriseren, zoals de backend of de database, wordt het veel eenvoudiger om de app op verschillende hostingomgevingen te implementeren. Dit is vooral belangrijk als klanten verschillende eisen hebben op het gebied van hostingmachines, infrastructuur, enzovoort. Met Docker kunnen de services van de app op een gestandaardiseerde manier worden verpakt en vervolgens consistent worden ingezet in verschillende omgevingen. Docker heeft ook voordelen voor het beheren van de app in productie. Door componenten in containers te plaatsen, kun je eenvoudig op- of afschalen, updates en rollbacks uitrollen en de gezondheid van de app bewaken. Dit kan helpen om de betrouwbaarheid en onderhoudbaarheid van de app te verbeteren. Voor ontwikkelaars maakt Docker het ook makkelijker om de app in verschillende omgevingen te testen, samen te werken met teamleden en taken zoals het bouwen, testen en uitrollen van de app te automatiseren. Kickstart een nieuw project 👊 Het doel van deze architectuur is om een startpunt te bieden voor het bouwen van een webapplicatie met alle benodigde componenten al geconfigureerd. We hebben het verpakt in een sjabloon dat alles bevat wat je nodig hebt om te beginnen, zodat je niet vanaf nul een startarchitectuur hoeft te bouwen. In plaats daarvan kunt u de sjabloon gebruiken als basis en deze vervolgens aanpassen aan uw specifieke behoeften. Om deze template te gebruiken, hebben we gekozen voor een tool genaamd Cookiecutter. Het hoeft maar één keer geïnstalleerd te worden door de persoon die de initiële repository opzet om een nieuw project te maken op basis van een sjabloon van de bovenstaande architectuur. Als onderdeel van dit proces worden een paar waarden gevraagd om het sjabloon aan te passen, zoals de naam van het project, het e-mailadres van de beheerder, welke functies je wilt inschakelen, enzovoort. Zodra je Cookiecutter hebt gebruikt om de projectmap aan te maken, bevat deze alles wat je nodig hebt om de webapplicatie te bouwen en uit te voeren. Om met de app aan de slag te gaan, kun je een eenvoudig Docker-commando uitvoeren en de webapplicatie is in een mum van tijd klaar voor gebruik. Dit maakt live ontwikkeling op elk deel van de applicatie mogelijk met hot reload, en maakt de implementatie zo eenvoudig als een paar klikken. Conclusie Al met al kan een kant-en-klare webapplicatie-architectuur zoals beschreven in deze blog een waardevol hulpmiddel zijn om tijd en moeite te besparen op elk nieuw project. Door een solide basis te bieden voor het bouwen van een webapplicatie, kan het teams helpen om snel een MVP op te starten, zonder vanaf nul te hoeven beginnen. De combinatie van de bovenstaande technologieën bespaart niet alleen tijd en moeite, maar geeft je ook het vertrouwen dat je app goed is uitgerust voor een breed scala aan behoeften.

Lees verder
We leren & delen

ACA Group Blog

Lees meer over onze inzichten en meningen over diverse onderwerpen, nuttige inzichten en advies van onze experts.

Uitgelicht

20 JAN. 2023
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Kickstart je volgende project met een kant-en-klare webapplicatie-architectuur
Leestijd 6 min

Het starten van een nieuw webproject kan een ontmoedigende taak zijn met veel verschillende onderdelen om rekening mee te houden en te configureren. Voor ontwikkelaars kan het zeker handig zijn om toegang te hebben tot een startpunt voor het bouwen van webapps, met alle benodigde bestanden en configuraties al ingesteld. Het bespaart niet alleen veel tijd en moeite in vergelijking met wanneer je alles vanaf nul moet opbouwen, het verhoogt ook de productiviteit en maakt klanten blij omdat ze veel sneller tastbare resultaten kunnen zien. Bij ACA Group doen we veel van dergelijke implementaties en de volgende vereisten zijn gemeenschappelijk voor de meeste webapplicatieprojecten: Een geweldige gebruikerservaring: een snelle, responsieve en vlotte frontend die flexibel genoeg is om elk soort gebruikersinteractie te implementeren Betrouwbare en performante verwerking: een solide database en backend oplossing die gemakkelijk uitbreidbaar, testbaar, onderhoudbaar en begrijpbaar is voor elke ingenieur Gebruikersauthenticatie en -beveiliging: een robuuste en volwassen authenticatieserver die ook SSO en gebruikersfederatie heeft en integreert met veel verschillende providers Eenvoudige en veilige implementatie: toch eenvoudig te ontwikkelen zonder al te veel overhead Ons antwoord op deze terugkerende eisen is een flexibele softwarebasis die out of the box werkt. Met een paar regels in de terminal kun je een nieuw project opstarten dat alle bovenstaande functionaliteiten in een basistoestand heeft, wachtend om uitgebreid en uitgebouwd te worden. De figuur hieronder illustreert de basis van de architectuur die we vaak gebruiken voor kleine en middelgrote webapplicaties, en de verschillende services die een rol spelen. Natuurlijk zijn er nog andere componenten in het spel, maar die worden vaker per geval geïmplementeerd. Backend Laten we beginnen met het brein van de webapplicatie - de backend. Voor ons Python-team is het niet meer dan logisch om deze taal te gebruiken om de ruggengraat van de applicatie te bouwen. FastAPI biedt veel flexibiliteit in termen van hoe je bedrijfslogica en ontwerppatronen implementeert. Het is ook een van de best presterende backend-oplossingen die je kunt kiezen in Python; het heeft geweldige documentatie en wordt ondersteund door een solide community. Een populaire keuze voor projecten met data-analyse, machine learning of AI, een Python backend maakt het gemakkelijker om geavanceerde technologieën dichter bij de gebruiker te brengen. Frontend Voor het ontwerpen van de gebruikerservaring - of de frontend - geven we de voorkeur aan Angular , een volwassen en goed onderzocht JavaScript-framework dat overal in de industrie wordt gebruikt. Het is ontworpen om eenvoudig interactieve webapplicaties van één pagina te maken die in elke moderne webbrowser kunnen draaien. Angular heeft ook een gevestigde reputatie op het gebied van goede prestaties en schaalbaarheid, waardoor het risico op schaalbaarheidsproblemen bij grotere projecten afneemt. Een ander voordeel is dat Angular gestructureerd is en veel lijkt op backend code, waardoor het makkelijker te begrijpen is voor niet-frontend ontwikkelaars. Database en opslag Voor gegevensopslag is PostgreSQL een veelgebruikt en betrouwbaar databasemanagementsysteem (DBMS) dat zeer geschikt is voor verschillende toepassingen, waaronder webontwikkeling. Het staat bekend om zijn prestaties, vooral als het gaat om het verwerken van grote hoeveelheden gegevens. Het kan complexe query's efficiënt verwerken en heeft de reputatie goed te kunnen schalen naarmate de grootte van de database toeneemt. Het is ook rijk aan functies en heeft verschillende opties voor indexering en query optimalisatie. Beveiliging en verificatie Onze beveiligde authenticatieserver is gebouwd op Keycloak , een volwassen IAM-oplossing die organisaties helpt hun applicaties en diensten te beveiligen. Het is niet alleen open-source, maar ook gesponsord door 's werelds leider op het gebied van open source voor bedrijven, RedHat. Het biedt een enkel toegangspunt voor gebruikers om zichzelf te authenticeren en toegang te autoriseren tot verschillende bronnen; en het ondersteunt een breed scala aan authenticatiemechanismen, zoals gebruikersnaam en wachtwoord, twee-factor authenticatie en social login. Infrastructuur Het volgende stukje van de puzzel is NGinx , dat al het inkomende verkeer orkestreert en verdeelt over de services. Het is een krachtige en flexibele webserver en reverse proxy die vaak wordt gebruikt om inkomende klantverzoeken veilig en met hoge prestaties af te handelen. Het staat bekend om zijn vermogen om een groot aantal gelijktijdige verbindingen af te handelen met een laag gebruik van bronnen, en is vooral efficiënt bij het serveren van statische inhoud zoals afbeeldingen, CSS en JavaScript-bestanden. Nginx kan verzoeken van clients doorsturen naar een of meer services, waarbij het verkeer eenvoudig naar de juiste component van de webapplicatie wordt geleid en de belasting over meerdere servers of services wordt verdeeld, zelfs als ze dezelfde rol vervullen. Dit betekent ook dat alle verschillende services uitsluitend via NGinx communiceren met SSL/TLS protocollen, waardoor al het verkeer wordt versleuteld en gevoelige gegevens worden beveiligd. Implementatie Tot slot vergemakkelijkt Docker de implementatie en ontwikkeling. Door de verschillende onderdelen van de app te containeriseren, zoals de backend of de database, wordt het veel eenvoudiger om de app op verschillende hostingomgevingen te implementeren. Dit is vooral belangrijk als klanten verschillende eisen hebben op het gebied van hostingmachines, infrastructuur, enzovoort. Met Docker kunnen de services van de app op een gestandaardiseerde manier worden verpakt en vervolgens consistent worden ingezet in verschillende omgevingen. Docker heeft ook voordelen voor het beheren van de app in productie. Door componenten in containers te plaatsen, kun je eenvoudig op- of afschalen, updates en rollbacks uitrollen en de gezondheid van de app bewaken. Dit kan helpen om de betrouwbaarheid en onderhoudbaarheid van de app te verbeteren. Voor ontwikkelaars maakt Docker het ook makkelijker om de app in verschillende omgevingen te testen, samen te werken met teamleden en taken zoals het bouwen, testen en uitrollen van de app te automatiseren. Kickstart een nieuw project 👊 Het doel van deze architectuur is om een startpunt te bieden voor het bouwen van een webapplicatie met alle benodigde componenten al geconfigureerd. We hebben het verpakt in een sjabloon dat alles bevat wat je nodig hebt om te beginnen, zodat je niet vanaf nul een startarchitectuur hoeft te bouwen. In plaats daarvan kunt u de sjabloon gebruiken als basis en deze vervolgens aanpassen aan uw specifieke behoeften. Om deze template te gebruiken, hebben we gekozen voor een tool genaamd Cookiecutter. Het hoeft maar één keer geïnstalleerd te worden door de persoon die de initiële repository opzet om een nieuw project te maken op basis van een sjabloon van de bovenstaande architectuur. Als onderdeel van dit proces worden een paar waarden gevraagd om het sjabloon aan te passen, zoals de naam van het project, het e-mailadres van de beheerder, welke functies je wilt inschakelen, enzovoort. Zodra je Cookiecutter hebt gebruikt om de projectmap aan te maken, bevat deze alles wat je nodig hebt om de webapplicatie te bouwen en uit te voeren. Om met de app aan de slag te gaan, kun je een eenvoudig Docker-commando uitvoeren en de webapplicatie is in een mum van tijd klaar voor gebruik. Dit maakt live ontwikkeling op elk deel van de applicatie mogelijk met hot reload, en maakt de implementatie zo eenvoudig als een paar klikken. Conclusie Al met al kan een kant-en-klare webapplicatie-architectuur zoals beschreven in deze blog een waardevol hulpmiddel zijn om tijd en moeite te besparen op elk nieuw project. Door een solide basis te bieden voor het bouwen van een webapplicatie, kan het teams helpen om snel een MVP op te starten, zonder vanaf nul te hoeven beginnen. De combinatie van de bovenstaande technologieën bespaart niet alleen tijd en moeite, maar geeft je ook het vertrouwen dat je app goed is uitgerust voor een breed scala aan behoeften.

Lees verder

Alle blogs

Aan de slag met Data Mesh
Leestijd 3 min
17 MEI 2025

Maak het concreet voor alle belanghebbenden Data Mesh wordt vaak gezien als iets zeer abstract en theoretisch, waardoor belanghebbenden onzeker zijn over de precieze implicaties en mogelijke oplossingen ervan. Daarom willen we het bij ACA Group zo concreet mogelijk maken voor business stakeholders, technische stakeholders en andere belanghebbenden in de organisatie. Wij raden aan om drie belangrijke uitdagingen tegelijkertijd aan te pakken: IDENTIFICEER BEDRIJFSWAARDE – Definieer hoe Data Mesh exact bijdraagt ​​aan de bedrijfswaarde door data als een product te beschouwen. ORGANISEER TEAMS – Specificeer de rol van elk team, teamlid en persona binnen de context van Data Mesh. BUILD PLATFORM – Laat zien hoe data mesh de technische architectuur beïnvloedt. Uitdaging 1: De bedrijfswaarde van Data Mesh identificeren Een van de eerste uitdagingen bij de introductie van Data Mesh is het uitleggen en bewijzen van de waarde voor de business. Bij ACA Group beginnen we met het identificeren van potentiële dataproducten, domeinen en use cases. Dit proces is gebaseerd op zakelijke input en resulteert in een dataproductlandschap. De figuur hieronder geeft een voorbeeld vanuit een e-commerce bedrijf (rechthoeken zijn applicaties, hexagonen zijn data producten, kleuren geven domeinen die ownership nemen). Dit landschap dient als navigatiekaart, inspireert nieuwe innovatieve zakelijke ideeën en laat de meerwaarde zien die Data Mesh voor de organisatie kan bieden. Door te laten zien hoe Data Mesh nieuwe mogelijkheden kan creëren, verduidelijken we de relevantie ervan voor zakelijke belanghebbenden. Data Mesh Oplossingen Afstemmen op Organisatiedoelen Om het maximale uit Data Mesh te halen, is afstemming op de algemene doelstellingen en strategie van de organisatie van het grootste belang. Het is cruciaal om ervoor te zorgen dat de investering in technologie en processen aansluit bij de bredere bedrijfsdoelstellingen. Door deze afstemming blijft de steun en het momentum behouden, wat cruciaal is voor het succes van een Data Mesh-initiatief. Data Mesh Opportuniteiten Identificeren met Gamestorming Bij ACA Group passen we gamestorming-technieken toe om domeinen en dataproducten te ontdekken. Dit proces begint met de identificatie van business mogelijkheden en datagebruiksscenario's. Dat doen we aan de hand van workshops, zoals het in kaart brengen van de impact. Door Data Mesh op deze aspecten af ​​te stemmen, identificeren we een dataproductlandschap vanuit twee perspectieven. Een inventarisatie van beschikbare data en potentiële dataproducten inspireert en genereert nieuwe zakelijke ideeën, terwijl de gewenste zakelijke impact en doelstellingen helpen bij het identificeren van de benodigde data en dataproducten. Uitdaging 2: Teams Organiseren en Individuen Empoweren Data Mesh gaat niet alleen over technologie; het gaat over het transformeren van de manier waarop teams en teamleden binnen de organisatie opereren. ACA Group gelooft in het effectief organiseren van teams om de kracht van Data Mesh te benutten. We gaan in gesprek met bestaande teams en teamleden en positioneren hun waardevolle rollen en expertise binnen een Data Mesh-teamorganisatie. Meestal zijn hierbij platformteams, domeinteams, faciliterende teams en een gefedereerd governanceteam betrokken. Daarnaast onderzoeken we de verschillende gebruikerstrajecten en ervaringen voor elke persona, om ervoor te zorgen dat Data Mesh een positieve invloed heeft op de organisatie, haar mensen en hun rollen. Uitdaging 3: De technische architectuur opzetten Het invoeren van Data Mesh is een transformerend traject voor elke organisatie. Door de uitdagingen op te splitsen in uitvoerbare stappen, zoals ACA Group doet, kan je Data Mesh tastbaarder maken, de waarde ervan verduidelijken en de oplossing afstemmen op de doelstellingen van je organisatie. Deze incrementele acties dienen om het mysterie weg te nemen rond Data Mesh, waardoor het begrijpelijk wordt voor een breed scala aan stakeholders en het pad wordt geëffend voor goed geïnformeerde beslissingen. Het omarmen van Data Mesh betekent het omarmen van de toekomst van datamanagement, en biedt een scala aan opportuniteiten voor je organisatie. Dit traject gaat over het praktisch realiseren van Data Mesh en tegelijkertijd zorgen voor afstemming op je organisatiedoelstellingen. Conclusie Het invoeren van Data Mesh is een transformerend traject voor elke organisatie. Door de uitdagingen op te splitsen in uitvoerbare stappen, zoals ACA Group doet, kan je Data Mesh tastbaarder maken, de waarde ervan verduidelijken en de oplossing afstemmen op de doelstellingen van je organisatie. Deze incrementele acties dienen om het mysterie weg te nemen rond Data Mesh, waardoor het begrijpelijk wordt voor een breed scala aan stakeholders en het pad wordt geëffend voor goed geïnformeerde beslissingen. Het omarmen van Data Mesh betekent het omarmen van de toekomst van datamanagement, en biedt een scala aan opportuniteiten voor je organisatie. Dit traject gaat over het praktisch realiseren van Data Mesh en tegelijkertijd zorgen voor afstemming op je organisatiedoelstellingen. Nieuwsgierig naar wat Data Mesh nog meer te bieden heeft? Ontdek het hier ✅

Lees verder
code
code
Istio Service Mesh: Wat en waarom
Leestijd 3 min
8 MEI 2025

In de complexe wereld van moderne softwareontwikkeling worden bedrijven geconfronteerd met de uitdaging om verschillende applicaties die door verschillende teams worden ontwikkeld en beheerd, naadloos te integreren. De Service Mesh is van onschatbare waarde bij het overwinnen van deze uitdaging. In dit blogartikel verdiepen we ons in Istio Service Mesh en onderzoeken we waarom investeren in een Service Mesh zoals Istio een slimme zet is." Wat is Service Mesh? Een Service Mesh is een softwarelaag die verantwoordelijk is voor alle communicatie tussen applicaties, in deze context services genoemd. Het introduceert nieuwe functionaliteiten om de interactie tussen services te beheren, zoals monitoring, logging, tracing en verkeerscontrole. Een service mesh werkt onafhankelijk van de code van elke individuele service, waardoor het over netwerkgrenzen heen kan werken en kan samenwerken met verschillende beheersystemen. Dankzij een service mesh kunnen ontwikkelaars zich richten op het bouwen van toepassingsfuncties zonder zich zorgen te maken over de complexiteit van de onderliggende communicatie-infrastructuur. Istio Service Mesh in de praktijk Denk aan het beheren van een groot cluster waarop meerdere applicaties draaien die ontwikkeld en onderhouden worden door verschillende teams, elk met verschillende afhankelijkheden zoals ElasticSearch of Kafka. Na verloop van tijd resulteert dit in een complex ecosysteem van applicaties en containers, overzien door verschillende teams. De omgeving wordt zo ingewikkeld dat het voor beheerders steeds moeilijker wordt om het overzicht te bewaren. Dit leidt tot een reeks pertinente vragen: Hoe ziet de architectuur eruit? Welke applicaties interageren met elkaar? Hoe wordt het verkeer beheerd? Bovendien zijn er specifieke uitdagingen die voor elke afzonderlijke applicatie moeten worden aangepakt: Het afhandelen van aanmeldingsprocessen Implementeren van robuuste beveiligingsmaatregelen Netwerkverkeer beheren dat naar de applicatie wordt geleid ... Een Service Mesh, zoals Istio, biedt een oplossing voor deze uitdagingen. Istio fungeert als een proxy tussen de verschillende applicaties (services) in het cluster, waarbij elk verzoek door een component van Istio gaat. Hoe werkt Istio Service Mesh? Istio introduceert een sidecar proxy voor elke service in het microservices ecosysteem. Deze sidecar proxy beheert al het inkomende en uitgaande verkeer voor de dienst. Daarnaast voegt Istio componenten toe die het inkomende en uitgaande verkeer van het cluster afhandelen. Istio's control plane maakt het mogelijk om beleidsregels te definiëren voor verkeersbeheer, beveiliging en monitoring, die vervolgens worden toegepast op de toegevoegde componenten. Voor een beter begrip van de functionaliteit van Istio Service Mesh, zie ons blogartikel "Istio Service Mesh installeren: A Comprehensive Step-by-Step Guide" , een gedetailleerde, stapsgewijze uitleg over de installatie en het gebruik van Istio. Waarom Istio Service Mesh? Verkeersbeheer: Istio maakt gedetailleerd verkeersbeheer mogelijk, waardoor ontwikkelaars eenvoudig verkeer tussen verschillende versies van hun services kunnen routeren, verdelen en controleren. Beveiliging: Istio biedt een robuuste beveiligingslaag met functies zoals verkeersversleuteling met behulp van eigen certificaten, Role-Based Access Control (RBAC) en mogelijkheden voor het implementeren van authenticatie- en autorisatiebeleid. Waarneembaarheid: Door middel van ingebouwde instrumentatie biedt Istio diepgaande observeerbaarheid met tools voor monitoring, logging en gedistribueerde tracering. Hierdoor kunnen IT-teams de prestaties van services analyseren en snel problemen opsporen. Vereenvoudigde communicatie: Istio neemt de complexiteit van servicecommunicatie weg van applicatieontwikkelaars, zodat zij zich kunnen richten op het bouwen van applicatiefuncties. Is Istio geschikt voor uw opstelling? Hoewel de voordelen duidelijk zijn, is het essentieel om te overwegen of de extra complexiteit van Istio past bij jouw specifieke opstelling. Ten eerste is er een sidecar container nodig voor elke ingezette service, wat kan leiden tot ongewenste geheugen- en CPU overhead. Daarnaast kan het zijn dat je team niet beschikt over de specialistische kennis die nodig is voor Istio. Als je overweegt om Istio Service Mesh te gaan gebruiken, vraag dan begeleiding aan specialisten met expertise. Vraag onze experts gerust om hulp. Meer informatie over Istio Istio Service Mesh is een technologische game-changer voor IT-professionals die streven naar geavanceerde controle, beveiliging en observeerbaarheid in hun microservices-architectuur. Istio vereenvoudigt en beveiligt de communicatie tussen services, waardoor IT-teams zich kunnen richten op het bouwen van betrouwbare en schaalbare applicaties. Snel antwoord nodig op al uw vragen over Istio Service Mesh? Neem contact op met onze experts

Lees verder
aws team aca groep
aws team aca groep
KubeCon / CloudNativeCon 2022 hoogtepunten!
Leestijd 7 min
8 MEI 2025

Bent u dit jaar niet op KubeCon geweest? Lees dan mee voor onze hoogtepunten van de KubeCon / CloudNativeCon-conferentie van dit jaar door het Cloud Native-team van ACA Group! Wat is KubeCon / CloudNativeCon? KubeCon (Kubernetes Conference) / CloudNativeCon , jaarlijks georganiseerd op EMAE door de Cloud Native Computing Foundation (CNCF), is een vlaggenschipconferentie die adopters en technologen van toonaangevende open source en cloud native gemeenschappen op één locatie samenbrengt. Dit jaar kwamen ongeveer 5.000 fysieke en 10.000 virtuele deelnemers opdagen voor de conferentie. CNCF is de open source, leverancier-neutrale hub van cloud native computing, die projecten zoals Kubernetes en Prometheus host om cloud native universeel en duurzaam te maken. Er waren meer dan 300 sessies van partners, industrieleiders, gebruikers en leveranciers over onderwerpen als CI/CD, GitOps, Kubernetes, machine learning, observeerbaarheid, netwerken, prestaties, service mesh en beveiliging. Het is duidelijk dat er altijd iets interessants te horen is op KubeCon, ongeacht je interessegebied of expertiseniveau! Het is duidelijk dat het Cloud Native ecosysteem is uitgegroeid tot een volwassen, trendsettende en revolutionaire game-changer in de industrie. Alles staat in het teken van de Kubernetes-trend en een enorme hoeveelheid organisaties die cloud native producten ondersteunen, gebruiken en hun bedrijf hebben laten groeien door ze te bouwen of te gebruiken in bedrijfskritische oplossingen. De belangrijkste thema's van 2022 Wat ons opviel tijdens KubeCon dit jaar waren de volgende hoofdthema's: De eerste was toenemende volwassenheid en stabilisatie van Kubernetes en bijbehorende producten voor monitoring, CI/CD, GitOps, operators, costing en service meshes, plus bug fixing en kleine verbeteringen. De tweede is een meer uitgebreide focus op beveiliging . Het veiliger maken van pods, het voorkomen van pod trampoline breakouts, end-to-end encryptie en het maken van volledige analyses van bedreigingen voor een complete k8s bedrijfsinfrastructuur. De derde is duurzaamheid en een groeiend bewustzijn dat systemen waarop k8s en de apps erop draaien veel energie verbruiken terwijl 60 tot 80% van de CPU ongebruikt blijft. Zelfs talen kunnen energie(on)efficiënt zijn. Java is een van de meest energie-efficiënte talen, terwijl Python dat blijkbaar veel minder is door de aard van de interpreter/compiler. Bedrijven moeten allemaal plannen maken en werken aan het verminderen van de energievoetafdruk in zowel applicaties als infrastructuur. Autoscaling zal hierbij een belangrijke rol spelen. Hoogtepunten van de sessies Duurzaamheid Datacenters verbruiken wereldwijd 8% van alle opgewekte elektriciteit. We moeten dus nadenken over het effectieve gebruik van onze infrastructuur en inactieve tijd vermijden (gemiddeld is het CPU-gebruik slechts tussen 20 en 40%) als servers draaien, laat ze dan werken met zoveel mogelijk werklasten resources afsluiten wanneer ze niet nodig zijn door het toepassen van autoscaling benaderingen de coderingstechnologie die gebruikt wordt in je software, sommige programmeertalen gebruiken minder CPU. CICD / GitOps GitOps automatiseert infrastructuur updates met behulp van een Git workflow met continue integratie (CI) en continue levering (CI/CD). Wanneer nieuwe code wordt samengevoegd, voert de CI/CD pijplijn de verandering door in de omgeving. Flux is hier een goed voorbeeld van. Flux biedt GitOps voor zowel apps als infrastructuur. Het ondersteunt GitRepository, HelmRepository en Bucket CRD als de enige bron van waarheid. Met A/B- of Canary-implementaties is het eenvoudig om nieuwe functies te implementeren zonder dat dit gevolgen heeft voor alle gebruikers. Als de implementatie mislukt, kan deze eenvoudig worden teruggedraaid. Bekijk het schema van KubeCon voor meer informatie! Kubernetes Hoewel Kubernetes 1.24 een paar weken voor de start van het evenement werd uitgebracht, waren er niet veel gesprekken gericht op de kern van Kubernetes. De meeste gesprekken waren gericht op het uitbreiden van Kubernetes (met behulp van API's, controllers, operators, ...) of best practices rond beveiliging, CI/CD, monitoring ... voor wat er ook draait binnen het Kubernetes-cluster. Als je geïnteresseerd bent in de nieuwe functies die Kubernetes 1.24 te bieden heeft, kun je de officiële website bekijken . Waarneembaarheid Inzicht krijgen in hoe je applicatie draait in je cluster is cruciaal, maar niet altijd even praktisch. Dit is waar eBPF om de hoek komt kijken, dat wordt gebruikt door tools zoals Pixie om gegevens te verzamelen zonder codewijzigingen. Bekijk het schema van KubeCon voor meer informatie! FinOps Nu steeds meer mensen Kubernetes gebruiken, zijn er veel workloads gemigreerd. Al deze containers hebben een voetafdruk. Geheugen, CPU, opslag, ... moeten worden toegewezen, en ze hebben allemaal een kostprijs. Kostenbeheer was een terugkerend onderwerp tijdens de gesprekken. Het gebruik van autoscaling (capaciteit toevoegen maar ook verwijderen) om de benodigde resources aan te passen en het identificeren van ongebruikte resources maken deel uit van deze nieuwe beweging. Nieuwe diensten zoals 'kubecost' worden steeds populairder. Prestaties Een van de meest voorkomende problemen in een cluster is niet genoeg ruimte of resources hebben. Met behulp van een Vertical Pod Autoscaler (VPA) kan dit tot het verleden behoren. Een VPA analyseert en slaat geheugen- en CPU-metriek/gegevens op om zich automatisch aan te passen aan de juiste CPU- en geheugenlimieten. De voordelen van deze aanpak laten je geld besparen, verspilling voorkomen, de onderliggende hardware optimaal dimensioneren, resources op worker nodes afstemmen en de plaatsing van pods in een Kubernetes cluster optimaliseren. Bekijk het schema van KubeCon voor meer informatie! Servicemesh We weten allemaal dat het heel belangrijk is om te weten welke applicatie data deelt met andere applicaties in je cluster. Service mesh biedt verkeerscontrole binnen uw cluster(s). Je kunt elk verzoek dat wordt verzonden of ontvangen van een applicatie naar andere applicaties blokkeren of toestaan. Het biedt ook Metrics, Specs, Split, ... informatie om de gegevensstroom te begrijpen. In de lezing Service Mesh op schaal: Hoe Xbox Cloud Gaming 22k Pods beveiligt met Linkerd , legt Chris uit waarom ze voor Linkerd hebben gekozen en wat de voordelen zijn van een service mesh. Bekijk het schema van KubeCon voor meer informatie! Beveiliging Trampoline pods, klinkt leuk, toch? Tijdens een lezing van twee beveiligingsonderzoekers van Palo Alto Networks leerden we dat ze niet zo leuk zijn. Kort gezegd zijn dit pods die gebruikt kunnen worden om cluster admin privileges te krijgen. Om meer te leren over het concept en hoe ermee om te gaan, raden we je aan om de slides op de KubeCon schedule pagina te bekijken! Lachlan Evenson van Microsoft gaf een duidelijke uitleg over Pod Security in zijn The Hitchhiker's Guide to Pod Security talk. Pod Security is een ingebouwde toelatingscontroleur die Pod-specificaties evalueert aan de hand van een vooraf gedefinieerde set Pod Security-standaarden en bepaalt of de pod moet worden toegelaten of geweigerd. - Lachlan Evenson , Programmamanager bij Microsoft . Pod Security vervangt PodSecurityPolicy vanaf Kubernetes 1.23. Dus als je PodSecurityPolicy gebruikt, is dit misschien een goed moment om Pod Security en het migratiepad verder te onderzoeken. In versie 1.25 wordt de ondersteuning voor PodSecurityPolicy verwijderd. Als je PodSecurityPolicy of Pod Security niet gebruikt, is het zeker tijd om het verder te onderzoeken! Een ander terugkerend thema van deze KubeCon 2022 waren operators. Operators maken het mogelijk om de Kubernetes API uit te breiden met operationele kennis. Dit wordt bereikt door Kubernetes-controllers te combineren met bekeken objecten die de gewenste toestand beschrijven. Ze introduceren Custom Resource Definitions, custom controllers, Kubernetes of cloud resources en logging en metrics, wat het leven makkelijker maakt voor zowel Dev als Ops. Tijdens een lezing van Kevin Ward van ControlPlane leerden we echter dat er ook risico's aan verbonden zijn. Bovendien, en dat is nog belangrijker, vertelde hij ook hoe we die risico's kunnen identificeren met tools zoals BadRobot en een operator thread matrix . Bekijk de KubeCon roosterpagina voor meer informatie! Planning Telemetry Aware Scheduling helpt u om uw workloads te plannen op basis van de statistieken van uw worker nodes. U kunt bijvoorbeeld een regel instellen om geen nieuwe werklasten te plannen op worker nodes met meer dan 90% gebruikt geheugen. Het cluster zal hier rekening mee houden bij het plannen van een pod. Een andere leuke functie van deze tool is dat het ook pods opnieuw kan inplannen om ervoor te zorgen dat uw regels in lijn blijven. Bekijk de KubeCon planningspagina voor meer informatie! Cluster autoscaling Een geweldige manier voor stateless workloads om kosteneffectief te schalen is het gebruik van AWS EC2 Spot, wat reserve VM-capaciteit is die met korting beschikbaar is. Om Spot-instanties effectief te gebruiken in een K8S cluster, moet je aws-node-termination-handler gebruiken. Op deze manier kun je je werklasten van een worker node verplaatsen wanneer Spot besluit deze terug te vorderen. Een ander goed hulpmiddel is Karpenter , een hulpmiddel om Spot-instanties precies op tijd te leveren voor je cluster. Met deze twee tools kun je je stateless workloads kosteneffectief hosten! Bekijk de KubeCon schedule pagina voor meer informatie! Event-gedreven autoscaling Het gebruik van de Horizontal Pod Autoscaler (HPA) is een geweldige manier om pods te schalen op basis van statistieken zoals CPU-gebruik, geheugengebruik en meer. In plaats van te schalen op basis van statistieken, kan Kubernetes Event Driven Autoscaling (KEDA) schalen op basis van gebeurtenissen (Apache Kafka, RabbitMQ, AWS SQS, ...) en het kan zelfs schalen tot 0 in tegenstelling tot HPA. Bekijk het schema van KubeCon voor meer informatie! Wrap-up We hebben dit jaar genoten van de conferentie. We vertrokken met een geïnspireerd gevoel dat we ongetwijfeld zullen vertalen naar interne projecten, nieuwe klantprojecten zullen aanvragen en waar van toepassing zullen bespreken met bestaande klanten. Niet alleen dat, maar we zullen ook onze collega's informeren en een afterglow sessie organiseren voor de geïnteresseerden thuis in België. Als je ons blogartikel leuk vond, stuur ons dan gerust een berichtje. We zijn altijd blij als de inhoud die we publiceren ook voor jou waardevol of interessant is. Als je denkt dat we jou of je bedrijf kunnen helpen bij de adoptie van Cloud Native, stuur me dan een berichtje op peter.jans@aca-it.be. Als laatste willen we Mona bedanken voor de logistiek, Stijn en Ronny voor deze kans en de rest van het team dat achterbleef om de systemen van onze gewaardeerde klanten in de gaten te houden.

Lees verder
hand-out
hand-out
Leestijd 4 min
8 MEI 2025

Laten we deze blogpost beginnen met gênante herinneringen uit het verleden. Weet je nog dat je op de kleuterschool je juf "mama" noemde? Of die enorme puist op je voorhoofd op je eerste dag op de middelbare school? Laten we eens kijken naar een foto van een paar jaar geleden. Die kleren... die afschuwelijke kleren. Waarom dacht je dat je die superstrakke broek voor altijd zou dragen? Nou... je bent veranderd en die modetrends ook. Trends lijken ook vrij snel te veranderen in andere soorten ontwerpen. In deze blogpost geef ik je 3 tips om het ontwerp van je handout te moderniseren en een oud printontwerp aan te passen aan de moderne wereld. Ik gebruik een recent herontwerp van een handout voor ons mobiele team als voorbeeld. 1. Ga voor digitaal De grootste verandering in dit herontwerp is dat we afstappen van print en overstappen naar digitale media, zoals een PDF-bestand. Hier gaan een paar voordelen hand in hand. Je hoeft je geen zorgen meer te maken over hoe je al je informatie op twee A4-pagina's gaat proppen, aangezien je niet beperkt bent tot een bepaalde paginagrootte . Dit geeft je meer vrijheid met zowel je structuur als de plaatsing van informatie. Zoals je kunt zien in ons voorbeeld (klik op de afbeelding rechts), resulteert dit in een lichter ontwerp dat veel prettiger leest door de extra witruimte tussen de secties. Een andere grote verbetering is de mogelijkheid om links te gebruiken . Je hoeft geen volledige URL meer te schrijven, want je kunt gewoon op een kortere URL klikken of zelfs een knop toevoegen alsof je een webpagina ontwerpt. Probeer links toe te voegen aan logo's of afbeeldingen. Door dit te doen verander je een volledig statisch object in een link naar nog meer informatie. Je handout is niet langer beperkt tot alleen de informatie op je twee pagina's. Pas wel op dat je niet vergeet om links toe te voegen aan alles wat 'klikbaar' lijkt. Als je gebruiker probeert te klikken op iets dat een redirect had moeten zijn naar bijvoorbeeld je website en het werkt niet, dan maak je geen goede indruk. 2. Voeg meer witruimte toe! Allereerst, witruimte hoeft geen 'witte' ruimte te zijn. Witruimte verwijst naar lege ademruimte in je ontwerp , niet naar een witte kleur tussen ontwerpelementen. Stel je voor dat je een pagina te lezen krijgt en alles is bijgesneden in de eerste helft van de pagina. Ik zou nog liever mijn ogen uitsteken dan dat ik dat zou proberen te lezen. Maak ruimte in je informatie en gebruik die lege ruimte om de ervaring van de lezer te verbeteren en hem zelfs te leiden naar delen die je wilt lezen. Met andere woorden, lege ruimte maakt je inhoud leesbaarder. Wanneer je je richt op het informeren van je lezer, is leesbaarheid topprioriteit . In ons oude ontwerp gebruikten we een abstracte achtergrond. Afbeeldingen of patronen kunnen worden gebruikt als witruimte, maar zijn niet ideaal als je gaat voor een professionele en strakke uitstraling. In plaats daarvan zijn we gewoon overgestapt op een witte achtergrond. Op deze manier hebben we ons ontwerp gestructureerd in een aantal 'informatiecontainers'. De witruimte zorgt ervoor dat elk van die containers de aandacht krijgt die het verdient. Lees witruimte dus niet alleen als ongebruikte ruimte, maar zie het als een leidraad voor je lezer . 3. Overdrijf het niet Je wilt je publiek iets vertellen, dus kom ter zake . Probeer niet te veel uit te leggen en gebruik geen woorden die je nauwelijks kent om slim te klinken. Hetzelfde geldt voor het tonen van afbeeldingen en het gebruik van designelementen. Niemand wil door 10 afbeeldingen scrollen die allemaal hetzelfde laten zien om informatie te vinden die ze nodig hebben. Zeg wat je moet zeggen en laat zien wat je moet laten zien. Probeer ook eens een getal te gebruiken in plaats van een pictogram als je het bijvoorbeeld hebt over een bepaald percentage. Mensen houden van getallen (kijk maar naar al die infographics die op het internet rondzwerven als bewijs). Probeer een mooie balans te vinden tussen pictogrammen en percentages wanneer je iets ontwerpt. Natuurlijk is er ook niets mis met het gebruik van pictogrammen als visualisatie. Ze kunnen je muur van tekst breken, het leuker maken om te lezen en de lezer geïnteresseerd houden. En last but not least, je ontwerp is geen kleurboek voor kinderen. Gebruik niet alle beschikbare kleurpotloden! In ons vorige ontwerp gingen we veel te ver. Nu gebruiken we alleen rood als hoofdkleur omdat dat ook de hoofdkleur is van ACA's huisstijl. Als je echt meer kleur wilt gebruiken in je nieuwe ontwerp, wees dan consequent . Geef je eerste titel geen blauwe kleur en je andere titels geen paarse kleur. Het is eigenlijk heel simpel, maar wordt vaak over het hoofd gezien. Meenemen In de huidige digitale wereld is print design niet meer alleen voor print. Als je je eerdere printontwerpen wilt updaten zodat ze ook in ons online leven passen, zijn hier een paar dingen waar je rekening mee moet houden: Vergeet strikte limieten voor paginagrootte. Neem klikbare links op in je ontwerp. Je kunt zelfs knoppen toevoegen zoals op een website. Gebruik zoveel witruimte als je nodig hebt om je lezer even te laten 'ademen' en zijn ogen te laten rusten. Wees kort! Neem visuals op, maar blijf consistent in je kleurenpalet.

Lees verder
futuristische man achter laptop ai
futuristische man achter laptop ai
Leestijd 4 min
8 MEI 2025

De wereld van gegevensanalyse verandert snel. AI-tools zoals Copilot automatiseren taken die ons vroeger uren kostten, en dat is opwindend! Maar het betekent ook dat we onze vaardigheden moeten ontwikkelen om de curve voor te blijven. In plaats van tijd te besteden aan repetitieve taken, kunnen data-analisten zich nu richten op het grotere geheel: strategie, het oplossen van problemen en het echt begrijpen van de business. Deze blog onderzoekt de belangrijkste vaardigheden die data-analisten nodig hebben om te gedijen in deze nieuwe, door AI aangedreven omgeving. De nieuwe focus van de data-analist: van repetitieve taken naar strategie Stel je voor dat je meer tijd hebt om je te richten op wat echt belangrijk is: de business begrijpen, complexe problemen oplossen en strategische beslissingen nemen. Dat is de kans die AI biedt. Om het potentieel van Copilot te maximaliseren, moeten data-analisten hun focus verleggen van handmatige taken naar werk dat diepgaande bedrijfskennis en kritisch denken vereist. Een cruciaal onderdeel van deze verschuiving is nauwe samenwerking met belanghebbenden. Data-analisten moeten hun uitdagingen begrijpen, de juiste vragen definiëren en ervoor zorgen dat hun inzichten de besluitvorming echt sturen. Belangrijkste vaardigheden die data-analisten nodig hebben bij het werken met AI 1. Geavanceerde datamodellering en metadatabeheer Waarom het belangrijk is: Nu AI-tools zoals Copilot een groot deel van de front-end rapportcreatie voor hun rekening nemen, zal de kwaliteit van de inzichten steeds meer afhangen van de robuustheid van het onderliggende datamodel. Data-analisten moeten tijd investeren in het verfijnen van hun vaardigheden op het gebied van datamodellering en metadatamanagement. Mogelijke stappen: Zorg ervoor dat datamodellen schoon, schaalbaar en goed gedocumenteerd zijn. Wees eerlijk, hoe vaak heb je het veld "Beschrijving" ingevuld in je Power BI-datamodel? Hoe vaak heb je het veld "Synoniemen" gebruikt? Onze gok is: niet zo vaak. Ironisch genoeg zullen deze velden nu cruciaal zijn in je streven naar kwalitatieve antwoorden van Copilot... Je zult metadata moeten organiseren om de vindbaarheid te verbeteren, zodat Copilot (of andere AI-tools) de juiste gegevens kunnen gebruiken om inzichten te genereren. Zorg dat je goed begrijpt hoe je data moet structureren zodat AI bruikbare, accurate inzichten kan genereren. Kijk goed naar je datamodel en hoe het is opgebouwd. Bepaal wat er kan worden verbeterd op basis van best practices en pas deze vervolgens systematisch toe. 2. Datagovernance en kwaliteitsborging Waarom het belangrijk is: Copilot kan alleen betrouwbare output produceren met data van hoge kwaliteit. Data-analisten zullen zich moeten richten op het waarborgen van dataconsistentie, betrouwbaarheid en governance. Te nemen stappen: Implementeer en onderhoud best practices voor data governance. Gebruik duidelijke naamgevingsconventies, vooraf gedefinieerde maatregelen en logische datastructuren die het Copilot makkelijker maken om bruikbare inzichten te genereren. 3. Zakelijk inzicht en strategische inzichten genereren Waarom het belangrijk is: AI-tools missen contextueel begrip, dus moeten data-analisten deze kloof overbruggen. Door een goed begrip te ontwikkelen van bedrijfsactiviteiten, trends in de sector en strategische doelstellingen kunnen analisten inzichten creëren die zowel relevant als impactvol zijn. Mogelijke stappen: Investeer in kennis over de doelen en strategische uitdagingen van uw organisatie. Hoe beter u deze doelen en uitdagingen kunt begrijpen en documenteren, hoe beter u ze kunt vertalen naar relevante inzichten. Ga regelmatig de dialoog aan met bedrijfsleiders om de context achter de gegevens te begrijpen, wat op zijn beurt helpt bij het vertalen van bevindingen in bruikbare strategieën. 4. Communicatieve vaardigheden en storytelling Waarom het belangrijk is: Het vertalen van technische inzichten naar verhalen die aanslaan bij zakelijke belanghebbenden is cruciaal. Storytelling overbrugt de kloof tussen data en besluitvormers. Mogelijke stappen: Word een expert in het framen van de inzichten. Werk aan het presenteren van gegevens in verhalende formats die het "waarom" en "hoe" achter de inzichten benadrukken. Concentreer je op hoe de gegevens aansluiten bij de doelstellingen van het bedrijf en bied duidelijke aanbevelingen en visualisaties die belanghebbenden gemakkelijk kunnen begrijpen. Hoe deze vaardigheden te implementeren: praktische acties voor data-analisten Datamodellering en metadatabeheer ontwikkelen Met AI-tools zoals Copilot in de mix, is de kwaliteit van inzichten sterk afhankelijk van datamodellen. Data-analisten moeten tijd besteden aan het verfijnen van hun vaardigheden op het gebied van datamodellering, waarbij ze zich moeten richten op: Het organiseren en documenteren van data: Besteed aandacht aan metadatavelden zoals beschrijvingen en synoniemen, die AI zullen helpen nauwkeurigere outputs te genereren. Optimalisatie van gegevensstructuren : Zorg ervoor dat je datastructuur schaalbaar, schoon en flexibel is. Hierdoor kan Copilot naadloos met de gegevens werken. Samenwerken met zakelijke belanghebbenden AI-gegenereerde inzichten zijn alleen zo waardevol als ze overeenkomen met de bedrijfsdoelen. Data-analisten moeten regelmatig in gesprek gaan met belanghebbenden om: Duidelijke doelstellingen te definiëren: Doelstellingen en pijnpunten te bespreken met belanghebbenden om een duidelijke richting te bepalen voor AI-analyse. Feedback te verzamelen: Regelmatige feedback helpt bij het aanpassen van AI-gegenereerde inzichten om beter te voldoen aan bedrijfsbehoeften, zodat de output praktisch en bruikbaar is. Conclusie: de toekomst van data-analyse is hier AI-tools zoals Copilot transformeren data-analyse en het is een spannende tijd om op dit gebied actief te zijn! Door zich te richten op strategisch denken, communicatie en een sterke basis voor data, kunnen data-analisten zich niet alleen aanpassen, maar zich ook ontwikkelen. Het vermogen om data-inzichten te verbinden met de bedrijfscontext, gecombineerd met uitstekende communicatie en storytelling, zal de meest succesvolle data-analisten de komende jaren kenmerken. Door in deze vaardigheden te investeren, kunnen data-analisten in de voorhoede van datagestuurde innovatie blijven. Lees het artikel "How Copilot in Power BI is Transforming Data Analysis" voor meer informatie over hoe Copilot data-analyse vormgeeft . 🚀 Klaar om je datateam te voorzien van geavanceerde AI-vaardigheden? Neem contact op met onze experts om je transformatie te ondersteunen.

Lees verder
vrouw achter laptop
vrouw achter laptop
Leestijd 5 min
8 MEI 2025

"Heb ik de juiste kwalificaties om freelancer te worden?" Dit is een populaire vraag voor mensen die erover denken om eigen baas te worden. Misschien heb je jezelf deze vraag ook wel eens gesteld. In deze blogpost bespreken we een aantal statistieken en een aantal verschillende benaderingen van een opleiding tot freelancer. Is een formele opleiding als freelancer noodzakelijk? Laten we beginnen met het bekijken van enkele gegevens. Freelancermap voerde een enquête uit waarin ze freelancers uit hun gemeenschap vroegen naar hun hoogst behaalde diploma. Uit een steekproef van meer dan duizend freelancers bleek dat 42,5% een universitair diploma had. Nog eens 4,5% van de deelnemers had een masterdiploma. Bovendien had 28% van de deelnemers aan het onderzoek een technisch diploma. Dat betekent dat 76% van de freelancers een vorm van hoger onderwijs heeft genoten . Dus, moet je een diploma halen? Als je naar deze cijfers kijkt, lijkt het er zeker op dat je dat moet doen als je concurrerend wilt zijn. Er is echter geen goed of fout antwoord op deze vraag. Een diploma is geen heilige graal. Hoewel het je kansen als freelancer vergroot, is het geen garantie. Dus als je geen diploma hebt, is er geen reden tot paniek. Een gebrek aan opleiding en ervaring is geen belemmering voor freelancen. Je kunt echter niet verwachten dat klanten zomaar uit de lucht komen vallen en je meteen grote projecten toevertrouwen. Je zult moeten netwerken en een portfolio vol uitstekende voorbeelden van je werk moeten maken, zelfs als je een diploma hebt . Afhankelijk van je studierichting kun je je specialiseren en een hoger tarief vragen voor je diensten. Uiteindelijk, als je freelancer wilt worden, moet je ook rekening houden met een paar andere dingen dan een diploma, zoals: opleiding en training die vereist zijn voor je niche. Als professionele licentie- of certificeringseisen een diploma of andere opleiding vereisen, is dat gewoon onvermijdelijk. Je moet onderzoeken welke opleiding en/of training absoluut vereist is. Je eigen gevoelens over het behalen van een diploma of andere opleiding als freelancer. Heb je het gevoel dat je zelfverzekerder bent met een diploma op zak? Of is het behalen van een diploma een belangrijke prestatie voor je? Of misschien wil je je gewoon verdiepen in iets waarin je geïnteresseerd bent? Hoe zit het met intrinsieke motivatie? De waarde van hoger onderwijs zit niet alleen in verdiencapaciteit of loopbaansucces. Je verlangen om vrij te zijn, om je eigen baas te zijn en je ondernemersgeest. Je moet het willen en ervoor durven gaan! Bijscholing als freelancer Dus: hoewel bijscholing als freelancer altijd goed is, zijn er geen formele vereisten om te beginnen met freelancen. Maar hoe zit het met permanente educatie als freelancer? Hoewel er geen definitief antwoord is op de vraag of freelancers een diploma moeten halen, kunnen we wel eenduidig zijn als het gaat om bijscholing. De sleutel tot blijvend succes als freelancer is bijscholing, zowel in je gekozen vakgebied als in het algemeen. Hier zijn verschillende redenen voor. Ten eerste gaat de technologie met de snelheid van het licht vooruit. Het is een cliché, maar het is waar: wat de ene dag geavanceerd is, kan de volgende dag verouderd zijn. Klanten hebben geen ontwikkelaars voor iOS 4, Android 2.3 of Windows 95 meer nodig. Het is van vitaal belang dat u op de hoogte blijft van de huidige technologieën en begrijpt waar uw niche zich in de nabije toekomst naartoe beweegt. Bovendien, hoewel het misschien niet zo snel gaat als met technologie, veranderen bedrijfspraktijken en methodologieën ook. Ten tweede is investeren in persoonlijke en professionele ontwikkeling vanuit zakelijk oogpunt zinvol. En weet je wat: als freelancer ben je ook een bedrijf. Als je wilt concurreren met de grote jongens en je uurtarief wilt verhogen, is het op peil houden van je opleiding en certificering een no-brainer. Ten derde: het volgen van een workshop, het inschrijven voor een seminar of het bijwonen van een brancheconferentie zijn allemaal eenvoudige manieren om zowel je professionele netwerk als je kennisbasis uit te breiden. Als je de vinger aan de pols van je vak wilt houden, moet je met andere freelancers en industrieleiders praten en van hen leren. Het volgen van workshops is ook een goede manier om geïnteresseerd te blijven in je vakgebied. Tot slot zal het volgen van opleidingen je helpen om werk van hoge kwaliteit te blijven produceren. Het is gewoon makkelijker om de kwaliteit van je werk hoog te houden als je op de hoogte bent van wat de markt van je verwacht, of het nu gaat om een nieuwe versie van een besturingssysteem, tips en trucs om opdrachten sneller af te ronden of een compleet nieuwe vaardighedenset. Er zijn een paar goede e-learningplatforms waarvoor je je kunt inschrijven om je opleiding voort te zetten: Skillshare biedt meer dan 23.000 lessen in design, business, techniek en meer. Het heeft zelfs een aparte freelance sectie ! We hebben al eerder over Skillshare geschreven in een whitepaper over de 10 tools voor een succesvolle freelance carrière. Je kunt de whitepaper hieronder downloaden. Er staat een link in waarmee je Skillshare 2 maanden gratis kunt proberen in plaats van slechts één maand! Udemy biedt cursussen met korting vanaf €10,99 voor grafisch ontwerp, schrijven, webdesign, editing, fotografie en het runnen van een freelance bedrijf. Coursera biedt certificering voor cursussen die gemiddeld 7 dagen duren. Het platform biedt taal-, schrijf-, marketing-, reclame-, business- en academisch materiaal van topuniversiteiten in de Verenigde Staten. Perfect voor freelancers die hun vaardigheden willen aanscherpen! Meenemen Hoewel onderwijs altijd goed is, zijn er geen formele vereisten om te beginnen met freelancen. Je kunt echter niet verwachten een succesvolle freelancer te worden als je niet beschikt over de nodige moed, ondernemersgeest, een hoge mate van motivatie en een vaardigheid waarin je echt uitblinkt. Houd ook rekening met de opleiding en training die vereist zijn voor jouw niche en met je eigen gevoelens over het behalen van een diploma. Over bijscholing bestaat geen twijfel: doe het zo vaak als je kunt! Jezelf blijven bijscholen is om verschillende redenen de sleutel tot succes als freelancer, van het op de hoogte blijven van de nieuwste technologieën en praktijken tot het uitdagen van jezelf.

Lees verder
denkende vrouw
denkende vrouw
Leestijd 8 min
8 MEI 2025

Bij de ontwikkeling van software kunnen aannames ernstige gevolgen hebben en we moeten altijd op onze hoede zijn. In deze blogpost bespreken we hoe je omgaat met aannames bij het ontwikkelen van software. Stel je voor... je rijdt naar een bepaalde plaats Een plek waar je al 5 jaar lang elke dag naartoe rijdt, dezelfde route neemt, langs dezelfde verlaten straat rijdt, waar je nog nooit een andere auto hebt gezien. Langzamerhand begin je je vertrouwd te voelen met deze route en ga je ervan uit dat je zoals altijd de enige auto op deze weg zult zijn. Maar op een gegeven moment duikt er een auto vlak voor je op... er was al die tijd al een zijstraat, maar je had hem nooit opgemerkt, of misschien was je hem helemaal vergeten. Je trapt op de rem en komt gelukkig net op tijd tot stilstand. Aannames werden je bijna fataal. Gelukkig zijn de veronderstellingen die we in ons werk maken nooit zo gevaarlijk voor ons leven als de veronderstellingen die we in het verkeer maken. Toch kunnen veronderstellingen ernstige gevolgen hebben en moeten we altijd op onze hoede zijn. Stel je voor... je maakt websites Je laatste klant is op zoek naar een nieuwe site voor zijn bejaardentehuis omdat zijn huidige site verouderd en niet zo fancy is. Dus u bouwt een fancy nieuwe website in de veronderstelling dat fancy betekent: modern ontwerp, sociale functies, dynamische inhoud. De site is niet het succes dat hij had verwacht ... vreemd ... je hebt precies gebouwd wat je klant wil. Maar heeft u gebouwd wat de bezoekers van de site willen? De gemiddelde gebruiker is tussen de 50 - 65 jaar oud, op zoek naar een nieuw huis voor hun vader en moeder. Ze zijn geen digital natives en voelen zich misschien niet thuis op een mooie, dynamische website vol twitterfeeds en sociale knoppen. Het enige wat ze willen is een goede indruk krijgen van het bejaardentehuis en gerustgesteld worden over het feit dat er goed voor hun ouders zal worden gezorgd. Hoe meer ervaring je krijgt, hoe harder je moet oppassen geen aannames te doen en dubbel te checken met je klant EN de doelgroep . Een ander bekend gevaar van ervaring is " de vloek van de kennis ". Hoewel het klinkt als de volgende Pirates of the Caribbean sequel, is de vloek van kennis een cognitieve bias die bijna iedereen met expertkennis in een specifieke sector overheerst. Het betekent dat beter geïnformeerde partijen het extreem moeilijk vinden om over problemen na te denken vanuit het perspectief van minder goed geïnformeerde partijen. Je kunt je afvragen waarom economen er niet altijd in slagen om de juiste beursvoorspellingen te doen. Iedereen die wat geld over heeft, kan aandelen kopen. Je hoeft geen expert te zijn of zelfs maar verstand te hebben van economie. En dat is de belangrijkste reden waarom economen er vaak naast zitten. Omdat ze expertkennis hebben, kunnen ze niet voorbij deze expertise kijken en kunnen ze zich moeilijk voorstellen hoe minder geïnformeerde mensen zullen reageren op veranderingen in de markt. Hetzelfde geldt voor IT. Daarom moeten we altijd een oogje in het zeil houden en blijven we in de huid kruipen van onze klanten. Inzicht krijgen in hun ervaring en standpunt is de sleutel tot het creëren van de perfecte oplossing voor de eindgebruiker. Dus hoe pakken we aannames aan ...? Ik zou graag zeggen "Eenvoudig" en je een prachtige oneliner geven ... maar zoals gewoonlijk ... is eenvoudig nooit het juiste antwoord. Om de drang om over te schakelen op de automatische piloot en de vloek van de kennis te laten werken, hebben we een methodologie ontwikkeld op basis van verschillende Agile-principes die ons dwingt om onze eindgebruiker te betrekken bij elke fase van het project, te beginnen wanneer onze klanten nadenken over een project, maar de oplossing nog niet hebben gedefinieerd. En eindigt... nou eigenlijk nooit. De eindgebruiker zal nieuwe inzichten opdoen door met uw oplossing te werken, wat kan leiden tot nieuwe verbeteringen. In de watervalmethode wordt aan het begin van een project een analyse gemaakt door een business analist. Soms wordt de gebruiker betrokken bij deze voorafgaande analyse, maar dit is niet altijd het geval. Dan maakt een conclaaf van ontwikkelaars iets in eenzaamheid en na de witte rook ... begint het gebruikersacceptatietesten (UAT) . Het moet pijnlijk voor ze zijn om zich na deze tests te realiseren dat het product dat ze zorgvuldig hebben gemaakt niet de oplossing is die de gebruikers ervan verwachtten. Het is te laat om ingrijpende veranderingen door te voeren zonder dat daar veel meer tijd en budget voor nodig is. Met een Agile projectmethodologie kom je een heel eind. Door elke 2 tot 3 weken testbare versies uit te brengen, kunnen gebruikers geleidelijk functionaliteit testen en hun feedback geven tijdens de ontwikkeling van het project. Deze aanpak houdt rekening met de inzichten van de gebruiker, die tijdens het project zijn opgedaan, en garandeert een betere match tussen de behoeften van de gebruiker en de oplossing die je voor hun behoeften creëert. Agile beoefenaars zijn voorstander van 'continuous deployment'; een praktijk waarbij nieuw ontwikkelde functies onmiddellijk worden uitgerold naar een productieomgeving in plaats van in batches om de 2 tot 3 weken. Dit stelt ons in staat om het systeem (en in essentie de aannames) in het wild te valideren, waardevolle feedback van echte gebruikers te krijgen en gerichte experimenten uit te voeren om te valideren welke aanpak het beste werkt. Door onze methodologie te combineren met constante betrokkenheid van gebruikers, elimineer je de ergste aanname in IT: we weten hoe de werknemers hun werk doen en wat ze nodig hebben ... het gevaar van ervaring! Elimineren we altijd aannames? Laat me het iets ingewikkelder maken: Nogmaals... stel je voor: je gaat al 10 jaar naar dezelfde supermarkt, het is vrij veilig om aan te nemen dat de cornflakes nog steeds in hetzelfde gangpad liggen, zelfs op hetzelfde schap als gisteren. Als je niet meer zou aannemen waar de cornflakes liggen... dan zou je enorm veel tijd verliezen door de hele winkel door te lopen. Niet één keer, maar steeds opnieuw. Hetzelfde geldt voor ons werk. Als we ons werk zouden doen zonder te vertrouwen op onze ervaring, zouden we geen inschattingen kunnen maken over budget en tijd. Elke schatting is gebaseerd op aannames. Hoe meer ervaring je hebt, hoe nauwkeuriger deze aannames worden. Maar leiden ze ook tot goede en betrouwbare schattingen? Niet noodzakelijk ... Terug naar mijn metafoor ... We nemen elke dag dezelfde weg naar het werk. Op basis van ervaring kan ik inschatten dat ik er 30 minuten over zal doen om naar mijn werk te rijden. Maar wat als ze files aankondigen op de radio en ik de aankondiging niet heb gehoord ... dan is mijn schatting niet juist. Bij ACA Group gebruiken we een aantal belangrijke werkwijzen bij het maken van schattingen. Ten eerste is het een teamsport. We maken nooit schattingen in ons eentje en hoewel schatten een serieuze zaak is, doen we het terwijl we een spelletje spelen: Planningspoker. Laat me je dit uitleggen; planning poker is gebaseerd op het principe dat we beter kunnen inschatten in een groep. Dus we lezen het verhaal (stuk functionaliteit) hardop voor, iedereen pakt een kaart (die een indicatie geeft van de complexiteit) en legt deze open op tafel. Als iedereen een kaart heeft gekozen, worden ze allemaal tegelijk omgedraaid. Als er verschillende getallen worden getoond, ontstaat er een discussie over het waarom en hoe. Veronderstellingen die de basis vormen voor iemands schatting komen naar boven en worden besproken en gevalideerd. Er volgt nog een schattingsronde en het proces gaat door tot er consensus is bereikt. Het eindresultaat: een betere schatting en een grondig begrip van de aannames die aan de schatting ten grondslag liggen. Deze expliciete aannames zijn er om gevalideerd te worden door onze belanghebbenden; een geweldig eerste hulpmiddel om ons begrip van de scope te valideren.Dus elimineren we altijd aannames? Nou, dat zou bijna onmogelijk zijn, maar door aannames expliciet te maken elimineren we een hoop verspilling. Wil je meer weten over deze Agile Estimation? Bekijk dan dit boek van Mike Cohn . Hé, dit is een tegenstrijdigheid... Hoe zit het dan met die aannames? Moeten we ze proberen te vermijden? Of moeten we erop vertrouwen? Als je ervan uitgaat dat je alles weet... zul je nooit meer verbazing ervaren. Zoals Aristoteles al zei: "Het was hun verwondering, verbazing, die de mensen ertoe bracht om te filosoferen". Welnu, een proces dat de gemaakte veronderstellingen valideert door middel van goed uitgevoerde experimenten en snelle feedback heeft bewezen geweldige resultaten op te leveren. Dus in essentie zal het goed beheren van je aannames prachtige dingen opleveren. Wees je er wel van bewust dat de vloek van kennis om de hoek loert, wachtend op een onbewaakt moment om het over te nemen. Geïnteresseerd in deelname aan ons team? Wil je een van onze teamleden ontmoeten? Geïnteresseerd om deel uit te maken van ons team? We zijn altijd op zoek naar nieuwe gemotiveerde professionals om het ACA-team te versterken! {% module_block module "widget_3ad3ade5-e860-4db4-8d00-d7df4f7343a4" %}{% module_attribute "buttons" is_json="true" %}{% raw %}[{"appearance":{"link_color":"light","primary_color":"primary","secondary_color":"primary","tertiary_color":"light","tertiary_icon_accent_color":"dark","tertiary_text_color":"dark","variant":"primary"},"content":{"arrow":"right","icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"tertiary_icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"text":"View career opportunities"},"target":{"link":{"no_follow":false,"open_in_new_tab":false,"rel":"","sponsored":false,"url":{"content_id":229022099665,"href":"https://25145356.hs-sites-eu1.com/en/jobs","href_with_scheme":null,"type":"CONTENT"},"user_generated_content":false}},"type":"normal"}]{% endraw %}{% end_module_attribute %}{% module_attribute "child_css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "field_types" is_json="true" %}{% raw %}{"buttons":"group","styles":"group"}{% endraw %}{% end_module_attribute %}{% module_attribute "isJsModule" is_json="true" %}{% raw %}true{% endraw %}{% end_module_attribute %}{% module_attribute "label" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "module_id" is_json="true" %}{% raw %}201493994716{% endraw %}{% end_module_attribute %}{% module_attribute "path" is_json="true" %}{% raw %}"@projects/aca-group-project/aca-group-app/components/modules/ButtonGroup"{% endraw %}{% end_module_attribute %}{% module_attribute "schema_version" is_json="true" %}{% raw %}2{% endraw %}{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}{% raw %}"NOT_SMART"{% endraw %}{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "type" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "wrap_field_tag" is_json="true" %}{% raw %}"div"{% endraw %}{% end_module_attribute %}{% end_module_block %}

Lees verder
Leestijd 6 min
8 MEI 2025

De afgelopen jaren hebben digitalisering en innovatie een enorme impact gehad op het applicatielandschap. Vroeger was de applicatiearchitectuur van een bedrijf relatief eenvoudig, maar dat is nu niet meer het geval. Talloze cloudoplossingen, die maandelijks worden gehuurd, maken de zaken nu zo ingewikkeld dat het niet meer duidelijk is welke gegevens waar worden bewaard . Combineer deze trend met de verschuiving naar zelfbedieningsapplicaties vanuit het perspectief van gegevensconsumptie en de impact op gegevensarchitecturen is onvermijdelijk. In deze blogpost duiken we dieper in deze (r)evolutie in de wereld van data en de impact van een veranderend applicatielandschap op je data-architectuur . Een open data-architectuur behouden Data' is een breed begrip en omvat ongelooflijk veel domeinen die allemaal specifieke kennis of een vorm van specialisatie vereisen. Er zijn voorbeelden te over: data-architectuur, datavisualisatie, datamanagement, databeveiliging, GDPR, enzovoort. In de loop der jaren hebben veel organisaties geprobeerd grip te krijgen op al deze verschillende 'datadomeinen'. En dit is echt geen peulenschil, want in elk van deze domeinen vinden innovatieve veranderingen plaats . Bovendien vallen ze vaak samen met andere en nieuwere concepten zoals AI, data science, machine learning en andere. In elk geval is het beter om je visie en gegevensarchitectuur zo 'open' mogelijk te houden . Dit houdt de impact van toekomstige veranderingen op je huidige implementatie zo laag mogelijk. Dergelijke veranderingen weigeren betekent innovatie vertragen, mogelijk uw eindgebruikers irriteren en de kans op enorme extra kosten een paar jaar later, wanneer de noodzaak om uw architectuur te herzien niet langer kan worden uitgesteld, enorm vergroten. Moderne toepassingen compliceren het combineren van gegevens De hoeveelheid gegevens neemt elk jaar exponentieel toe . Bovendien is de nieuwe generatie eindgebruikers gewend om op hun wenken bediend te worden. Dit is een trend die het huidige applicatielandschap duidelijk ondersteunt. Binnen veel applicaties bieden softwareleveranciers gegevens in real-time op een efficiënte, aantrekkelijke en inzichtelijke manier. Enorme steun voor deze leveranciers natuurlijk, maar dit zorgt voor extra problemen voor CIO's om gecombineerde gegevens aan eindgebruikers te leveren. "Wat is de impact van een marketingcampagne op de verkoop van een bepaald product?" Het beantwoorden van een vraag als deze vormt voor veel organisaties een uitdaging. Het antwoord vereist het combineren van gegevens uit twee (weliswaar goed georganiseerde) applicaties. Atlassian biedt bijvoorbeeld rapportagefuncties in Jira, terwijl Salesforce hetzelfde doet met zijn bekende CRM-platform. De rapportagefuncties in beide softwarepakketten zijn zeer gedetailleerd en stellen je in staat om krachtige rapporten te maken. Het is echter moeilijk om deze gegevens te combineren in één enkel rapport. Bovendien vereist een vraag als deze, naast goed gestructureerde marketing- en verkoopdomeinen, een overkoepelende technische en organisatorische afstemming. Welk domein heeft de verantwoordelijkheid of het mandaat om een dergelijke vraag te beantwoorden? Is er budget beschikbaar? Hoe zit het met de middelen? En welk domein zal deze kosten dragen? Biedt Self-Service BI een oplossing? In een poging om dergelijke vragen te beantwoorden, kwamen oplossingen zoals Self-Service BI op de markt. Deze tools zijn in staat om eenvoudig gegevens te combineren en inzicht te verschaffen waar de gebruikers misschien nog niet aan hadden gedacht. De enige vereiste is dat deze tools toegang moeten hebben tot de gegevens in kwestie. Klinkt eenvoudig genoeg, toch? Self-Service BI-tools hebben de afgelopen jaren een hoge vlucht genomen, waarbij Microsoft het voorbeeld gaf met zijn Power-BI. Door visualisaties en intuïtieve 'self-service data loaders' tot een belangrijk onderdeel te maken, konden ze de 'business' overtuigen om te investeren. Maar dit creëert een zekere spanning tussen de zakelijke gebruikers van deze tools en de CIO's . De laatsten verliezen langzaam hun grip op hun bedrijf. Deze laatsten verliezen stilaan hun greep op hun eigen IT-landschap, aangezien een Self-Service BI-aanpak op de achtergrond ook heel wat 'schaduw-BI'-initiatieven kan voortbrengen . Iemand kan bijvoorbeeld op eigen initiatief Google Data Studio hebben gebruikt zonder dat de CIO het wist, terwijl die CIO een toolset met Power-BI probeert te standaardiseren. Conclusie: veel dubbele gegevens, inbreuk op de beveiliging en dan hebben we het nog niet eens gehad over GDPR-compliance. Welke andere oplossingen zijn er? De standaard inzichten en analyserapporten binnen applicaties zijn oud nieuws en de vraag naar real-time analytics, ook wel streaming analytics genoemd, neemt toe. Tijdens het online winkelen tonen winkels bijvoorbeeld hun actuele voorraad van een product op de productpagina zelf. Waarom is het dan zo moeilijk om de vraag naar de impact van mijn marketingcampagne op mijn verkoop te beantwoorden in een rapport? De eisen en behoeften aan gegevens veranderen. Wie is de eigenaar van welke gegevens en wie bepaalt het gebruik ervan? Verdwijnen historische gegevens als ze niet worden opgeslagen in een datawarehouse? Als de gegevens nog steeds beschikbaar zijn binnen de applicatie waar ze in eerste instantie zijn gemaakt, hoe lang blijven ze daar dan nog? Het opslaan van de gegevens in een data lake of data repository is een mogelijke goedkope(re) oplossing. Deze gegevens zijn echter niet of nauwelijks georganiseerd, waardoor ze moeilijk te gebruiken zijn voor zaken als managementrapportage. Misschien is het overbrengen van deze gegevens naar een datawarehouse de beste oplossing? Goed gestructureerde gegevens, gemakkelijk te combineren met gegevens uit andere domeinen en dus een ideale basis voor verdere analyse. Maar... de informatie is niet real-time beschikbaar en deze oplossing kan behoorlijk duur worden. Welke oplossing past het beste bij uw behoeften? Takeaway Zoals je inmiddels hebt gemerkt, is het gemakkelijk om een heleboel vragen en uitdagingen op te sommen met betrekking tot het structureren van data binnen organisaties. Sommige datagerelateerde vragen vereisen een snel antwoord, andere meer analytische of strategische vragen hebben eigenlijk geen real-time data nodig. Een data-architectuur die rekening houdt met al deze behoeften en open staat voor veranderingen is een must. Wij geloven in een data-aanpak waarbij de domeineigenaar ook eigenaar is van de data en deze data faciliteert naar de rest van de organisatie. Het is de verantwoordelijkheid van de domeineigenaar om zijn gegevens zo te organiseren dat ze een antwoord kunnen bieden op zoveel mogelijk vragen uit de organisatie. Het is mogelijk dat deze persoon niet de nodige kennis of vaardigheden binnen zijn team heeft om dit allemaal te organiseren. Daarom is er een nieuwe rol binnen de organisatie nodig om domeineigenaren te ondersteunen met kennis en middelen: de rol van een Chief Data Officer (CDO). Zij orkestreren alles en iedereen in de organisatie als het gaat om data en hebben het mandaat om algemene richtlijnen af te dwingen. Uit onderzoek blijkt dat bedrijven die een CDO hebben aangesteld succesvoller zijn bij het uitrollen van nieuwe data-initiatieven. ACA Group engageert zich om zijn klanten zo goed mogelijk te begeleiden in hun data-aanpak. Het is van vitaal belang om een duidelijke visie te hebben, ondersteund door een toekomstbestendige data-architectuur: een architectuur die openstaat voor verandering en innovatie, niet alleen vanuit een technisch perspectief, maar ook als het gaat om veranderende eisen op het vlak van dataverbruik. Een relevantie voor de nieuwe generatie en een uitdaging voor de meeste data-architecturen en organisaties. {% module_block module "widget_ee7fe7f9-05fc-4bd8-b515-6bb400cb56b4" %}{% module_attribute "buttons" is_json="true" %}{% raw %}[{"appearance":{"link_color":"light","primary_color":"primary","secondary_color":"primary","tertiary_color":"light","tertiary_icon_accent_color":"dark","tertiary_text_color":"dark","variant":"primary"},"content":{"arrow":"right","icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"tertiary_icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"text":"Check out our data services"},"target":{"link":{"no_follow":false,"open_in_new_tab":false,"rel":"","sponsored":false,"url":{"content_id":null,"href":"https://acagroup.be/en/services/data/","href_with_scheme":"https://acagroup.be/en/services/data/","type":"EXTERNAL"},"user_generated_content":false}},"type":"normal"}]{% endraw %}{% end_module_attribute %}{% module_attribute "child_css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "field_types" is_json="true" %}{% raw %}{"buttons":"group","styles":"group"}{% endraw %}{% end_module_attribute %}{% module_attribute "isJsModule" is_json="true" %}{% raw %}true{% endraw %}{% end_module_attribute %}{% module_attribute "label" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "module_id" is_json="true" %}{% raw %}201493994716{% endraw %}{% end_module_attribute %}{% module_attribute "path" is_json="true" %}{% raw %}"@projects/aca-group-project/aca-group-app/components/modules/ButtonGroup"{% endraw %}{% end_module_attribute %}{% module_attribute "schema_version" is_json="true" %}{% raw %}2{% endraw %}{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}{% raw %}"NOT_SMART"{% endraw %}{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "type" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "wrap_field_tag" is_json="true" %}{% raw %}"div"{% endraw %}{% end_module_attribute %}{% end_module_block %}

Lees verder
Mob-programmering in een vergaderzaal
Mob-programmering in een vergaderzaal
Leestijd 4 min
8 MEI 2025

ACA doet veel projecten. In het laatste kwartaal van 2017 deden we een vrij klein project voor een klant in de financiële sector. De deadline voor het project was eind november en onze klant werd eind september ongerust. We hadden er echter alle vertrouwen in dat we de klus op tijd konden klaren en besloten een experiment uit te proberen. We brachten het team samen in één kamer en begonnen met mob-programmering . Maffia wat? We hadden een artikel gelezen waarin het concept van mob programming werd uitgelegd. In het kort komt mob programming erop neer dat het hele team samen in één ruimte zit en aan één user story tegelijk werkt. Eén persoon is de 'bestuurder' en doet het coderen voor een bepaalde tijd. Als die tijd voorbij is, gaat het toetsenbord over naar een ander teamlid. We probeerden het experiment met de volgende opzet: Ons team was relatief klein en had slechts 4 teamleden. Omdat het project waaraan we werkten relatief klein was, konden we maar 4 mensen aannemen. De user stories die we behandelden waren slechts een deel van het project. Omdat dit een experiment was, wilden we niet dat het project - zo klein als het was - volledig zou worden overspoeld. Daarom kozen we één specifieke epic en implementeerden we die user stories in de mob. We werkten niet op dezelfde computer. We hadden elk een aparte laptop en checkten onze code in op een centraal versiebeheersysteem in plaats van het toetsenbord te verwisselen. Dit was niet echt een keuze die we maakten, gewoon iets dat gebeurde. We wisselden elke 20 minuten. Het artikel waarnaar we verwezen heeft het over 12, maar we vonden dat te kort en besloten om in plaats daarvan 20 minuten te nemen. Klaar, af, af! We brachten meer dan een week door in een vergaderruimte waar we om de beurt onze laptops konden aansluiten op één groot scherm. De eerste dag van het experiment ontwierpen we. Urenlang stonden we achter het whiteboard om te beslissen over de architectuur van de component die we gingen bouwen. Op dezelfde dag begon onze groep met de implementatie van het eerste verhaal. We gingen er echt vandoor! We vlogen door de user story en riepen naar onze klantproxy als sommige vereisten niet duidelijk waren. Tegen het einde van de dag waren we uitgeput. Ons experiment was nog maar net begonnen en het was al zo intens. De volgende dagen gingen we verder met het implementeren van de user stories. In minder dan een week hadden we werkende software die we aan onze klant konden laten zien. Hoewel het nog niet perfect was en niet alle vereisten dekte, was onze software al na 3 dagen in staat om een volledige, gelukkige path flow uit te voeren. Twee dagen later implementeerden we verbeteringen en uitzonderingsgevallen die via andere user stories waren besproken. Er was nog maar een week verstreken sinds onze klant zich zorgen begon te maken en we hadden al zoveel geïmplementeerd dat we hem konden laten zien. De laatste hand leggen Tegen het einde van het project moesten we alleen nog wat technische zaken regelen. Een daarvan was het agnostisch maken van onze nieuw gebouwde softwareomgeving. Als we deze user story hadden afgewerkt met pair programming, zou één paar alle technische details van de software kennen. Met pair programming hoefden we het niet aan de rest van het team te laten zien. Het team wist het al. Omdat we laptops gebruikten in plaats van toetsenborden, had iedereen de setup op zijn eigen machine gedaan. Iedereen kende de commando's en de configuratie. Het was kennis delen op zijn best! Andere technische aspecten waren het correct configureren van onze software. Dit bleek een saaie taak te zijn voor de meeste navigators. Op dit punt besloten we dat het maffia-experiment ver genoeg was gegaan. We hadden het gevoel dat het niet de bedoeling was om dit soort taken met 4 mensen tegelijk te doen. Tenminste, dat is onze mening. Vlak voordat de groep uiteenviel, planden we een evaluatiebijeenkomst. We waren enthousiast en wilden dit opnieuw doen, misschien zelfs op grotere schaal. Onze ervaring met mob-programmering Het resultaat van ons experiment was erg positief. We ervoeren kennisdeling op verschillende niveaus. Alle betrokkenen kenden de volledige functionaliteit van de applicatie en we kenden allemaal de details van de implementatie. We waren in staat om snel een nieuw teamlid te integreren wanneer dat nodig was, terwijl we toch op een constante snelheid bleven werken. We hadden al gezegd dat we erg enthousiast waren voor, tijdens en na het experiment. Dit had een positieve invloed op onze teamgeest. We waren allemaal meer betrokken bij het project. Het nadeel was dat we mob-programmeren als vermoeiender ervoeren. We voelden ons uitgeput na een dag samenzijn, zij het op een goede manier! Volgende stappen Andere collega's zagen ons in onze vergaderruimte programmeren op een groot scherm. Er ontstonden gesprekken over het experiment. Onze opwinding werkte aanstekelijk: mensen waren meteen geïnteresseerd. We begonnen te praten over meer experimenten. Misschien zouden we mob-programmering kunnen doen in verschillende teams op verschillende projecten. En zo begint het... Heb jij ooit al eens mob-programmering geprobeerd? Of sta je te popelen om het te proberen? Laten we tips of trucs uitwisselen! We horen graag van je !

Lees verder
Liferay AI search
Leestijd 3 min
8 MEI 2025

Liferay DXP is de afgelopen jaren uitgegroeid tot een veelgebruikt portaalplatform voor het bouwen en beheren van geavanceerde digitale ervaringen. Organisaties gebruiken het voor intranetten, klantportalen, self-service platforms en meer. Hoewel Liferay DXP bekend staat om zijn gebruiksvriendelijkheid, kan de standaard zoekfunctionaliteit verder worden geoptimaliseerd om te voldoen aan de moderne verwachtingen van gebruikers. Om dit aan te pakken heeft ACA een geavanceerde oplossing ontwikkeld die de standaard zoekmogelijkheden van Liferay aanzienlijk verbetert. Lees er alles over in deze blog. Zoeken in Liferay: niet altijd efficiënt Traditioneel waren organisatorische zoekopdrachten gebaseerd op individuele trefwoorden . Intranetgebruikers zochten bijvoorbeeld op termen als "verlof" of "vergoeding" om de informatie te vinden die ze nodig hadden. Dit resulteerde vaak in een overvloed aan resultaten en documenten , waardoor gebruikers deze handmatig moesten uitpluizen om relevante informatie te vinden - een tijdrovend en inefficiënt proces dat de gebruikerservaring belemmert. De manier waarop gebruikers zoeken is veranderd De opkomst van AI-tools zoals ChatGPT heeft de manier waarop mensen naar informatie zoeken veranderd. Dit is ook zichtbaar in online zoekmachines zoals Google, waar gebruikers hun zoekopdrachten steeds vaker formuleren als complete vragen. Bijvoorbeeld: "Hoe vraag ik verlof aan?" of "Op welke reiskostenvergoeding heb ik recht?" . Om aan deze veranderende zoekbehoeften te voldoen, moet de zoekfunctionaliteit niet alleen snel zijn, maar ook natuurlijke taal kunnen begrijpen. Helaas schiet de standaard zoekfunctie van Liferay op dit gebied tekort. ACA ontwikkelt geavanceerde AI-gestuurde zoekfunctie voor Liferay Om tegemoet te komen aan het hedendaagse zoekgedrag, heeft ACA een geavanceerde oplossing ontwikkeld voor Liferay DXP 7.4 installaties: Liferay AI Search . Door gebruik te maken van het GPT-4o taalmodel zijn we erin geslaagd om de standaard zoekmogelijkheden van Liferay aanzienlijk te verbeteren. GPT-4o is een state-of-the-art taalmodel getraind op een uitgebreide dataset van tekstuele informatie. Door GPT-4o in onze oplossing te integreren, hebben we de zoekalgoritmes aangepast om complexere zoekopdrachten te verwerken , inclusief vragen in natuurlijke taal. Hoe werkt Liferay AI Search? Gesloten dataset Het AI model heeft alleen toegang tot data binnen de gesloten Liferay omgeving. Dit zorgt ervoor dat alleen relevante documenten - zoals die uit de Bibliotheek en Mediabibliotheek - toegankelijk zijn voor het model. Beheerders controle Beheerders kunnen bepalen welke content wordt opgenomen in de GPT-4o dataset, waardoor ze de nauwkeurigheid en relevantie van zoekresultaten verder kunnen optimaliseren. Afhankelijk van het profiel van de gebruiker worden de antwoorden en zoekresultaten afgestemd op de informatie waartoe hij of zij toegang heeft. Directe antwoorden Dankzij de GPT-4o integratie biedt de zoekfunctionaliteit niet alleen traditionele resultaten, maar ook directe antwoorden op gebruikersvragen. Hierdoor hoeven gebruikers niet meer door zoekresultaten te spitten om de specifieke informatie te vinden die ze nodig hebben. De vergelijking hieronder illustreert het verschil tussen de zoekresultaten van Liferay DXP's standaard zoekfunctie en de verbeterde resultaten van ACA's Liferay AI Search. Wilt u Liferay AI Search in actie zien? Bekijk de demo hieronder of via deze link! Voordelen van Liferay AI Search Of u nu Liferay DXP gebruikt voor uw klantenplatform of intranet, Liferay AI Search biedt tal van voordelen voor uw organisatie: Verhoogde gebruikerstevredenheid: Gebruikers kunnen snel precieze antwoorden vinden op hun vragen. Verbeterde productiviteit: Er wordt minder tijd besteed aan het zoeken naar informatie. Verbeterde kennisdeling: Belangrijke informatie is makkelijker te vinden en te delen. Conclusie Met Liferay AI Search verhoogt ACA de zoekfunctionaliteit van Liferay DXP om te voldoen aan de moderne verwachtingen van gebruikers. Door GPT-4o te integreren in Liferay DXP 7.4 levert deze oplossing niet alleen traditionele zoekresultaten, maar ook directe, relevante antwoorden op complexe zoekopdrachten in natuurlijke taal. Dit leidt tot een snellere, gebruiksvriendelijkere en efficiëntere zoekervaring die zowel de productiviteit als de gebruikerstevredenheid aanzienlijk verhoogt. Klaar om de zoekfunctionaliteit van uw Liferay platform te optimaliseren Neem vandaag nog contact met ons op!

Lees verder
Schip-IT dag 2023
Schip-IT dag 2023
Leestijd 8 min
8 MEI 2025

30 november 2023 was een langverwachte dag voor tal van ACA-medewerkers. Want op Ship-IT Day gingen negen teams van ACA-teamleden, al dan niet aangevuld met klantexperts, aan de slag met het creëren van inventieve oplossingen voor uitdagingen van klanten of voor ACA Group zelf. De hackathon bleek zowel inspirerend als productief, met aan het eind een verdiende winnaar! De sfeer in het ACA-kantoor in Hasselt was vanaf het eerste moment zinderend. Acht van de negen projectteams waren hier gestationeerd. Tijdens het koffiekoekenontbijt voelde je meteen dat het een buitengewone dag ging worden. Er was een voelbaar gevoel van opwinding onder de projectteamleden en een verlangen om de complexe uitdagingen die voor ons lagen aan te gaan . 9 innovatieve projecten voor interne en externe uitdagingen 🚀 Na het ontbijt zwermden de acht projectteams uit naar hun werkomgeving voor die dag. Het negende team nam deel in het ACA-kantoor in Leuven. We zetten de teams hier op een rijtje: Chatbot cursusintegratie in klantenportaal Systeemintegratietesten in een CI/CD pijplijn Onboarding portaal/platform inclusief gamification Automatische nasynchronisatie, transcriptie en samenvatting van gesprekken publiq film die gegevensimport via ML aanbiedt SMOCS, spottend beheersysteem op laag niveau Samenstelbare architectuur voor gegevensverwerking Virtuele werknemers Geautomatiseerde facturatie Als je meer wilt weten over de omvang van de verschillende projectteams, lees dan ons eerste blogartikel Ship-IT Day 2023: alle projecten op een rij . De sfeer proeven in de teams Vlak voor de middag vroegen we ons af hoe de teams waren begonnen en hoe hun werk zich ontwikkelde. En dus gingen we snel een kijkje nemen... 👀 1. Chatbot cursusintegratie in klantportaal "Na een korte kick-off meeting met de klant hebben we de taken verdeeld en zijn we direct aan de slag gegaan," vertelt Bernd Van Velsen. "De sfeer is geweldig en aan het einde van de dag hopen we een resultaat te presenteren dat de klant inspireert . In het beste geval kunnen we straks AI-tools inzetten in een echt klantproject met als doel de vele data van de klant optimaler te benutten." "De Ship-IT Day is een jaarlijkse traditie waar ik graag aan deelneem", zegt Bernd. "Niet alleen omdat het geweldig is om samen te werken met collega's van andere afdelingen, maar ook omdat het super leerzaam is." 2. Systeemintegratietesten in een CI/CD-pijplijn "We willen aantonen dat we in een bestaande omgeving kliktests in de frontend kunnen uitvoeren en controleren of alles goed samenwerkt," zegt Stef Noten. "Op dit moment kunnen we de nodige testen lokaal uitvoeren, dus we liggen goed op schema. De volgende stap is om dit ook in onze build pipeline te laten werken. Aan het einde van de dag hopen we dat we de tests handmatig of gepland kunnen uitvoeren op de nieuwste versie van de backend en frontend ." 3. Onboarding portaal/platform inclusief gamification De leden van dit projectteam zijn allemaal vrij recent begonnen bij ACA. En dat is precies wat hen samenbracht, want hun doel was om een platform te ontwikkelen dat het onboardingproces voor nieuwe medewerkers efficiënter en leuker maakt . Dieter Vennekens deelde zijn enthousiasme met ons: "We zijn begonnen met een brainstormsessie om de eisen en doelen van het platform te definiëren. Vervolgens hebben we deze bekeken met de belangrijkste gebruikers om er zeker van te zijn dat het eindproduct overeenkomt met hun verwachtingen. Ons doel is om voor de lunch de basisstructuur vast te stellen, zodat we ons 's middags intensief kunnen richten op ontwikkeling en styling. Aan het einde van de dag is ons doel om een functioneel prototype te onthullen. Dit project dient als een kans om de mogelijkheden van Low-Code te laten zien." 4. Automatische nasynchronisatie, transcriptie en samenvatting van gesprekken Toen we de vergaderruimte binnenkwamen, vonden we het projectteam verdiept in hun werk, en Katrien Gistelinck gaf een beknopte uitleg over hun bedrijf. Katrien Gistelinck gaf een beknopte uitleg over hun business. "Ons project is in essentie opgedeeld in twee aspecten. Ten eerste willen we een automatische transcriptie en samenvatting van een gesprek ontwikkelen. Tegelijkertijd werken we aan het live nasynchroniseren van een gesprek, hoewel we onzeker zijn over de haalbaarheid van dat laatste binnen een dag. Het is misschien een beetje ambitieus, maar we zijn vastbesloten om het te proberen." Ze vervolgt: "Vanochtend hebben we ons gericht op het definiëren van de gebruikersstroom en het selecteren van de tools die we gaan gebruiken. Op dit moment worden er meerdere taken tegelijkertijd uitgevoerd, waarbij zowel de UI als de backend componenten worden aangepakt." 5. Publiq film biedt data-import via ML Dit team, bestaande uit zes medewerkers van Publiq en drie van ACA, hield een kennismakingsronde gevolgd door een bespreking van de projectaanpak op het whiteboard. Daarna verdeelden ze de taken onder elkaar. Peter Jans: "Iedereen werkt ijverig aan de toegewezen taken en we communiceren voortdurend. De sfeer is positief en we hebben zelfs een groepsfoto gemaakt! Een hele dag samenwerken met de klant aan een oplossing voor een specifieke uitdaging geeft energie. " "Aan het einde van de dag is ons doel om een functionele demo te presenteren die de AI en ML (Machine Learning) verwerking van een e-mailbijlage laat zien, gevolgd door het uploaden van de gegevens naar de UIT database. Het resultaat zou toegankelijk moeten zijn op uitinvlaanderen.be ." Peter voegt er optimistisch aan toe: "We mikken op de winst." That's the spirit, Peter! 6. SMOCS, laag niveau spottend beheersysteem Bij onze aankomst was het SMOCS-team diep in hun besprekingen verdiept, waardoor we aarzelden om te onderbreken. Uiteindelijk namen ze toch de tijd om op onze vragen in te gaan en de sfeer was zonder twijfel positief. "We begonnen het proces met een korte brainstormsessie op het whiteboard. Nadat we onze prioriteiten hadden vastgesteld, hebben we de taken dienovereenkomstig verdeeld. Op dit moment liggen we op schema: de ontwerpfase is grotendeels afgerond en er is aanzienlijke vooruitgang geboekt met de API. We voeren elk uur een statuscontrole uit en sturen waar nodig bij," deelden ze. "Ons doel is om aan het einde van de dag een eerste versie van SMOCS te laten zien, compleet met een dashboard dat een uitgebreid overzicht biedt van de verzonden verzoeken samen met de bijbehorende antwoorden die we kunnen aanpassen. Daarnaast hebben we goede hoop dat het aangepaste antwoord ook te zien zal zijn in de applicatie voor de eindgebruiker." 7. Samengestelde architectuur voor gegevensverwerking Dit projectteam wil een basisarchitectuur opzetten die toepasbaar is op soortgelijke projecten die vaak gericht zijn op het verzamelen en verwerken van gegevens. Op dit moment beginnen klanten projecten meestal vanaf nul, terwijl veel bouwstenen hergebruikt zouden kunnen worden via platform engineering en samenstelbare data. "Hoewel de tijd erg snel vliegt, hebben we al veel goede ideeën verzameld", zegt Christopher Scheerlinck. "Wat willen we later presenteren? Een heel complex schema dat niemand begrijpt (lacht). Nee, we willen onze concepten voor het realiseren van een herbruikbare architectuur laten zien, die we later aan de klant kunnen voorleggen. Aangezien we geen demo kunnen geven die vergelijkbaar is met die van andere teams, hebben we ons al neergelegd bij de kans dat we tweede worden!" 8. Virtuele medewerkers Dit team was misschien wel het kleinste van allemaal, maar vlak voor de middag was er al veel werk verzet. "Vanochtend hadden we eerst een korte vergadering met de klant om hun verwachtingen te bespreken," legt Remco Goyvaerts uit. "Daarna hebben we de prioritaire taken geïdentificeerd en zijn we allebei snel aan de slag gegaan. Het doel is om een virtuele collega te ontwikkelen die gevoed kan worden met nieuwe informatie op basis van AI en ML . Deze virtuele collega kan nieuwe medewerkers helpen om bepaalde informatie te vinden zonder dat ze andere medewerkers hoeven te storen. Ik weet zeker dat we iets moois kunnen laten zien, dus op dit moment is de stress goed onder controle." Chatbottechnologie wordt steeds populairder. Remco ziet dit Ship-IT project als de ideale gelegenheid om meer te leren over toepassingen met een langetermijngeheugen. "De Ship-It Day is een fantastisch initiatief", zegt Remco. "Het is heerlijk om de kans te krijgen om los te komen van de routinematige werkstructuur en innovatieve ideeën te verkennen." 9. Geautomatiseerde facturatie De klant die bij dit project betrokken is, verwerkt jaarlijks 50.000 facturen in verschillende talen. Het doel is om accurate informatie uit deze facturen te halen, deze te vertalen naar de juiste taal en om te zetten in een formaat dat gemakkelijk te hanteren is voor de klant . "Hoewel we vrij laat zijn begonnen, hebben we al grote vooruitgang geboekt," merkt Bram Meerten op. "We kunnen de factuur nu al naar Azure sturen, die er redelijk goed de nodige gegevens uithaalt. Vervolgens sturen we die data door naar ChatGPT, wat mooie resultaten oplevert. Onze focus ligt nu op het visualiseren in een frontend. De volgende fase is het implementeren van extra controles en oplossingen voor regelinformatie die niet goed wordt verwerkt." Bram is enthousiast over het concept van de Ship-IT Day: "Het is leuk om 's ochtends vanaf nul te beginnen en aan het eind van de dag een functionele oplossing te presenteren. Hoewel het misschien niet helemaal af is, zal het zeker een mooi prototype zijn." En de winnaar is .... 🏆 Om 17.00 uur was het zover... Elk team kreeg de kans om hun prestaties te laten zien in een pitch van 5 minuten, gevolgd door een stemronde waarbij alle aanwezigen hun favoriet konden kiezen. Alle teams presenteerden met succes een functioneel prototype dat de uitdagingen van hun klant aanpakte. Het SMOCS team slaagde er misschien niet in om hun oplossing te visualiseren, maar introduceerde wel aanvullende zakelijke ideeën met de SMOCintosh en het SMOCS-to-go voedselconcept. Deze ideeën haalden echter net niet de overwinning. In een spannende finale kwam het team dat werkte aan het onboarding platform voor ACA als winnaar uit de bus! Onder de naam NACA (New at ACA) presenteerden ze een indrukwekkend prototype van het onboardingplatform, waar werknemers geleidelijk een raket bouwen terwijl ze hun onboardingproces doorlopen. Niet alleen de functionaliteit was opmerkelijk, maar ook de gebruikersinterface kreeg veel lof. Gefeliciteerd aan de welverdiende winnaars! Veel plezier met jullie shopping- en dinercheques. 🤩 Tot volgend jaar!

Lees verder