

Geautomatiseerd testen, mits goed uitgevoerd, elimineert het verhoogde risico en de extra problemen die handmatig testen met zich meebrengt. In deze blogpost ontkrachten we het misplaatste geloof dat handmatig testen en bewijs verzamelen veel waarde toevoegt.
Bij ACA werken we volgens een agile methodologie. Daarom werken we nauw samen met onze klanten om oplossingen te leveren die hunechte bedrijfsproblemen oplossen. Bovendien streven we ernaar ze snel op te lossen. Deze aanpak heeft keer op keer zijn waarde bewezen, omdat er zo snel mogelijk zoveel mogelijk feedback wordt verzameld.
Sommige klanten dwingen van oudsher grondige handmatige gebruikersacceptatietests af vlak voordat een softwareverandering live kan gaan. De reden ligt voor de hand: hun bedrijf is sterk afhankelijk van deze software, dus alle risico's en financiële gevolgen moeten worden uitgesloten. Dus handmatig testen nadat alle ontwikkeling is voltooid is heel logisch, toch?
Of toch niet? Ons team is er vaak getuige van geweest dat handmatig testen indirectmeer risico's en problemen veroorzaakt, in plaats van minder! We zouden zelfs zo ver willen gaan om te zeggen dathet als een virus is. Een virus dat elk onderdeel van de organisatie infecteert, vaak volledig onopgemerkt! Hoe is dit mogelijk? Omdat handmatig testen niet alleen de eindcontrole is die het had moeten zijn. Het is eenproces. Een proces dat de manier stuurt waarop je change management uitvoert, de manier waarop je resources plant en de manier waarop je verantwoordelijkheid toewijst en verschuift.
Handmatig testen: hogere kosten en risico's

Volkomen duidelijk, toch?

Misschien niet. Laat ik het samenvatten:
- Omdat handmatig testen tijdrovend is, resulteert het in te weinig en dus te grote releases. Dit veroorzaakt:
- Risicovolle go-lives
- Trage feedback
- Lastige afhankelijkheden, complicerende hotfixes
- Door het extra vangnet verschuift de verantwoordelijkheid van het ontwikkelteam. Dit leidt onvermijdelijk tot ontbrekende geautomatiseerde testscenario's en controles, met als gevolg
- Onvoldoende vertrouwen voor toekomstige go-lives
- Verplichte (of ontbrekende) handmatige regressietests bij toekomstige wijzigingen
- Bugs (na verloop van tijd)
Dit alles kost echt geld en brengt echte risico's met zich mee!
Geautomatiseerde tests in de bestuurdersstoel zetten
In plaats van elk probleem bij de bladeren aan te pakken, probeerden we een relatief kleine actie te ondernemen om het probleem bij de wortel aan te pakken. We probeerden het misplaatste geloof weg te nemen dat dit soort handmatig testen en handmatig bewijs verzamelen veel waarde toevoegt.
We hadden al een enorme hoeveelheid geautomatiseerde tests als onderdeel van onze levenscyclus van testgestuurde ontwikkeling. Dus hoe konden we deze gaan gebruiken? We begonnen met het uitleggen van onze huidige testgewoonten aan de zakelijke gebruikers. Daarna zijn we voor een concreet project samen scenario's gaan definiëren en tot slot hebben we ze continu inzicht gegeven in de resultaten.

Stap 1: leer de business over geautomatiseerd testen
Welke soorten geautomatiseerde tests zijn er al? Welke garanties bieden ze? En welke garanties bieden zeniet?
De business houdt zich bezig met hun business. Ze kennen de applicatiearchitectuur niet, laat staan wat een geautomatiseerde test eigenlijkis. Je kunt ( de meeste) geautomatiseerde tests nietzien, dus hoe kun je ze ooit vertrouwen? Daarom gaat het bij het verminderen van de afhankelijkheid van handmatig testen niet om het veranderen van enkele werkwijzen en het toevoegen van enkele controles.In de kern gaat het omhet verschaffen van inzicht en het verdienen van vertrouwen.
Meer specifiek hebben we het volgende uitgelegd:
- We werken test-driven: er wordt geen enkele feature geïmplementeerd voordat er een test is. Deze test moet ook mislukken voordat de functie wordt geïmplementeerd, om er zeker van te zijn dat het juiste wordt getest.
- Het is onmogelijk om een wijziging op te leveren zonderdat alle tests geslaagd zijn ( wat wij ontwikkelaars een succesvolle 'build' noemen). Niet alleen nieuwe tests voor een nieuwe story, maar ook de tests van alle eerdere stories.
- Onze applicaties zijn gelaagd en elke laag biedt zijn eigen garanties. Voor de technische lezer: we gebruiken een variant op hexagonale architectuur waarvan de ontkoppeling van technologie perfect bleek aan te sluiten bij het bieden van zakelijke garanties.
Onze bedrijfsdomeinlaag is volledig onbewust van technologie of infrastructuur, dus die dingen kunnen onmogelijk de garanties doorbreken die door de tests op deze laag worden gegeven.

Onze use-case laag vertrouwt alleen op infrastructuur in high-level business termen, bijvoorbeeld op iets dat dingen kan 'opslaan' of 'vinden'. De tests garanderen correcte resultaten voor de acties en queries in deze laag,gegeven de correcte infrastructuur.

Concrete technologie/infrastructuur keuzes zijn plugins aan de rand van onze applicaties, op dezelfde manier als een printer in een computer wordt geplugd: Excel kent het model van je printer niet, het weet alleen dat het kan afdrukken. Als de plugins ('printer') werken, zullen de use cases (acties en query's) ook werken.

We testen alle lagen ook samen met click-through-UI-tests. Omdat ze visueel kunnen worden weergegeven en alle onderdelen in de integratie omvatten, bieden deze tests veel vertrouwen voor de business.
Er zijn enkele hiaten in onze geautomatiseerde teststrategie. Sommige integraties met infrastructuur of externe services kunnen niet gemakkelijk op een geautomatiseerde manier worden geverifieerd. Hier moet de nadruk liggen op handmatig testen.
Het bedrijf moet zijn tijd niet verspillen door te controleren of er een bepaald bericht verschijnt wanneer je op een bepaalde knop klikt.
Het doel is niet om zakelijke gebruikers in ontwikkelaars te veranderen, maar om hen te laten zien waarom het vertrouwen van ontwikkelaars in deze tests vanzelfsprekend is. Dus in plaats van ze te overstelpen met technische details, vraag waar ze zich zorgen over maken en geef geduldig antwoord. Ze zullen zich niet alle details herinneren en dat hoeft ook niet. Maar het vertrouwen zal blijven. En pas als ze het vertrouwen hebben verdiend, zullen ze accepteren dat hun testgewoonten veranderen. Sterker nog, we hebben gemerkt dat ze er zelf om vragen!
Stap 2: Bepaal samen testscenario's
Welke scenario's zijn bedrijfskritisch? Welke controles zijn nodig om voldoende vertrouwen te geven om live te gaan? Dit zijn vragen die we nu behandelen tijdens het uitwerken van story's. Als gevolg daarvan zijn de resulterende geautomatiseerde tests nu een deliverable van elke story geworden.
Handmatige tests richten zich vaak op lange, end-to-end bedrijfsprocessen. Zelfs als bewezen is dat elk onderdeel van het proces op zichzelf perfect werkt en u bent degene die de schakelaar in productie omzet: zouu zich 100% zeker voelen ? Voor degenen die dapper genoeg zijn om ja te antwoorden: het is ofwel omdat je alles tot in detail weet, of je weet niet genoeg!
Daarom hebben we ons gericht op dezelfde end-to-end bedrijfsstromen, gesimuleerd door te klikken via de geïntegreerde applicatie (met uitzondering van slechts enkele kleine externe services).
Stap 3: Voor continu inzicht zorgen
De juiste geautomatiseerde testscenario's waren nu bepaald, maar hoe konden de zakelijke gebruikers weten dat deze correct waren geïmplementeerd? En hoe konden we ze het bewijs leveren dat ze moesten documenteren? Daarom introduceerden we als laatste stap een gedetailleerd testrapport met alle uitgevoerde stappen in de vormvan Gegeven-Wanneer-Dan.

Als je op een stap klikt, wordt een pop-up geopend met schermafbeeldingen en een logboek van alle uitgevoerde controles. Dit geeft onze zakelijke gebruikers bewijs en vertrouwen dat de juiste dingen zijn gecontroleerd.


Positieve effecten van de introductie van geautomatiseerd testen
We hebben deze nieuwe manier van samenwerken ongeveer 6 maanden geleden geïntroduceerd, voor meerdere ontwikkelingsgolven van een nieuwe applicatie. Tijdens dit project hebben we veel positieve effecten gemerkt:
- Minder tijd verspild aan handmatig testen.
- Meer vertrouwen: we schreven al veel tests, maar deze nieuwe aanpak leidt ons naar de juiste scenario's en controles: diegene die het belangrijkst zijn voor onze eindgebruikers. Omdat er geen mismatch meer is, hebben zowel de zakelijke gebruikers als de ontwikkelaars veel meer vertrouwen om live te gaan.
- Wanneer we een verandering moeten doorvoeren (functioneel of technisch, bijv. upgrades), zijn de eerste vragen die altijd opkomen: "Wat is de impact? Kan dit iets kapot maken?" Nu kunnen we gewoon het testrapport raadplegen, dat alle belangrijke bedrijfsstromen bevat.
- Eenvoudiger plannen: door een kleinere tijdsafhankelijkheid van de business kunnen we sommige veranderingen eerder doorvoeren of tijdschema's flexibeler verschuiven.
- Blootgelegde blinde vlekken bij het testen. Omdat de ontwikkelaars nu meer verantwoordelijk zijn, voelen ze de gezonde druk om ervoor te zorgen dat er geen blinde vlekken meer zijn bij het testen. Als gevolg daarvan worden ze nu gedekt door extra geautomatiseerde tests en gezondheidscontroles. In uitzonderlijke gevallen kan er een kleine handmatige test gericht zijn op de testleemte in plaats van een volledig tijdrovend bedrijfsproces.
- Verbeterde verhaalkwaliteit. De focus van de stories is verschoven naar werkende bedrijfsscenario's. Bijvoorbeeld, in plaats van dat een story voor een indieningsscherm al velden bevat om 'goedkeurders' te selecteren, worden deze velden nu alleen toegevoegd in de story die goedkeuringen implementeert. Op die manier is het moeilijker om in de val te trappen van het implementeren van 'features' die eigenlijk geenfunctionaliteit toevoegen.
⚠️ Valkuilen
Hoewel we ongelooflijk positief zijn over deze nieuwe manier van werken, zijn er nog enkele valkuilen waar we voor moeten oppassen.
- Te veel end-to-end tests.De testpiramide promoot het schrijven van de meeste tests op unit niveau omdat unit tests sneller zijn, makkelijker te debuggen en minder vatbaar voor willekeurige fouten die niets te maken hebben met de applicatiecode. We hebben geprobeerd het aantal end-to-end scenario's te beperken door een risico-gebaseerde benadering te kiezen: als een kapotte functie geen risico vormt, zijn tests op de lagere niveaus (bijv. unit tests) voldoende. Als bijvoorbeeld een annuleerknop niet werkt, kan de gebruiker gewoon zijn browservenster sluiten.
- Natuurlijke drang om terug te vallen op handmatig testen. Voor kleine wijzigingen kost handmatig testen en handmatig bewijs verzamelen immers niet zo veel tijd. Dergelijke tests zullen echter waarschijnlijk niet worden herhaald voor toekomstige wijzigingen. Daarom is het belangrijk om ze te behandelen als verkennende tests in plaats van een vangnet, zodat de verantwoordelijkheid bij het team en de afgesproken testscenario's blijft liggen.
➡️ Volgende stappen
We vinden deze nieuwe manier van werken een enorme verbetering, maar het is nog maar het begin. We zien de volgende volgende volgende stappen:
- Verminder de focus op het end-to-end niveau.We willen graag inzicht geven in geselecteerde tests op lagere niveaus,waarbij we de focushouden op de goedkoopste tests die voldoende vertrouwen geven.
- Maak er een gewoonte van om testscenario's en controles samen met de businesste bespreken, zodat het de standaard manier van werken wordt.
- Ga door met de verschuiving naar links.Overeengekomen testscenario's moeten de enige voorwaarde worden voor livegang, ter vervanging van tijdrovende goedkeuringen van verschillende belanghebbenden. Dit zou onze time-to-production voor hotfixes en features drastisch moeten verkorten en uiteindelijk onze klant op weg moeten helpen naar continuous delivery.
- Behandel software als een levend product. In plaats van veranderingen alleen te plannen en goed te keuren in grote "projecten", zou het een gewoonte moeten worden om applicaties voortdurend te laten evolueren en aan te passen aan veranderende bedrijfsbehoeften.
Wat vindt u ervan? Wat vind je (niet) goed aan onze aanpak? Laat het ons weten!

What others have also read


In deze technische blogpost wil ik het hebben over hoe je eenvoudige en flexibele ETL-gebaseerde anonimisering kunt opzetten. Waarom? Wel, ik had onlangs de gelegenheid om een klein proof of concept uit te voeren voor een klant. De klant wilde weten welke opties beschikbaar waren om interne gegevens te nemen, alle persoonlijk identificeerbare informatie (PII) te verwijderen of anonimiseren en deze op een eenvoudige manier en vorm beschikbaar te maken voor externe partijen. Na het verzamelen van verdere vereisten werd de context voor dit proof of concept als volgt gedefinieerd: Welke oplossing dan ook, het moet in staat zijn om gegevens te extraheren uit een on premise Oracle database . Het eindresultaat moet een set CSV-bestanden zijn in een Amazon S3-bucket . Tussen het ophalen van de Oracle-gegevens en het dumpen ervan in CSV-vorm op S3, moet er iets zijn dat PII-gegevens verwijdert/anonimiseert. Indien mogelijk moet de gekozen oplossing cloud native zijn. In deze 3-delige blogreeks leg ik uit hoe je eenvoudige en flexibele ETL-gebaseerde anonimisering opzet: Het onderzoek naar producten die gebruikt zouden kunnen worden om het probleem op te lossen. Controleer ook hoe geschikt ze zijn voor wat de proof of concept moet bereiken. Hoe het gekozen product gebruikt kan worden om een ETL pipeline te maken die aan de eisen voldoet. Daarnaast, hoe je een lokale Oracle database opzet in Docker die gebruikt kan worden als databron voor het data ingestion deel van het proof of concept (gewoon omdat dit zo'n PITA was om te doen). En of dit op een cloud native manier kan worden gedaan. Onderzoek Het onderzoeksdeel van het proof of concept bestaat uit 2 delen: Hoe haal je data uit een Oracle database, anonimiseer je het op de een of andere manier en sla je het op als een stel CSV bestanden in een S3 bucket aka het ETL gedeelte. Uitzoeken wat de beste manier is om de anonimisering uit te voeren. De gegevens extraheren, transformeren en opslaan Het probleem van de klant klonk meteen al opmerkelijk als iets dat je zou kunnen oplossen met een ETL-product: Extract Transform Load . Het onderzoeksgedeelte voor dit deel van het proof of concept zou zich dus concentreren op dit type product. Ik kreeg ook wat input van iemand in mijn team om eens te kijken naar singer.io , omdat dat iets was dat ze in het verleden met succes hadden gebruikt voor dit soort problemen. Als je naar de homepage van Singer kijkt, vallen een aantal dingen meteen op: Singer maakt gegevensextractie en -consolidatie mogelijk voor alle tools van je organisatie. De open-source standaard voor het schrijven van scripts die gegevens verplaatsen. Unix-geïnspireerd: Singer taps en targets zijn eenvoudige applicaties samengesteld met pipes. JSON-gebaseerd: Singer-toepassingen communiceren met JSON, waardoor ze eenvoudig te gebruiken en te implementeren zijn in elke programmeertaal. Singer is dus gewoon een specificatie, zij het geen officiële. Het is een eenvoudig, op JSON gebaseerd dataformaat en je kunt iets in dit formaat produceren (een tap in Singer terminologie) of het formaat consumeren (een target ). Je kunt deze taps en targets aan elkaar koppelen om gegevens van de ene locatie te halen en op een andere locatie op te slaan. Singer wordt standaard geleverd met een heleboel taps (meer dan 100) en targets (10). Deze taps en targets zijn geschreven in Python. Omdat het centrale punt van het systeem slechts een gegevensformaat is, is het vrij eenvoudig om er zelf een te schrijven of een bestaand formaat aan te passen. Bij het controleren van de taps zou de standaard Oracle-tap het Extract-gedeelte van ons proof of concept moeten dekken. Hetzelfde lijkt echter niet het geval te zijn voor het Load gedeelte als we kijken naar de standaard targets. Er is een CSV target , maar deze slaat de resultaten lokaal op, niet in een S3 bucket. Er is een optie om gewoon dit doel te gebruiken en de S3 upload zelf te doen nadat de ETL pijplijn is voltooid. Een andere optie zou zijn om het bestaande CSV target aan te passen en de bestandsopslag te veranderen naar S3. Even Googelen levert een door de gemeenschap gemaakt S3 CSV Singer doel op. Volgens de documentatie zou dit target precies moeten doen wat we willen. Oeps, Singer transformeert niet Met de Extract en Load delen gedekt, blijft alleen het Transform deel van de ETL pijplijn over om uit te zoeken... en dit is waar het een beetje vreemd wordt. Ook al is Singer geclassificeerd als een ETL tool, het lijkt geen ondersteuning te hebben voor het transformatie gedeelte? Toen ik hier verder naar keek, kwam ik deze onheilspellend getitelde post tegen: Why our ETL tool does not do transformations . Als ik dit lees, lijkt het erop dat ze hun JSON specificatie/gegevensformaat beschouwen als het transformatiegedeelte. Dus ze ondersteunen transformatie naar ruwe gegevens en het opslaan ervan, maar ondersteunen geen andere soorten transformaties. Dat deel mag je zelf doen nadat het ergens is opgeslagen door een Singer-doel. Het blijkt dus dat Singer meer lijkt op het EL deel van een ELT product dan op een "old school" ETL product . Op dit punt zou Singer in ieder geval voldoende moeten zijn om de gegevens uit een Oracle database te halen en in CSV-formaat in een S3 bucket te zetten. En omdat Singer vrij eenvoudig, open en uitbreidbaar is, laat ik het hier voorlopig bij. Laten we verder kijken naar de anonimiseringsopties die in deze Singer-context zouden kunnen passen. Gegevens anonimiseren Net als bij het ETL-gedeelte, kreeg ik ook voor dit gedeelte wat input die me wees op Microsoft Presidio . Op de homepage kunnen we het volgende lezen: Het biedt snelle identificatie- en anonimiseringsmodules voor privé-entiteiten in tekst en afbeeldingen , zoals creditcardnummers, namen en meer. Het faciliteert zowel volledig geautomatiseerde als semi-geautomatiseerde PII de-identificatiestromen op meerdere platforms. Aanpasbaarheid in PII-identificatie en -anonimisering. Er staan dus veel veelbelovende dingen in die me zouden kunnen helpen bij het oplossen van mijn anonimiseringsbehoeften. Bij nader onderzoek lijkt het erop dat ik dit product evalueer tijdens een grote transformatie (snap je? 😉 ) van V1 naar V2. V1 bevatte wat ETL-achtige dingen zoals het ophalen van gegevens uit bronnen (hoewel Oracle-ondersteuning in de roadmap nooit lijkt te zijn gerealiseerd ) en het opslaan van geanonimiseerde resultaten in een aantal vormen/locaties. V2 heeft deze aanpak echter volledig losgelaten en concentreert zich puur op het detecteren en vervangen van PII-gegevens. In de kern is Presidio V2 een op Python gebaseerd systeem dat bovenop een AI-model is gebouwd. Dit stelt het in staat om automatisch PII-gegevens te ontdekken in tekst en afbeeldingen en deze te vervangen volgens de regels die je definieert. Ik heb wat tests gedaan met behulp van hun online testtool en het werkt min of meer, maar voor onze specifieke context moet het zeker worden aangepast. Als we kijken naar de meegeleverde testgegevens, lijkt het erop dat het vooral eenvoudige en korte gegevens zijn, maar geen grote tekstblokken of afbeeldingen. Dit roept de vraag op: zelfs als we Presidio kunnen configureren om te doen wat we willen, slaan we misschien kleine spijkers met een grote hamer? Is Presidio te veel? Laten we hier nog eens over nadenken. Als we gemakkelijk kunnen weten en definiëren welke eenvoudige kolommen in welke tabellen moeten worden geanonimiseerd en wanneer gewoon nulling of hashing van de kolomwaarden voldoende is, dan hebben we het autodetectie deel van Presidio niet nodig. We hebben ook geen Presidio-ondersteuning nodig voor volledige tekst of afbeeldingen en we hebben ook geen fancy substitutie-ondersteuning nodig. Presidio zou een krachtige bibliotheek kunnen zijn om een automatische anonimiseringsstap te maken voor onze Singer-gebaseerde pijplijn. Het helpt ook dat Presidio gebaseerd is op Python. Maar mijn gevoel zegt dat ik misschien eerst moet proberen om een iets eenvoudigere oplossing te vinden. Ik begon te zoeken naar iets dat een eenvoudige PII-vervanging kan doen en dat werkt in een Singer tap/target context. Ik vond deze Github repository: pipelinewise-transform-field . In de documentatie staat "Transformatiecomponent tussen Singer taps en targets". Klinkt verdacht veel als het " T " deel dat Singer als een ETL miste! Verderop in de configuratiesectie lezen we zelfs: "Je moet definiëren welke kolommen door welke methode moeten worden getransformeerd en in welke conditie de transformatie moet worden toegepast." en de mogelijke transformatietypes zijn: SET-NULL : transformeert elke invoer naar NULL HASH : transformeert stringinvoer naar hash HASH-SKIP-FIRST-n : Transformeert stringinvoer naar hash waarbij de eerste n tekens worden overgeslagen, bijv. HASH-SKIP-FIRST-2 MASK-DATE : Vervangt de maand- en dagdelen van datumkolommen door 1 jan. MASK-NUMBER : Zet elke numerieke waarde om in nul. MASK-HIDDEN : verandert een willekeurige tekenreeks in 'verborgen'. Dit lijkt volledig te voldoen aan onze eenvoudige anonimiseringseisen! We kunnen zelfs zien hoe we het moeten gebruiken in de context van Singer: some-singer-tap | transform-field --config [config.json] | some-singer-target Standaard Conclusie We hebben nu alle stukjes van de puzzel voor het opzetten van eenvoudige en flexibele ETL-gebaseerde anonimisering. In de volgende blogpost laten we zien hoe ze in elkaar passen en of ze de resultaten opleveren die de klant zoekt.
Lees verder

Bij de ontwikkeling van software kunnen aannames ernstige gevolgen hebben en we moeten altijd op onze hoede zijn. In deze blogpost bespreken we hoe je omgaat met aannames bij het ontwikkelen van software. Stel je voor... je rijdt naar een bepaalde plaats Een plek waar je al 5 jaar lang elke dag naartoe rijdt, dezelfde route neemt, langs dezelfde verlaten straat rijdt, waar je nog nooit een andere auto hebt gezien. Langzamerhand begin je je vertrouwd te voelen met deze route en ga je ervan uit dat je zoals altijd de enige auto op deze weg zult zijn. Maar op een gegeven moment duikt er een auto vlak voor je op... er was al die tijd al een zijstraat, maar je had hem nooit opgemerkt, of misschien was je hem helemaal vergeten. Je trapt op de rem en komt gelukkig net op tijd tot stilstand. Aannames werden je bijna fataal. Gelukkig zijn de veronderstellingen die we in ons werk maken nooit zo gevaarlijk voor ons leven als de veronderstellingen die we in het verkeer maken. Toch kunnen veronderstellingen ernstige gevolgen hebben en moeten we altijd op onze hoede zijn. Stel je voor... je maakt websites Je laatste klant is op zoek naar een nieuwe site voor zijn bejaardentehuis omdat zijn huidige site verouderd en niet zo fancy is. Dus u bouwt een fancy nieuwe website in de veronderstelling dat fancy betekent: modern ontwerp, sociale functies, dynamische inhoud. De site is niet het succes dat hij had verwacht ... vreemd ... je hebt precies gebouwd wat je klant wil. Maar heeft u gebouwd wat de bezoekers van de site willen? De gemiddelde gebruiker is tussen de 50 - 65 jaar oud, op zoek naar een nieuw huis voor hun vader en moeder. Ze zijn geen digital natives en voelen zich misschien niet thuis op een mooie, dynamische website vol twitterfeeds en sociale knoppen. Het enige wat ze willen is een goede indruk krijgen van het bejaardentehuis en gerustgesteld worden over het feit dat er goed voor hun ouders zal worden gezorgd. Hoe meer ervaring je krijgt, hoe harder je moet oppassen geen aannames te doen en dubbel te checken met je klant EN de doelgroep . Een ander bekend gevaar van ervaring is " de vloek van de kennis ". Hoewel het klinkt als de volgende Pirates of the Caribbean sequel, is de vloek van kennis een cognitieve bias die bijna iedereen met expertkennis in een specifieke sector overheerst. Het betekent dat beter geïnformeerde partijen het extreem moeilijk vinden om over problemen na te denken vanuit het perspectief van minder goed geïnformeerde partijen. Je kunt je afvragen waarom economen er niet altijd in slagen om de juiste beursvoorspellingen te doen. Iedereen die wat geld over heeft, kan aandelen kopen. Je hoeft geen expert te zijn of zelfs maar verstand te hebben van economie. En dat is de belangrijkste reden waarom economen er vaak naast zitten. Omdat ze expertkennis hebben, kunnen ze niet voorbij deze expertise kijken en kunnen ze zich moeilijk voorstellen hoe minder geïnformeerde mensen zullen reageren op veranderingen in de markt. Hetzelfde geldt voor IT. Daarom moeten we altijd een oogje in het zeil houden en blijven we in de huid kruipen van onze klanten. Inzicht krijgen in hun ervaring en standpunt is de sleutel tot het creëren van de perfecte oplossing voor de eindgebruiker. Dus hoe pakken we aannames aan ...? Ik zou graag zeggen "Eenvoudig" en je een prachtige oneliner geven ... maar zoals gewoonlijk ... is eenvoudig nooit het juiste antwoord. Om de drang om over te schakelen op de automatische piloot en de vloek van de kennis te laten werken, hebben we een methodologie ontwikkeld op basis van verschillende Agile-principes die ons dwingt om onze eindgebruiker te betrekken bij elke fase van het project, te beginnen wanneer onze klanten nadenken over een project, maar de oplossing nog niet hebben gedefinieerd. En eindigt... nou eigenlijk nooit. De eindgebruiker zal nieuwe inzichten opdoen door met uw oplossing te werken, wat kan leiden tot nieuwe verbeteringen. In de watervalmethode wordt aan het begin van een project een analyse gemaakt door een business analist. Soms wordt de gebruiker betrokken bij deze voorafgaande analyse, maar dit is niet altijd het geval. Dan maakt een conclaaf van ontwikkelaars iets in eenzaamheid en na de witte rook ... begint het gebruikersacceptatietesten (UAT) . Het moet pijnlijk voor ze zijn om zich na deze tests te realiseren dat het product dat ze zorgvuldig hebben gemaakt niet de oplossing is die de gebruikers ervan verwachtten. Het is te laat om ingrijpende veranderingen door te voeren zonder dat daar veel meer tijd en budget voor nodig is. Met een Agile projectmethodologie kom je een heel eind. Door elke 2 tot 3 weken testbare versies uit te brengen, kunnen gebruikers geleidelijk functionaliteit testen en hun feedback geven tijdens de ontwikkeling van het project. Deze aanpak houdt rekening met de inzichten van de gebruiker, die tijdens het project zijn opgedaan, en garandeert een betere match tussen de behoeften van de gebruiker en de oplossing die je voor hun behoeften creëert. Agile beoefenaars zijn voorstander van 'continuous deployment'; een praktijk waarbij nieuw ontwikkelde functies onmiddellijk worden uitgerold naar een productieomgeving in plaats van in batches om de 2 tot 3 weken. Dit stelt ons in staat om het systeem (en in essentie de aannames) in het wild te valideren, waardevolle feedback van echte gebruikers te krijgen en gerichte experimenten uit te voeren om te valideren welke aanpak het beste werkt. Door onze methodologie te combineren met constante betrokkenheid van gebruikers, elimineer je de ergste aanname in IT: we weten hoe de werknemers hun werk doen en wat ze nodig hebben ... het gevaar van ervaring! Elimineren we altijd aannames? Laat me het iets ingewikkelder maken: Nogmaals... stel je voor: je gaat al 10 jaar naar dezelfde supermarkt, het is vrij veilig om aan te nemen dat de cornflakes nog steeds in hetzelfde gangpad liggen, zelfs op hetzelfde schap als gisteren. Als je niet meer zou aannemen waar de cornflakes liggen... dan zou je enorm veel tijd verliezen door de hele winkel door te lopen. Niet één keer, maar steeds opnieuw. Hetzelfde geldt voor ons werk. Als we ons werk zouden doen zonder te vertrouwen op onze ervaring, zouden we geen inschattingen kunnen maken over budget en tijd. Elke schatting is gebaseerd op aannames. Hoe meer ervaring je hebt, hoe nauwkeuriger deze aannames worden. Maar leiden ze ook tot goede en betrouwbare schattingen? Niet noodzakelijk ... Terug naar mijn metafoor ... We nemen elke dag dezelfde weg naar het werk. Op basis van ervaring kan ik inschatten dat ik er 30 minuten over zal doen om naar mijn werk te rijden. Maar wat als ze files aankondigen op de radio en ik de aankondiging niet heb gehoord ... dan is mijn schatting niet juist. Bij ACA Group gebruiken we een aantal belangrijke werkwijzen bij het maken van schattingen. Ten eerste is het een teamsport. We maken nooit schattingen in ons eentje en hoewel schatten een serieuze zaak is, doen we het terwijl we een spelletje spelen: Planningspoker. Laat me je dit uitleggen; planning poker is gebaseerd op het principe dat we beter kunnen inschatten in een groep. Dus we lezen het verhaal (stuk functionaliteit) hardop voor, iedereen pakt een kaart (die een indicatie geeft van de complexiteit) en legt deze open op tafel. Als iedereen een kaart heeft gekozen, worden ze allemaal tegelijk omgedraaid. Als er verschillende getallen worden getoond, ontstaat er een discussie over het waarom en hoe. Veronderstellingen die de basis vormen voor iemands schatting komen naar boven en worden besproken en gevalideerd. Er volgt nog een schattingsronde en het proces gaat door tot er consensus is bereikt. Het eindresultaat: een betere schatting en een grondig begrip van de aannames die aan de schatting ten grondslag liggen. Deze expliciete aannames zijn er om gevalideerd te worden door onze belanghebbenden; een geweldig eerste hulpmiddel om ons begrip van de scope te valideren.Dus elimineren we altijd aannames? Nou, dat zou bijna onmogelijk zijn, maar door aannames expliciet te maken elimineren we een hoop verspilling. Wil je meer weten over deze Agile Estimation? Bekijk dan dit boek van Mike Cohn . Hé, dit is een tegenstrijdigheid... Hoe zit het dan met die aannames? Moeten we ze proberen te vermijden? Of moeten we erop vertrouwen? Als je ervan uitgaat dat je alles weet... zul je nooit meer verbazing ervaren. Zoals Aristoteles al zei: "Het was hun verwondering, verbazing, die de mensen ertoe bracht om te filosoferen". Welnu, een proces dat de gemaakte veronderstellingen valideert door middel van goed uitgevoerde experimenten en snelle feedback heeft bewezen geweldige resultaten op te leveren. Dus in essentie zal het goed beheren van je aannames prachtige dingen opleveren. Wees je er wel van bewust dat de vloek van kennis om de hoek loert, wachtend op een onbewaakt moment om het over te nemen. Geïnteresseerd in deelname aan ons team? Wil je een van onze teamleden ontmoeten? Geïnteresseerd om deel uit te maken van ons team? We zijn altijd op zoek naar nieuwe gemotiveerde professionals om het ACA-team te versterken! {% module_block module "widget_3ad3ade5-e860-4db4-8d00-d7df4f7343a4" %}{% module_attribute "buttons" is_json="true" %}{% raw %}[{"appearance":{"link_color":"light","primary_color":"primary","secondary_color":"primary","tertiary_color":"light","tertiary_icon_accent_color":"dark","tertiary_text_color":"dark","variant":"primary"},"content":{"arrow":"right","icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"tertiary_icon":{"alt":null,"height":null,"loading":"disabled","size_type":null,"src":"","width":null},"text":"View career opportunities"},"target":{"link":{"no_follow":false,"open_in_new_tab":false,"rel":"","sponsored":false,"url":{"content_id":229022099665,"href":"https://25145356.hs-sites-eu1.com/en/jobs","href_with_scheme":null,"type":"CONTENT"},"user_generated_content":false}},"type":"normal"}]{% endraw %}{% end_module_attribute %}{% module_attribute "child_css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "css" is_json="true" %}{% raw %}{}{% endraw %}{% end_module_attribute %}{% module_attribute "definition_id" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "field_types" is_json="true" %}{% raw %}{"buttons":"group","styles":"group"}{% endraw %}{% end_module_attribute %}{% module_attribute "isJsModule" is_json="true" %}{% raw %}true{% endraw %}{% end_module_attribute %}{% module_attribute "label" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "module_id" is_json="true" %}{% raw %}201493994716{% endraw %}{% end_module_attribute %}{% module_attribute "path" is_json="true" %}{% raw %}"@projects/aca-group-project/aca-group-app/components/modules/ButtonGroup"{% endraw %}{% end_module_attribute %}{% module_attribute "schema_version" is_json="true" %}{% raw %}2{% endraw %}{% end_module_attribute %}{% module_attribute "smart_objects" is_json="true" %}{% raw %}null{% endraw %}{% end_module_attribute %}{% module_attribute "smart_type" is_json="true" %}{% raw %}"NOT_SMART"{% endraw %}{% end_module_attribute %}{% module_attribute "tag" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "type" is_json="true" %}{% raw %}"module"{% endraw %}{% end_module_attribute %}{% module_attribute "wrap_field_tag" is_json="true" %}{% raw %}"div"{% endraw %}{% end_module_attribute %}{% end_module_block %}
Lees verder

ACA doet veel projecten. In het laatste kwartaal van 2017 deden we een vrij klein project voor een klant in de financiële sector. De deadline voor het project was eind november en onze klant werd eind september ongerust. We hadden er echter alle vertrouwen in dat we de klus op tijd konden klaren en besloten een experiment uit te proberen. We brachten het team samen in één kamer en begonnen met mob-programmering . Maffia wat? We hadden een artikel gelezen waarin het concept van mob programming werd uitgelegd. In het kort komt mob programming erop neer dat het hele team samen in één ruimte zit en aan één user story tegelijk werkt. Eén persoon is de 'bestuurder' en doet het coderen voor een bepaalde tijd. Als die tijd voorbij is, gaat het toetsenbord over naar een ander teamlid. We probeerden het experiment met de volgende opzet: Ons team was relatief klein en had slechts 4 teamleden. Omdat het project waaraan we werkten relatief klein was, konden we maar 4 mensen aannemen. De user stories die we behandelden waren slechts een deel van het project. Omdat dit een experiment was, wilden we niet dat het project - zo klein als het was - volledig zou worden overspoeld. Daarom kozen we één specifieke epic en implementeerden we die user stories in de mob. We werkten niet op dezelfde computer. We hadden elk een aparte laptop en checkten onze code in op een centraal versiebeheersysteem in plaats van het toetsenbord te verwisselen. Dit was niet echt een keuze die we maakten, gewoon iets dat gebeurde. We wisselden elke 20 minuten. Het artikel waarnaar we verwezen heeft het over 12, maar we vonden dat te kort en besloten om in plaats daarvan 20 minuten te nemen. Klaar, af, af! We brachten meer dan een week door in een vergaderruimte waar we om de beurt onze laptops konden aansluiten op één groot scherm. De eerste dag van het experiment ontwierpen we. Urenlang stonden we achter het whiteboard om te beslissen over de architectuur van de component die we gingen bouwen. Op dezelfde dag begon onze groep met de implementatie van het eerste verhaal. We gingen er echt vandoor! We vlogen door de user story en riepen naar onze klantproxy als sommige vereisten niet duidelijk waren. Tegen het einde van de dag waren we uitgeput. Ons experiment was nog maar net begonnen en het was al zo intens. De volgende dagen gingen we verder met het implementeren van de user stories. In minder dan een week hadden we werkende software die we aan onze klant konden laten zien. Hoewel het nog niet perfect was en niet alle vereisten dekte, was onze software al na 3 dagen in staat om een volledige, gelukkige path flow uit te voeren. Twee dagen later implementeerden we verbeteringen en uitzonderingsgevallen die via andere user stories waren besproken. Er was nog maar een week verstreken sinds onze klant zich zorgen begon te maken en we hadden al zoveel geïmplementeerd dat we hem konden laten zien. De laatste hand leggen Tegen het einde van het project moesten we alleen nog wat technische zaken regelen. Een daarvan was het agnostisch maken van onze nieuw gebouwde softwareomgeving. Als we deze user story hadden afgewerkt met pair programming, zou één paar alle technische details van de software kennen. Met pair programming hoefden we het niet aan de rest van het team te laten zien. Het team wist het al. Omdat we laptops gebruikten in plaats van toetsenborden, had iedereen de setup op zijn eigen machine gedaan. Iedereen kende de commando's en de configuratie. Het was kennis delen op zijn best! Andere technische aspecten waren het correct configureren van onze software. Dit bleek een saaie taak te zijn voor de meeste navigators. Op dit punt besloten we dat het maffia-experiment ver genoeg was gegaan. We hadden het gevoel dat het niet de bedoeling was om dit soort taken met 4 mensen tegelijk te doen. Tenminste, dat is onze mening. Vlak voordat de groep uiteenviel, planden we een evaluatiebijeenkomst. We waren enthousiast en wilden dit opnieuw doen, misschien zelfs op grotere schaal. Onze ervaring met mob-programmering Het resultaat van ons experiment was erg positief. We ervoeren kennisdeling op verschillende niveaus. Alle betrokkenen kenden de volledige functionaliteit van de applicatie en we kenden allemaal de details van de implementatie. We waren in staat om snel een nieuw teamlid te integreren wanneer dat nodig was, terwijl we toch op een constante snelheid bleven werken. We hadden al gezegd dat we erg enthousiast waren voor, tijdens en na het experiment. Dit had een positieve invloed op onze teamgeest. We waren allemaal meer betrokken bij het project. Het nadeel was dat we mob-programmeren als vermoeiender ervoeren. We voelden ons uitgeput na een dag samenzijn, zij het op een goede manier! Volgende stappen Andere collega's zagen ons in onze vergaderruimte programmeren op een groot scherm. Er ontstonden gesprekken over het experiment. Onze opwinding werkte aanstekelijk: mensen waren meteen geïnteresseerd. We begonnen te praten over meer experimenten. Misschien zouden we mob-programmering kunnen doen in verschillende teams op verschillende projecten. En zo begint het... Heb jij ooit al eens mob-programmering geprobeerd? Of sta je te popelen om het te proberen? Laten we tips of trucs uitwisselen! We horen graag van je !
Lees verderWant to dive deeper into this topic?
Get in touch with our experts today. They are happy to help!

Want to dive deeper into this topic?
Get in touch with our experts today. They are happy to help!

Want to dive deeper into this topic?
Get in touch with our experts today. They are happy to help!

Want to dive deeper into this topic?
Get in touch with our experts today. They are happy to help!


