Route:  
  1. Home

Zin en onzin van gebruik van data en statistiek


Eric Eggermont4 maart 2024Datamanagement 

Statistiek is een binnen bedrijven veel voorkomend middel om data om te zetten in informatie. Het is echter – zeker ook voor het werkveld kwaliteit - belangrijk om te onthouden dat data niet altijd de volledige waarheid vertellen en dat je statistiek altijd met de juiste kennis moet toepassen. In dit artikel gaan we in op de gevolgen van het foutief gebruiken van data en hoe organisaties zich hiertegen kunnen wapenen.

Er zijn talloze voorbeelden uit de geschiedenis waar foute beslissingen werden genomen op basis van foute data. Een van de bekendste voorbeelden is de ramp met de Space Shuttle Challenger in 1986. De Space Shuttle Challenger explodeerde kort na de lancering, waarbij alle zeven bemanningsleden omkwamen.

Uit onderzoek bleek dat de oorzaak van de ramp lag bij een defect in een van de O-ringen van de raket. Deze O-ringen waren niet bestand tegen de lage temperaturen op de dag van de lancering. De fabrikant van de O-ringen had geadviseerd om de lancering toch door te laten gaan op basis van foutieve data. Uit tests was namelijk gebleken dat de O-ringen bestand waren tegen ‘lage temperaturen’. Wat de fabrikant echter niet wist, was dat de tests waren uitgevoerd bij hogere temperaturen dan op de dag van de lancering.

Een ander voorbeeld is de ramp met de kerncentrale van Tsjernobyl in 1986. Bij deze ramp kwamen tientallen mensen om het leven en raakten duizenden mensen besmet met radioactieve straling. De oorzaak van de ramp lag bij een experiment dat werd uitgevoerd om de veiligheidssystemen van de kerncentrale te testen. Het experiment werd echter uitgevoerd op basis van foutieve data. De wetenschappers die het experiment uitvoerden, hadden geen rekening gehouden met de mogelijkheid dat er een storing zou optreden in het systeem. Toen er inderdaad een storing optrad, was het te laat om de kerncentrale nog te redden.

Een derde voorbeeld is de financiële crisis van 2008. Banken hadden hun risico’s onderschat en waren te afhankelijk geworden van modellen die waren gebaseerd op historische data. Toen de huizenmarkt instortte, bleken deze modellen niet langer te kloppen en kwamen banken in de problemen.

Een laatste voorbeeld. Het lijkt zo simpel om door het nemen van een steekproef inzicht te krijgen in een grote dataset. Echter, als deze methode niet correct wordt toegepast, kan dit leiden tot foutieve data. Bijvoorbeeld als je blindelings uitgaat van de juistheid van de steekproef.

Stel je voor dat je een onderzoek doet naar de gemiddelde lengte van volwassenen in Nederland. Je besluit een steekproef te nemen bij een basketbalclub. Hoewel dit op het eerste gezicht een efficiënte manier lijkt om snel data te verzamelen, introduceert het een grote fout: basketbalspelers zijn over het algemeen langer dan de gemiddelde bevolking. Door deze steekproef blindelings te vertrouwen, zou je kunnen concluderen dat de gemiddelde lengte van een volwassene in Nederland veel hoger is dan in werkelijkheid het geval is.

Dit voorbeeld illustreert het belang van een zorgvuldige steekproefselectie en het kritisch beoordelen van de validiteit van je data. Het niet toetsen van de validiteit van je data kan leiden tot misleidende resultaten en uiteindelijk tot onjuiste conclusies. 

 

In mijn praktijk heb ik regelmatig gemerkt dat er steekproeven werden getrokken uit systemen. Medewerkers maken regelmatig fouten bij het vullen daarvan, sterker nog, soms worden ze door falende systemen gedwongen om via ‘workarounds’ foute data in te voeren.

Bijvoorbeeld in de situatie waar de meldingsdatum van een klantvraag nooit een datum kon krijgen die lag voor de systeemdatum. Dus de aanvraag kwam binnen op het hoofdkantoor op dag 1, werd naar een tussenlocatie gestuurd op dag 2 en kwam op de definitieve plek aan op dag 3. Daar werd de aanvraag (pas) ingeboekt wat dus niet een datum in het verleden kon zijn. Daarmee duurde de gemeten doorlooptijd (datum aanvraag tot datum afhandeling) volgens een door mij uitgevoerde steekproef altijd 3 dagen korter dan in werkelijkheid het geval was.

Dit had als effect dat de prestatie-indicator van 90% binnen 20 dagen afgehandeld, die volgens de officiële meting gemakkelijk werd gehaald, opeens daalde naar 60% als de juiste datums werden gehanteerd. Want er is nog een andere invloedsfactor bij doorlooptijden, namelijk dat medewerkers geneigd zijn een zaak af te handelen nèt voor de kritieke datum. De manager was 'not amused' toen ik haar dit vertelde en ze heeft er toen voor gekozen om de registratie voortaan in een ander systeem te doen.

Voorbeelden Statistiek

Ook de historie kent veel fouten die zijn veroorzaakt door een foute toepassing van statistiek. We kennen natuurlijk allen de zaak Lucia de B. waarin zou zijn berekend dat de kans dat er sprake was van toeval bij een aantal sterfgevallen 1 op 342.000.000 was. Hoewel deze berekening formeel niet werd meegenomen door het Gerechtshof bleef deze gebruikmaken van statistische gegevens en argumentatie: het werd evident geacht dat zoveel incidenten tijdens Lucia's diensten geen toeval kon zijn. 

Maar het gaat vaker mis. Een aantal statistische missers heeft zelfs een eigen naam gekregen.

De Simpson-paradox

Hierbij is sprake van een fenomeen waarbij een trend of relatie die aanwezig is in verschillende groepen verdwijnt of zelfs omkeert wanneer de groepen worden gecombineerd. Dit kan leiden tot verkeerde conclusies als de groepen niet goed worden geanalyseerd. Een bekend voorbeeld hiervan is de zaak van de Universiteit van Californië, Berkeley, waarbij het leek alsof vrouwen minder kans hadden om toegelaten te worden dan mannen. Echter, toen de gegevens werden opgesplitst per faculteit, bleek dat vrouwen in elke faculteit een hogere kans hadden om toegelaten te worden dan mannen.

De Texas Sharpshooter drogreden

Dit is een denkfout waarbij een persoon achteraf een patroon ziet in gegevens die eigenlijk willekeurig zijn. Dit kan leiden tot verkeerde conclusies en onjuiste voorspellingen. De naam komt van een schutter die op een schuur schoot en vervolgens een cirkel om de kogelgaten tekende om te laten zien hoe goed hij was.

De Ecologische fout

Deze benaming duidt op een denkfout waarbij conclusies worden getrokken over individuen op basis van gegevens die zijn verzameld op groepsniveau. Dit kan leiden tot onjuiste generalisaties en verkeerde conclusies. Een bekend voorbeeld hiervan is de conclusie dat arme mensen korter leven dan rijke mensen, terwijl dit niet noodzakelijkerwijs waar is voor individuen.

De Correlatie-Causatie fout

Dit is een bekende denkfout die ook wel bekend staat als de cum hoc ergo propter hoc-fout, een misvatting waarbij wordt aangenomen dat er een oorzakelijk verband bestaat tussen twee variabelen alleen omdat ze gecorreleerd zijn. Dit kan leiden tot verkeerde conclusies en onjuiste voorspellingen. Een bekend voorbeeld hiervan is de correlatie tussen ijsconsumptie en verdrinkingsdoden. Hoewel deze twee variabelen gecorreleerd zijn, is er geen oorzakelijk verband tussen de twee. 

De rol van het werkveld Kwaliteit

Gelukkig zijn er veel meer voorbeelden van het juist gebruiken van data en statistiek. De ECB gebruikt ze om monetaire beslissingen te nemen1, UPS-chauffeurs kunnen beter zo min mogelijk bochten naar links maken2 en we gebruiken statistiek zelfs om mensenlevens te redden3.

De voorbeelden van waar het mis is gegaan laten dus vooral zien hoe belangrijk het is om data en statistiek op de juiste manier te interpreteren en te gebruiken. En daar kan de hedendaagse kwaliteitskundige een belangrijke rol pakken.

Het werkveld Kwaliteit heeft een steeds breder wordende rol in organisaties. Kwaliteit gaat primair over de kwaliteit van de producten en diensten die we leveren aan onze klanten, maar wordt steeds breder geformuleerd. De kwaliteitsmanager is kennismanager, organisatieadviseur en veranderaar en speelt een belangrijke rol bij het stimuleren van continu verbeteren van processen om de efficiëntie en effectiviteit van de productie en dienstverlening te verbeteren5.

Gegeven een steeds complexer wordende maatschappij wordt daarbij gebruik van data en statistiek steeds belangrijker. Tegelijkertijd beschikken organisaties over steeds meer (big) data die op een kundige manier moeten worden ontsloten. 

Wij pleiten niet voor een kwaliteitsmanager die tevens data-analist is – hoewel dat uiteraard wel een voordeel is – maar wel voor één die zich bewust is van de groeiende behoefte aan gebruik van data.

Wij pleiten hier niet voor een kwaliteitsmanager die tevens data-analist is – hoewel dat uiteraard wel een voordeel is – maar wel voor één die zich bewust is van de groeiende behoefte aan gebruik van data op zo ongeveer alle taken waarmee hij of zij in aanraking komt. En één die dan begrijpt dat er vele statistische mogelijkheden zijn om die data om te zetten in informatie met behulp waarvan adviezen kunnen worden gegeven en besluiten genomen. Of het nu gaat om het duiden van trends, beperken van risico’s, benchmarking of verbeteren van de dienstverlening, gebruik van data en statistiek zijn essentieel.

Tegelijkertijd moet de kwaliteitsmanager zich bewust zijn van de risico’s van het foutief gebruiken van data en dient hij of zij hierop te anticiperen. Los van de eerder genoemde missers zijn redeneerfouten snel gemaakt. Zelfs ‘simpele’ statistiek zoals het bepalen van een gemiddelde wordt regelmatig fout gebruikt. Denk aan een gemiddelde klanttevredenheid van 100 klanten waarbij de helft een 1 scoort en de andere helft een 10. Als je dan rapporteert 'de gemiddelde klant scoort een tevredenheid van 5,5', is dat technisch correct, maar het feit dat de helft van de klanten extreem ontevreden is wordt verdoezeld.

 

In de gezondheidszorg wordt statistiek op verschillende manieren gebruikt. Een voorbeeld is het gebruik van statistische analyse in klinische proeven4 om de veiligheid en werkzaamheid van nieuwe geneesmiddelen, medische apparaten en behandelingen te bepalen.
In een klinische proef worden statistische methoden gebruikt om het onderzoek te ontwerpen, de steekproefgrootte te selecteren en de gegevens te analyseren om te bepalen of de behandeling een significant effect heeft op de resultaten van de patiënt. De statistische analyse omvat het vergelijken van de behandelgroep met de controlegroep en het bepalen van de statistische significantie van eventuele waargenomen verschillen tussen de twee groepen.
Dit helpt onderzoekers om de effectiviteit en veiligheid van de behandeling te bepalen en om op basis van bewijs beslissingen te nemen over het gebruik ervan in de klinische praktijk. Verder heeft het gebruik van statistische methoden in klinische proeven geleid tot de ontdekking van nieuwe behandelingen en medische apparaten die de resultaten van patiënten en de kwaliteit van leven hebben verbeterd.

In de luchtvaartindustrie worden statistieken gebruikt om de veiligheid van vluchten te verbeteren. Door het analyseren van vluchtgegevens kunnen potentiële problemen worden geïdentificeerd en opgelost voordat ze tot ongelukken leiden.

Ook in de autosector heeft statistiek geleid tot veiligere voertuigen. Door het analyseren van ongevalsgegevens kunnen autofabrikanten veiligheidsfuncties verbeteren en nieuwe functies ontwikkelen.

Kortom, statistiek is een krachtig hulpmiddel dat levens redt door ons in staat te stellen patronen te herkennen, voorspellingen te doen en op basis daarvan actie te ondernemen.

De kwaliteitsmanager moet dus continu alert zijn wanneer gebruik wordt gemaakt van cijfermateriaal. Een van de manieren waarop dit kan is door expertise in te roepen van data-analisten6. Deze zijn expert op het gebied van data-analyse en kunnen organisaties helpen om data op de juiste manier te ontsluiten, te interpreteren en te gebruiken.

Daarnaast is het belangrijk om toe te zien op het juiste gebruik van de statistische tools en technieken. In het boek 'De Kwaliteit van Data' zijn er talloze beschreven, maar niet alle tools en technieken zijn geschikt voor alle soorten data en het gebruik van tools en technieken is tevens afhankelijk van het soort vraag dat je ermee wilt beantwoorden. Ook hier dient de kwaliteitsmanager data-analisten in te schakelen die niet alleen de tools zelf kennen, maar ook hun sterke en zwakke kanten en vooral ook hun valkuilen.

Tenslotte is het belangrijk om ook te blijven investeren in de juiste opleidingen en trainingen voor medewerkers. Als zij beter begrijpen waartoe bepaalde gegevens dienen, zullen zij beter toegerust zijn om die gegevens ook op de juiste manier en in de juiste vorm weer te geven.  Medewerkers moeten worden opgeleid om data op de juiste manier te interpreteren en te gebruiken. Dit kan bijvoorbeeld door het aanbieden van cursussen en trainingen op het gebied van data-analyse.

Centrummaten
Het zou zo maar kunnen dat, wanneer je alle verschillende lichaamsdelen van deze onfortuinlijke persoon gaat meten, de gemiddelde temperatuur 37˚ C is. En misschien is de mediaan (de middelste waarneming) dat ook wel. En ja, ook de modus (het meest voorkomende meetresultaat) zal ook wel op 37˚ C uitkomen.

Toch geeft geen van de centrummaten een goede beschrijving van de toestand.
Voor de gealarmeerde lezer: AI heeft bij het genereren van dit plaatje geen gebruik gemaakt van echte mensen.

 

 

Samengevat

Het gebruik van data is een belangrijk onderdeel van het nemen van beslissingen binnen organisaties. Maar het is belangrijk om te onthouden dat data niet altijd de volledige waarheid vertellen. Kwaliteitskundigen moeten zich bewust zijn van de risico’s van het foutief gebruiken van data en moeten hierop anticiperen door expertise in te roepen van data-analisten en de juiste tools en technieken te gebruiken.

 

Dit artikel is gebaseerd op de hoofdstukken 6 en 7 van het boek 'De Kwaliteit van Data' van de sectie Data & Kwaliteit van het NNK. 
In 2018 richtte Arend Oosterhoorn de sectie Data en Kwaliteit van het NNK (Nederlands Netwerk voor Kwaliteitsmanagement) op. Onze missie is het gebruik van data en de bijdrage daarvan aan het leveren van kwaliteit in een snel veranderende omgeving voortdurend aanjagen en verbeteren. Een van de doelen was het publiceren over onze bevindingen. In de loop van 2020 ontstond het idee het verzamelde materiaal in een boek te verwerken. Arend heeft hieraan een belangrijke bijdrage geleverd. Na zijn overlijden begin 2022 heeft Kees de Vaal samen met de andere leden van de sectie het boek voltooid.
Het boek De Kwaliteit van Data bevat vijf delen: Het veranderende ecosysteem, Data verzamelen en beheren, Data analyseren met statistische methoden, Data analyseren met kunstmatige intelligentie en Data presenteren en duiden.
Het boek is verkrijgbaar via de webwinkel van uitgeverij Boekscout, bol.com, managementboek.nl en de boekhandel (ISBN: 9789464683721).
In een reeks artikelen bespreken leden van de NNK-sectie Data en Kwaliteit onderwerpen uit het boek. 
Lees ook: De reis naar een datagedreven wereld, en: De datawereld stelt aanvullende eisen aan de bedrijfsvoeringDe jager-dataverzamelaar en Is er sprake van digitale soevereiniteit?
Beluister ook de NNK-podcast waarin hoofdstukken uit het boek 'De kwaliteit van data' worden besproken.
Noten

[1] Waarom zijn statistieken belangrijk? (europa.eu)

[2] Big Data: definitie, voordelen & voorbeelden (4x) | Peter Joosten

[3] Statistiek redt mensenlevens – Blog (vvsor.nl)

[4] https://toolbox.eupati.eu/resources/the-role-of-statistics-in-clinical-trials/

[5] https://www.bernadettevanpampus.nl/publicaties/de-kwaliteitsmanager-als-veranderaar

[6] Denk hierbij ook aan wiskundigen, statistici en (Master) Black Belts

 

Auteur

Eric Eggermont is gecertificeerd Master Black Belt Lean Six Sigma en co-founder van Lean Nederland. Het is zijn passie om bedrijven te ondersteunen bij het continu verbeteren van de dienstverlening.

 

 

 

 

Dit artikel verscheen in Kwaliteit en bedrijf, januari-februari 2024

 

 

Deel dit via