De context rond kwaliteitsmanagement is in beweging. Vooral door de sterke toename van ICT-toepassingen, met name de enorme hoeveelheid data die door deze systemen beschikbaar komen, ontstaan mogelijkheden om een sterkere invulling te geven aan de opdracht die kwaliteitsmanagement in zich heeft. Het gebruik van data is natuurlijk niet nieuw, Deming appelleerde daar al aan met de woorden: 'In God we trust, anyone else bring data', en: 'Without data you are just another person with an opinion'. De huidige tsunami van data die beschikbaar komt, zorgt ervoor dat we steeds sterkere invulling kunnen geven aan deze opdracht.Als we de uitdaging tenminste aannemen.
Het vakgebied van kwaliteitsmanagent heeft de afgelopen jaren een interessante ontwikkeling doorgemaakt. Deden de Egyptenaren bij de bouw van de piramides al aan kwaliteitsmanagement en waren de gildes een voorbeeld van het ontwikkelen van kwaliteitsbesef en kwaliteitsborging, de grote hausse kwam vanafde jaren 80 in de vorige eeuw. De kwaliteit van Japanse producten bracht de boodschap van Deming over de bühne. Zijn statistische denkwijze had de Japanse industrie veel gebracht en de westerse wereld nam dat mondjesmaat over.
Daarna lijkt het gebruik van data wel uit het gezichtsveld van de kwaliteitsfunctionarissen verdwenen te zijn. De komst van ISO9001 en de daaruit volgende activiteiten om toch vooral een kwaliteitsmanagementsysteem (KMS) op te zetten, verlegden de aandacht van proces en data naar systeem. Paragraaf 4.20 uit de ISO9001:1994 versie leek een laatste redmiddel om het gebruik van data te stimuleren, maar in de praktijk werd er in de audits niet veel aandacht aan besteed en verdween het uit het zicht.
De daaropvolgende ontwikkeling van kwaliteitsmanagent naar Maatschappelijk Verantwoord Ondernemen en risicomanagement (en verandermanagement en … ) dreef de aandacht nog verder weg van proces en data.
Nu komen data weer in de hoofdrol en wel in bijzondere mate. Ze leggen nieuwe uitdagingen voor aan de kwaliteitsgemeenschap.
De basis van datagebruik voor kwaliteitsmanagement ligt in de analyse van de processen. Het doel is om middels de data te begrijpen hoe het proces functioneert, zodat de belangrijke eigenschappen kunnen worden beheerst of verbeterd.
De eerste organisatie op het gebied van kwaliteit, de vermaarde Stichting Kwaliteits Dienst voor de Industrie (KDI), is opgericht door een statisticus, Jan van Ettinger. Ook als je de eerste nummers van vakblad Sigma las, dan zie je dat er vooral statistiek werd bedreven om iets zinvols te kunnen zeggen over de stand van de kwaliteit van de producten en processen. Vooral nog over producten, want de discussie over kwaliteit van diensten en de daaruit volgende gevolgen kwam pas veel later. Lees je nu Quality Progress, het blad van de American Society for Quality, dan zie je daarin nog steeds de rubrieken met statistiek en meetmiddelen.
Het toepassen van deze methoden, zoals correlatie- en regressieanalyse, statistische procesbeheersing, steekproefsystemen, tijdreeksanalyse en dergelijke, zijn binnen de kwaliteitsgemeenschap nog steeds geen gemeengoed. Ze worden nog wel erkend als belangrijke vaardigheden voor kwaliteitskundigen. Ze staan niet voor niets in de Body of Knowledge van de EOQ voor persoonscertificatie van kwaliteitsmanagers, een terrein waarop ook het NNK actief is. De drempel voor het uitvoeren van deze analyses is ook steeds lager komen te liggen. Excel kan de meest standaardzaken prima aan en door de ontwikkeling van Minitab binnen de Lean Six Sigma wereld zijn minder standaard situaties ook niet meer moeilijk te analyseren. Blijkbaar zit de bottleneck ergens anders.
Het gebruik van data om steeds meer inzicht te krijgen en daarmee de kwaliteit van de resultaten te doorgronden, beheersen, verbeteren en voorspellen wordt steeds groter. Dat levert een aardig beeld op van de mogelijkheden in de praktijk:
Er zijn al machines die zelfstandig hun onderhoud plannen. En wat te denken van de ontwikkelingen binnen bijvoorbeeld de auto-industrie. Over enige jaren hoef je niet meer naar de garage, op afstand wordt de status van je auto uitgelezen en komen ze ter plekke het onderhoud uitvoeren. Mocht er tussentijds iets mis zijn met de auto, dan meldt deze zichzelf bij de garage.
Dat de resultaten van de analyse moeten worden geduid is vanzelfsprekend. De analyse van data levert alleen maar grafieken, tabellen, p-waarden en andere statistische grootheden op. Maar wat zegt dat dan over wat er in het proces plaatsvindt? Daarvoor is kennis over het proces nodig.
De komst van prestatie-indicatoren, mede door de Balanced Score Card van Kaplan en Norton, is nu uitgegroeid tot een ware kunst. De mooiste scoreborden worden gemaakt met verschillende software. Meest laagdrempelig daarbij is Excel, dat heeft iedereen wel op zijn bureaublad staan. Er zijn honderden Youtube-instructiefilms te vinden waar wordt uitgelegd hoe je mooie grafische weergaven kunt maken (kijk bijvoorbeeld naar Leila Garani of PK Expert). Vaak helemaal niet moeilijk, je moet het alleen even weten. De cockpit van de organisatie kan op deze wijze zeer aantrekkelijk worden vormgegeven en daarmee wordt de attentiewaarde ook verhoogd.
De vraag is of deze dashboards voor kwaliteitsmanagement nu de heilige graal zijn. Als je de kwaliteit van product of dienst als uitkomst van een proces wilt begrijpen om te verbeteren, dan moet je de dynamiek van het voortbrengende proces kunnen doorgronden. Daarvoor is het niet voldoende om naar de standaard dashboard te kijken.
De dynamiek van de processen wordt weergegeven in de variatie, die in de data zijn opgenomen. Dashboard werken veelal met gemiddelden of percentages en geven deze dynamiek dus niet weer. Terug naar de eerdergenoemde analyses dus om te achterhalen wat nu de uiteindelijke kwaliteit van de uitkomst van het proces veroorzaakt.
Veel kwaliteitsafdelingen verzamelen nu nog veel data op de traditionele manier. Data worden verwerkt op invulbladen en opgeslagen in Excel-bestanden. De informatie die in deze bestanden zijn vervat wordt niet geoogst. En dit zijn nog maar de enkelvoudige data, de small data. Wat als we ons bezig gaan houden met de big data?
De beschikbaarheid van de immense hoeveelheid data maakt ook dat de traditionele statistische software, die uitgaat van een mooi gestructureerde dataset, niet meer toereikend is. Software als Qlickview, Tableau, Power BI en dergelijke maakt het allemaal al wat meer toegankelijk omdat deze software de verbinding tussen de vele database kan regelen. Maar is dit niet een stapje te ver voor de kwaliteitskundige?
Er wordt al lang gezegd dat kwaliteitsmanagement zich meer moet richten op verandermanagement, innovatiemanagement of risicomanagement. Maar als je de ontwikkelingen met data zo ziet, dan zou kwaliteitsmanagement veel dichter tegen IT aan moeten gaan zitten. Daar zit de gesprekspartner om samen meerwaarde te halen uit de enorme berg data die ter beschikking staan om informatie te genereren en daarmee de kwaliteit te verbeteren.
Door de beschikbaarheid van de software, de enorme bergen gegevens die overal worden opgeslagen en de tand des tijds, staan de sluizen voor wat betreft de dashboards ook wel open. Vanuit kwaliteitskundig oogpunt een gelukkige situatie met een groot vraagteken, want wat op de dashboards zichtbaar is, gaat over de afgelopen prestatie van de processen (kwaliteit in voorbije tijden), de zogenaamde lagging indicators. Ze geven geen of beperkt inzicht in de achterliggende dynamiek van het proces en wijzen ook niet naar de oorzaken.
Om echt meerwaarde te halen uit het systeem van KPI’s zou je dus twee dingen moeten doen:
Er zijn initiatieven die beide in een programma hebben gevat, waarbij ze gebruik maken van reeds ontwikkelde methoden van werken. Ik noem hier Metric of Urgency (MoU)en The 4 Disciplines of Execution (4DX). De werkwijze van MoU is geïnspireerd door de Lean Six Sigma filosofie en legt de link tussen de strategische KPI’s (lagging) en de dynamiek in het proces door zeven stappen te zetten:
4 Disciplines of Execution (4DX) is beschreven door onder andere Sean Covey (auteur van onder andere 'De zeven eigenschappen van effectief leiderschap') en beschrijft een methode van werken die meer gebaseerd is op de Lean-filosofie in combinatie met wat we tegenwoordig scrum of agile werken noemen.
D1: Focus on the wildly important (kies één uitermate zeer belangrijk doel, principe van focus): waarom is dat zo belangrijk, welk belangrijke resultaat ga je niet halen als dit doel niet wordt gehaald? Stel daarvoor een startpunt, eindpunt en deadline voor op dat je het bereikt wilt hebben.
D2: Act on the lead measures (principe van invloed): hou niet alleen de resultaten in de gaten (lagging indicators) maar zoek naar de activiteiten die dat veroorzaken en meet die. Maak wijzigingen van het proces zichtbaar in de lead measure.
D4: Keep a compelling scoreboard (principe van betrokkenheid): het simpele gegeven dat een wedstrijd niet veel interesse oplevert als we de score niet bijhouden. Mensen raken meer betrokken als ze de resultaten van hun inspanning zichtbaar hebben.
D5: Create a cadance of accountability (principe van aanspreekbaarheid): een combiniatie van een scoreboard en de scrum-activiteiten waarbij op zeer regelmatige (dagelijks, wekelijks) het team bespreekt welke activiteiten ze gaan ondernemen om de leading indicator te verbeteren. Daarbij spreken ze elkaar aan op de resultaten van hun uitgevoerde activiteiten.
Wat is nu de link naar kwaliteitsmanagement? We spreken over de kwaliteit van de aansturing van de organisatie en de waardevolle inzet van de medewerkers. Veel kwaliteitskundigen hoor ik zeggen dat ze graag werken in het veld van strategisch kwaliteitsmanagement. Wel, hier is de opdracht die daaraan verbonden is. Want de beschikbaarheid van data op strategisch niveau, zonder koppeling aan motivatie van medewerkers om de goede dingen te doen, en daarbij het gevoel te hebben dat ze een zinvolle en zichtbare bijdrage leveren aan het succes van hun organisatie en voor hun klanten, is kwalitatief gezien geen goed aansturingsproces.
Waar opgeslagen data gebruikt worden, komt vaak naar voren dat de data niet kloppen of niet volledig zijn. De vraag is dan wie de data heeft ingevoerd (of niet)? Gaandeweg zullen de data beter worden als ze ook echt gebruikt gaan worden. Ik zou daar niet op wachten, maar met de nodige voorzichtigheid toch met de data aan de slag gaan.
Bedenk dat er twee momenten zijn in het leven van data waar het echt om draait: het moment dat ze verzameld worden, want dan bevatten ze de benodigde informatie (of niet), en het moment dat ze gebruikt worden, eventueel na analyse, om iets te poneren. Met dat in het achterhoofd moeten we altijd naar de kwaliteit van data kijken. Dat is altijd nog beter dan weer terugvallen op onderbuikgevoel.
Het uitgebreide gebruik van dashboards vraagt ook om een goede weergave van de analyseresultaten en dat is een uitdaging op zich. Een goede visualisatie is nog wel een kunst. De standaard grafieken van Excel zijn natuurlijk oké voor de standaardoplossingen, maar als je verder gaat met analyseren en je wilt de resultaten indrukwekkend presenteren, dan heb je een volgend niveau aan vaardigheden nodig.
Hoe komen we tot inzet van de mogelijkheden? Begrippen als 'de lerende organisatie' zijn al lang gemeengoed. Daar zie je nu 'de intelligente organisatie' bij komen. Voor algemeen spraakgebruik en voor idee-ontwikkeling is dat wel goed. We weten zo ongeveer wel wat daarmee bedoeld wordt.
Maar organisaties leren niet en zijn niet intelligent. Mensen leren en mensen zijn intelligent. Dat betekent dat de combinatie van data en lerende mensen tot mooie dingen kan leiden. Toch blijkt dat als het gaat om het analyseren van data om tot betere inzichten te komen er nogal wat drempels zijn.
Wat maakt nu dat het niet algemeen gebruik is dat binnen kwaliteitsmanagement data breed worden gebruikt om tot deze inzichten te komen? Er zijn drie dingen nodig om op de goede wijze het leerproces via data te laten verlopen, met een mooie opbrengst:
Deze drie vaardigheden samen lossen mogelijk de eerdergenoemde bottleneck op in de uitvoering van doorgronden van het proces middels de verzamelde data.
Lees ook deel 2 van het artikel 'Data en de nieuwe uitdaging voor kwaliteitsmanagement'. Hierin kijkt Arend Oosterhoorn naar andere aspecten van data, ontwikkelingen in datagebruik, datastorytelling, quality 4.0 en ethische vraagstukken over de kwaliteit van de samenleving.
Arend Oosterhoorn is eigenaar van Oosterhoorn Advies. Hij begeleidt vanuit zijn eigen adviespraktijk organisaties die op zoek zijn naar verbetermogelijkheden.
Dit artikel verscheen eerder in Sigma Magazine nr. 3, september 2018.