

Hoe stuur je op output als prestaties over shifts niet vergelijkbaar zijn?
Hoe stuur je op output als prestaties over shifts niet vergelijkbaar zijn?
Hoe stuur je op output als prestaties over shifts niet vergelijkbaar zijn?
“De nachtploeg draait altijd beter.”
“Ja, maar die krijgen ook de makkelijke runs.”
“Wij hebben juist de meeste omstellingen.”
In veel fabrieken gaat het gesprek over output al jaren op dezelfde manier. Niet omdat mensen niet willen verbeteren, maar omdat de vergelijking tussen shifts fundamenteel scheef is. En als je op basis van scheve vergelijkingen gaat sturen, krijg je voorspelbare effecten: discussies, defensief gedrag en verbeteracties die vooral energie kosten.
De pijn zit zelden in een gebrek aan data. De pijn zit in iets anders: je probeert prestaties te sturen zonder dat je prestaties eerlijk meetbaar en verklaarbaar maakt.
De vraag is dus niet: “Hoe krijg ik meer dashboards?”
De vraag is: “Hoe maak ik output zó vergelijkbaar dat een gesprek over performance automatisch een gesprek over actie wordt?”
“De nachtploeg draait altijd beter.”
“Ja, maar die krijgen ook de makkelijke runs.”
“Wij hebben juist de meeste omstellingen.”
In veel fabrieken gaat het gesprek over output al jaren op dezelfde manier. Niet omdat mensen niet willen verbeteren, maar omdat de vergelijking tussen shifts fundamenteel scheef is. En als je op basis van scheve vergelijkingen gaat sturen, krijg je voorspelbare effecten: discussies, defensief gedrag en verbeteracties die vooral energie kosten.
De pijn zit zelden in een gebrek aan data. De pijn zit in iets anders: je probeert prestaties te sturen zonder dat je prestaties eerlijk meetbaar en verklaarbaar maakt.
De vraag is dus niet: “Hoe krijg ik meer dashboards?”
De vraag is: “Hoe maak ik output zó vergelijkbaar dat een gesprek over performance automatisch een gesprek over actie wordt?”
De drie onderliggende patronen
Hoewel elke productieomgeving zijn eigen dynamiek heeft, zien we in de praktijk drie patronen terugkomen wanneer shiftprestaties niet vergelijkbaar zijn.
1. Output wordt gemeten zonder context
Veel organisaties vergelijken simpelweg “stuks per shift”. Dat lijkt logisch, maar het negeert de context die output bepaalt:
productmix (snelle vs complexe varianten)
omstel- en opstartverlies
geplande stops, schoonmaak, meetings
bezetting en ervaringsniveau
Als je die context niet meeneemt, stuur je op schijnzekerheid. De ene shift wordt structureel “beter” gevonden, terwijl ze in werkelijkheid een andere set randvoorwaarden hebben. En dan wordt output geen stuurinstrument, maar een bron van frictie.
2. Er is geen eenduidige definitie van “prestatie”
In theorie werken shifts met dezelfde KPI’s. In de praktijk betekent “output” vaak iets anders per team, systeem of rapport:
bruto output vs good output (zonder afkeur)
wel/niet inclusief herwerk
output per shiftduur vs per geplande productietijd
“downtime” gedefinieerd op machine, lijn of operator-niveau
Zodra definities verschillen, ontstaat de bekende reflex: “welke cijfers kloppen?” En op het moment dat je organisatie nog discussieert over de meetlat, kun je niet sturen op verbetering.
3. De vergelijking zegt wát, maar niet waarom
Zelfs als je output cijfermatig vergelijkbaar lijkt, ontbreekt vaak de verklaring. Je ziet een verschil, maar je ziet niet:
waar tijd verloren ging (stilstand, microstops, snelheid)
welke oorzaken dominant waren
of het beïnvloedbaar was binnen de shift
Dan krijg je besluiten op basis van aannames. Verbeterinitiatieven starten wel, maar missen focus. En als er geen duidelijke oorzaak–gevolgrelatie is, komen dezelfde issues terug in een andere vorm.
Hoewel elke productieomgeving zijn eigen dynamiek heeft, zien we in de praktijk drie patronen terugkomen wanneer shiftprestaties niet vergelijkbaar zijn.
1. Output wordt gemeten zonder context
Veel organisaties vergelijken simpelweg “stuks per shift”. Dat lijkt logisch, maar het negeert de context die output bepaalt:
productmix (snelle vs complexe varianten)
omstel- en opstartverlies
geplande stops, schoonmaak, meetings
bezetting en ervaringsniveau
Als je die context niet meeneemt, stuur je op schijnzekerheid. De ene shift wordt structureel “beter” gevonden, terwijl ze in werkelijkheid een andere set randvoorwaarden hebben. En dan wordt output geen stuurinstrument, maar een bron van frictie.
2. Er is geen eenduidige definitie van “prestatie”
In theorie werken shifts met dezelfde KPI’s. In de praktijk betekent “output” vaak iets anders per team, systeem of rapport:
bruto output vs good output (zonder afkeur)
wel/niet inclusief herwerk
output per shiftduur vs per geplande productietijd
“downtime” gedefinieerd op machine, lijn of operator-niveau
Zodra definities verschillen, ontstaat de bekende reflex: “welke cijfers kloppen?” En op het moment dat je organisatie nog discussieert over de meetlat, kun je niet sturen op verbetering.
3. De vergelijking zegt wát, maar niet waarom
Zelfs als je output cijfermatig vergelijkbaar lijkt, ontbreekt vaak de verklaring. Je ziet een verschil, maar je ziet niet:
waar tijd verloren ging (stilstand, microstops, snelheid)
welke oorzaken dominant waren
of het beïnvloedbaar was binnen de shift
Dan krijg je besluiten op basis van aannames. Verbeterinitiatieven starten wel, maar missen focus. En als er geen duidelijke oorzaak–gevolgrelatie is, komen dezelfde issues terug in een andere vorm.
Hoe maak je shiftprestaties wél vergelijkbaar?
Organisaties die hier doorheen breken, kiezen zelden voor “meer rapportage”. Ze kiezen voor een andere manier van sturen, met drie kenmerken.
1. Normaliseer output naar een eerlijke basis
De belangrijkste stap is verrassend simpel: stop met vergelijken op “stuks per shift” en creëer één eerlijke basis om op te sturen. In veel gevallen is dat:
good output (dus zonder afkeur/herwerk)
gedeeld door geplande productietijd (niet de kloktijd van een shift)
Vervolgens corrigeer je voor mixverschillen. Niet om het mooi te maken, maar om het eerlijk te maken. Zodat je niet meer vergelijkt op omstandigheden, maar op performance.
2. Maak verliezen zichtbaar in plaats van alleen de uitkomst
Output is een uitkomst. Om te sturen heb je vooral zicht nodig op waar het verschil weglekt. In vrijwel elke fabriek zit het verlies in dezelfde drie KPI's:
beschikbaarheid (stilstand, wachten, storingen)
performance (microstops, instabiliteit, te laag tempo)
kwaliteit (afkeur, herwerk, opstartverlies)
Zodra je die verliezen zichtbaar en consistent registreert, verandert het gesprek. Je praat niet meer over wie “beter” is, maar over waar je tijd verliest en welke oorzaak het meest impact heeft.
3. Borg de opvolging: van signaal naar actie
De grootste valkuil is dat prestaties wel inzichtelijk zijn, maar niet leiden tot opvolging. Dan wordt het weer “kijken naar cijfers” in plaats van sturen.
Wat helpt is een simpele shift-control-loop:
korte check-in op target (genormaliseerd)
zichtbaar maken van top verliezen
actie vastleggen met eigenaar en deadline
terugkoppelen op effect
Niet als extra administratie laag, maar als onderdeel van het dagelijkse ritme. Dan wordt performance management geen project, maar een systeem.
Organisaties die hier doorheen breken, kiezen zelden voor “meer rapportage”. Ze kiezen voor een andere manier van sturen, met drie kenmerken.
1. Normaliseer output naar een eerlijke basis
De belangrijkste stap is verrassend simpel: stop met vergelijken op “stuks per shift” en creëer één eerlijke basis om op te sturen. In veel gevallen is dat:
good output (dus zonder afkeur/herwerk)
gedeeld door geplande productietijd (niet de kloktijd van een shift)
Vervolgens corrigeer je voor mixverschillen. Niet om het mooi te maken, maar om het eerlijk te maken. Zodat je niet meer vergelijkt op omstandigheden, maar op performance.
2. Maak verliezen zichtbaar in plaats van alleen de uitkomst
Output is een uitkomst. Om te sturen heb je vooral zicht nodig op waar het verschil weglekt. In vrijwel elke fabriek zit het verlies in dezelfde drie KPI's:
beschikbaarheid (stilstand, wachten, storingen)
performance (microstops, instabiliteit, te laag tempo)
kwaliteit (afkeur, herwerk, opstartverlies)
Zodra je die verliezen zichtbaar en consistent registreert, verandert het gesprek. Je praat niet meer over wie “beter” is, maar over waar je tijd verliest en welke oorzaak het meest impact heeft.
3. Borg de opvolging: van signaal naar actie
De grootste valkuil is dat prestaties wel inzichtelijk zijn, maar niet leiden tot opvolging. Dan wordt het weer “kijken naar cijfers” in plaats van sturen.
Wat helpt is een simpele shift-control-loop:
korte check-in op target (genormaliseerd)
zichtbaar maken van top verliezen
actie vastleggen met eigenaar en deadline
terugkoppelen op effect
Niet als extra administratie laag, maar als onderdeel van het dagelijkse ritme. Dan wordt performance management geen project, maar een systeem.
Wat wij in de praktijk zien
Wanneer organisaties hun shiftvergelijking op deze manier aanpakken, gebeurt er iets interessants: er komt rust. Niet omdat alles ineens perfect gaat, maar omdat het gesprek eerlijker wordt.
Teams herkennen sneller patronen:
welke productmix structureel risico geeft
welke omstellingen disproportioneel tijd kosten
welke storingen telkens terugkomen
waar “onbekend verlies” eigenlijk een dataprobleem is
En vooral: verbeterinitiatieven worden concreter. Omdat je niet alleen ziet dat er een gat zit, maar ook waar en waardoor. Dan kun je gerichter kiezen: aanpakken, standaardiseren, trainen, automatiseren en vervolgens het effect aantonen.
Vaak blijkt ook dat je niet direct een grote transformatie nodig hebt. De meeste winst zit in het scherp krijgen van definities, normalisatie en opvolging. Technologie ondersteunt dat, maar is zelden het startpunt.
Wanneer organisaties hun shiftvergelijking op deze manier aanpakken, gebeurt er iets interessants: er komt rust. Niet omdat alles ineens perfect gaat, maar omdat het gesprek eerlijker wordt.
Teams herkennen sneller patronen:
welke productmix structureel risico geeft
welke omstellingen disproportioneel tijd kosten
welke storingen telkens terugkomen
waar “onbekend verlies” eigenlijk een dataprobleem is
En vooral: verbeterinitiatieven worden concreter. Omdat je niet alleen ziet dat er een gat zit, maar ook waar en waardoor. Dan kun je gerichter kiezen: aanpakken, standaardiseren, trainen, automatiseren en vervolgens het effect aantonen.
Vaak blijkt ook dat je niet direct een grote transformatie nodig hebt. De meeste winst zit in het scherp krijgen van definities, normalisatie en opvolging. Technologie ondersteunt dat, maar is zelden het startpunt.
Tot slot
Wie wil sturen op output, moet eerst zorgen dat output eerlijk vergelijkbaar is. Niet om shifts af te rekenen, maar om ze te helpen verbeteren.
Want zolang je prestaties vergelijkt zonder context, zonder eenduidige definities en zonder inzicht in verliezen, stuur je vooral op ruis. En ruis leidt altijd tot hetzelfde: discussie in plaats van actie.
Wil je hier als organisatie stappen in zetten? Begin dan niet met nóg een dashboard, maar met één vraag:
“Wat is voor ons de eerlijke meetlat om shifts te vergelijken, en welke verliezen bepalen het verschil?”
Daarna wordt sturen ineens een stuk eenvoudiger.
Wie wil sturen op output, moet eerst zorgen dat output eerlijk vergelijkbaar is. Niet om shifts af te rekenen, maar om ze te helpen verbeteren.
Want zolang je prestaties vergelijkt zonder context, zonder eenduidige definities en zonder inzicht in verliezen, stuur je vooral op ruis. En ruis leidt altijd tot hetzelfde: discussie in plaats van actie.
Wil je hier als organisatie stappen in zetten? Begin dan niet met nóg een dashboard, maar met één vraag:
“Wat is voor ons de eerlijke meetlat om shifts te vergelijken, en welke verliezen bepalen het verschil?”
Daarna wordt sturen ineens een stuk eenvoudiger.

Meer artikelen
Meer artikelen
Lees onze andere blogposts
Lees onze andere blogposts

blog
IoT
Hoe blijf je groeien als het elektriciteitsnet vol zit?

Blog
IoT
Waarom blijven verstoringen in productie structureel terugkomen, ondanks dashboards en verbeterinitiatieven?

Blog
Analytics
EMS en GACS vanaf 2026: wat er verandert, wie het raakt en hoe je je voorbereidt

Blog
Analytics
Van KPI’s naar concrete sturing

Benieuwd hoe een training
Neem contact met ons op, en ontdek wat VDS voor jouw organisatie kan betekenen op het gebied van Artificial Intellegence.

Benieuwd hoe een training
Neem contact met ons op, en ontdek wat VDS voor jouw organisatie kan betekenen op het gebied van Artificial Intellegence.