Poisson-Verteilung in der Qualitätskontrolle: Wie Industriebetriebe Fehler zählen, ohne den Zufall mit Qualität zu verwechseln
- Benjamin Metzig
- vor 3 Stunden
- 5 Min. Lesezeit

In der industriellen Qualitätskontrolle klingt eine Zahl oft härter, als sie wirklich ist. Gestern zwei Lackfehler, heute sechs, morgen wieder einer: Wer nur auf die Rohwerte schaut, sieht sofort ein Problem. Wer statistisch sauber hinsieht, stellt zuerst eine andere Frage: Ist das noch normaler Zufall innerhalb eines stabilen Prozesses, oder kippt hier tatsächlich die Qualität?
Genau an dieser Stelle wird die Poisson-Verteilung praktisch. Sie ist kein mathematisches Schmuckstück aus dem Lehrbuch, sondern eines der Modelle, mit denen Fabriken, Prüflabore und Prozessingenieurinnen versuchen, seltene Fehler vernünftig zu zählen. Das NIST-Handbook formuliert die Grundidee nüchtern: Die Poisson-Verteilung beschreibt, wie viele Ereignisse in einem festen Zeit-, Flächen- oder Volumenintervall auftreten. Der Parameter λ steht für die durchschnittliche Zahl dieser Ereignisse. Für die Qualitätskontrolle ist das deshalb so wertvoll, weil viele Fehler genau so auftreten: als zählbare Vorkommnisse in einer bestimmten „Gelegenheit“.
Warum die Poisson-Verteilung in der Qualitätskontrolle so nützlich ist
Ein Produktionsprozess erzeugt nicht immer nur gute oder schlechte Teile. Häufig ist die wichtigere Frage: Wie viele Nichtkonformitäten stecken in einer Einheit? Ein Metallblech kann mehrere Kratzer haben. Eine Stoffrolle kann an mehreren Stellen Fadenfehler zeigen. Ein Wafer kann über seine Fläche verteilt Defekte tragen. Genau für solche Fälle ist die Poisson-Logik gebaut.
Das JMP-Wissensportal zu Attribut-Regelkarten zieht die praktische Trennlinie sehr klar: Wenn man defekte Teile zählt, ist meist ein binomialer Ansatz sinnvoll. Wenn man dagegen Nichtkonformitäten zählt, also potenziell mehrere Fehler innerhalb derselben Einheit, landet man bei Poisson-basierten c- oder u-Charts. Diese Unterscheidung ist nicht akademisch. Wer sie verwechselt, baut leicht ein Kennzahlensystem, das zwar präzise aussieht, aber die falsche Realität misst.
Definition: Was in der Qualitätskontrolle „Poisson“ bedeutet
Nicht jeder Prozess mit Fehlerzahlen ist automatisch Poisson-geeignet. Das Modell passt nur dann sauber, wenn Fehler als einzelne Ereignisse in einer klar definierten Gelegenheit auftreten und die durchschnittliche Fehlerzahl sinnvoll als Rate beschrieben werden kann.
Der große Reiz der Verteilung liegt in ihrer Sparsamkeit. Aus einem einzigen Parameter lässt sich bereits viel ableiten. Beim idealen Poisson-Modell sind Mittelwert und Varianz gleich groß. Genau deshalb können Qualitätsingenieurinnen aus historischen Fehlerzahlen nicht nur eine durchschnittliche Fehlerquote abschätzen, sondern auch Erwartungsgrenzen für normale Schwankungen ableiten. Das ist die statistische Basis dafür, zwischen gewöhnlicher Prozessstreuung und echten Warnsignalen zu unterscheiden.
Die eigentliche Industriefrage lautet nicht „Wie viele Fehler?“, sondern „Pro welche Gelegenheit?“
Der vielleicht wichtigste Denkfehler in der Praxis ist, absolute Fehlerzahlen zu vergleichen, obwohl die Prüfgelegenheit gar nicht gleich groß war. Sechs Defekte auf 100 Teilen bedeuten etwas anderes als sechs Defekte auf 10.000 Teilen. Zehn Kratzer auf einer kleinen Prüffläche bedeuten etwas anderes als zehn Kratzer auf einer großen.
Genau deshalb formuliert das NIST-Handbook zur Defektdichte das Modell als Anzahl von Defekten in einer Fläche oder Gelegenheit mit dem Parameter A × D: A steht für die untersuchte Fläche oder Menge, D für die wahre Defektdichte. Das ist ein erstaunlich nüchterner, aber extrem mächtiger Gedanke. Er zwingt Qualitätskontrolle dazu, nicht nur Fehler zu zählen, sondern die Größe der Chance mitzudenken, in der ein Fehler überhaupt sichtbar werden konnte.
Damit wird auch verständlich, warum zwei der wichtigsten Werkzeuge in der statistischen Prozesskontrolle unterschiedlich gebaut sind:
Das c-Chart verfolgt die absolute Zahl von Nichtkonformitäten in einer vergleichbaren Stichprobe.
Das u-Chart verfolgt die Zahl von Nichtkonformitäten pro Einheit, also eine Rate, wenn die Zahl der Prüfeinheiten schwankt.
Die JMP-Dokumentation zu Shewhart-Attribut-Charts ordnet genau diese Verteilung sauber zu: C-Charts und U-Charts sind die Poisson-Werkzeuge für Fehlerzählungen, während p- und np-Charts zum binomialen Lager gehören.
c-Chart oder u-Chart: Der Unterschied ist kleiner auf dem Papier als in der Fabrik
In der Theorie wirkt der Unterschied einfach. In der Praxis entscheidet er oft darüber, ob ein Unternehmen richtige oder falsche Alarmmeldungen bekommt.
Ein c-Chart ist sinnvoll, wenn jede Stichprobe unter vergleichbaren Bedingungen entsteht. Man zählt dann etwa die Zahl der Lackeinschlüsse pro Türpanel oder die Zahl der Oberflächenfehler pro standardisiertem Bauteil. Das Modell fragt: Liegt die beobachtete Fehlerzahl noch im Bereich dessen, was bei stabiler mittlerer Rate normal wäre?
Ein u-Chart wird notwendig, sobald die Zahl der Prüfeinheiten oder die „Fläche der Gelegenheit“ schwankt. Die SAS/QC-Dokumentation zeigt dazu ein anschauliches Stoffbeispiel: Stoffrollen sind unterschiedlich groß, deshalb wäre die absolute Fehlerzahl pro Rolle allein irreführend. Erst die Fehlerzahl pro Quadratmeter ergibt eine belastbare Vergleichsgröße. Die Kontrollgrenzen dürfen dann nicht starr bleiben, sondern müssen mit der jeweiligen Prüfeinheit mitwandern.
Das ist mehr als Statistik-Kosmetik. Wer bei wechselnden Gelegenheiten stur absolute Fehlerzahlen vergleicht, verwechselt Volumen mit Verschlechterung. Dann wirkt ein größerer Auftrag automatisch riskanter, selbst wenn die Prozessqualität unverändert geblieben ist.
Warum die Poisson-Verteilung so oft missverstanden wird
Die Poisson-Verteilung ist in der Qualitätskontrolle beliebt, weil sie elegant ist. Sie ist aber gerade deshalb gefährlich, weil Eleganz schnell mit Realität verwechselt wird.
Das Modell unterstellt im Kern: Fehler treten als einzelne, voneinander unabhängige Ereignisse auf, und ihre durchschnittliche Rate bleibt im betrachteten Zustand stabil. Genau diese Annahmen brechen in echten Produktionssystemen ständig an. Werkzeugverschleiß häuft Fehler. Materialchargen erzeugen Cluster. Bedienwechsel verändern Abläufe. Sensorik meldet mal grober, mal feiner. Ausgerechnet in modernen, hochautomatisierten Prozessen kommt noch hinzu, dass riesige Stichproben klassische Kontrollgrenzen extrem scharf machen.
Die Folge heißt Overdispersion: Die realen Daten streuen stärker, als ein reines Poisson-Modell erlaubt. Die Minitab-Dokumentation beschreibt das sehr praxisnah. Traditionelle Attribut-Charts werden bei großen Subgruppen dann so eng, dass normale, systemimmanente Schwankungen wie Sonderursachen aussehen. Anders gesagt: Die Fabrik produziert nicht plötzlich schlechter, aber das Dashboard tut so.
Auch JMP weist deshalb auf Laney-Varianten hin, die zusätzliche Streuung berücksichtigen. Das ist ein bemerkenswerter Punkt, weil er eine oft verdrängte Wahrheit sichtbar macht: Statistische Qualitätskontrolle lebt nicht davon, immer komplizierter zu rechnen. Sie lebt davon, zuzugeben, dass das erste Modell zu einfach war.
Wo Poisson wirklich stark ist und wo man vorsichtig werden muss
Die Poisson-Verteilung ist besonders stark, wenn Prozesse drei Dinge mitbringen:
eine klar definierte Gelegenheit, in der Fehler auftreten können
relativ seltene, gut zählbare Nichtkonformitäten
einen Prozess, der über die Beobachtungsphase nicht dauernd sein Verhalten ändert
Dann wird sie zu einem ausgezeichneten Frühwarnsystem. Sie hilft, aus verrauschten Fehlerzahlen ein verständliches Signal zu machen. Sie erlaubt, Defektdichten gegen Zielwerte zu testen, wie es das NIST-Handbook für industrielle Prüfflächen beschreibt. Und sie ist praktisch genug, um in Produktionsroutinen, SPC-Software und Linienentscheidungen einzubauen.
Vorsichtig werden muss man dagegen in drei typischen Fällen.
Erstens: wenn die Fehler gar nicht unabhängig sind. Ein falsch eingestelltes Werkzeug erzeugt nicht einen zufälligen Kratzer, sondern eine ganze Serie ähnlicher Fehler. Zweitens: wenn die Gelegenheit nicht sauber definiert ist. Ein Team zählt Fehler pro Los, ein anderes pro Stück, ein drittes pro Quadratmeter. Dann ist die Kennzahl schon vor jeder Statistik beschädigt. Drittens: wenn sehr seltene Fehler mit groben Näherungen behandelt werden. NIST weist ausdrücklich darauf hin, dass die Normalapproximation an die Poisson-Verteilung erst bei ausreichend großem Erwartungswert vernünftig wird. Wer winzige Raten zu früh „normalisiert“, rechnet sich eine Scheingenauigkeit herbei.
Die tiefere Lehre: Gute Qualitätskontrolle beginnt nicht beim Alarm, sondern beim Modell
Die populäre Vorstellung von Qualitätskontrolle ist mechanisch: messen, zählen, eingreifen. Die bessere Vorstellung ist epistemisch: zuerst klären, was die Zahl überhaupt bedeutet.
Die Poisson-Verteilung hilft genau dabei. Sie zwingt dazu, Fehler nicht als moralisches Versagen einer Linie zu lesen, sondern als Ereignisse innerhalb einer Rate, einer Gelegenheit und eines Streumusters. Das ist entdramatisierend und anspruchsvoll zugleich. Es schützt vor Aktionismus, aber auch vor Selbstzufriedenheit.
Ein Werk, das Poisson sauber einsetzt, macht deshalb mehr als nur Defekte zählen. Es definiert Prüfeinheiten sauber. Es trennt defekte Teile von Defekten pro Teil. Es überprüft, ob die beobachtete Streuung überhaupt noch zum Modell passt. Und es akzeptiert, dass ein gutes Warnsystem nicht nur empfindlich, sondern auch demütig sein muss.
Die eigentliche Stärke der Poisson-Verteilung liegt also nicht darin, dass sie Fehler vorhersagt. Ihre Stärke liegt darin, dass sie einen disziplinierten Umgang mit Unsicherheit erzwingt. In einer Industrie, die gerne jede Zahl für eine Tatsache hält, ist das vielleicht ihr wertvollster Beitrag.
Verwandte Perspektiven auf Mathematik und Steuerung findest du auch in unseren Beiträgen zu Statistik und Staat: Wie Zählung, Vermessung und Verwaltung Macht organisieren, Optimierung: Wie Mathematik Rettungswege, Lieferketten und Flugpläne steuert und Fourier-Analyse verstehen: Wie Mathematik Klang, Bilder und MRT überhaupt erst lesbar macht.
















































































