Czy możemy obyć się bez statystyki w zarządzaniu?

Artykuł ukazał się na łamach magazynu SZEF Utrzymania Ruchu.

Jak napisałem w poprzednim artykule, zamieszczonym w SZEF UR nr 3 maj – czerwiec 2016, powszechnym nawykiem w organizacjach jest posługiwanie się wyłącznie wartością średnią wskaźników i prosta, arytmetyczna analiza, porównująca w czasie średnie wartości tych wskaźników. Postępując w ten sposób ignorujemy zupełnie fakt, że każdy wskaźnik jest zmienną losową. Jest to dowiedzione naukowo i nie może być ignorowane bez ryzyka błędnych wniosków i idących za tym pochopnych działań, które zamiast poprawy przyniosą pogorszenie wyników.

Przypomnijmy, iż zmienna losowa oznacza, że dany wskaźnik przyjmuje, w pewnych granicach, wartości wyznaczone przez los, a więc cechuje się naturalną zmiennością. Zakres zmian wynika z rozproszenia wyników, którego miarą jest wariancja V i jej pierwiastek kwadratowy, czyli odchylenie standardowe σ. Może się zdarzyć i często się zdarza, że różnice zaobserwowane w wartościach średnich nie wychodzą poza zakres naturalnej zmienności wskaźnika (zmiennej losowej). Mówimy wtedy, że są one statystyctznie nieistotne, a porównując wartości średnie bez uwzględnienia wariancji danych, możemy błędnie uznać różnicę między nimi za istotną. Powinniśmy sobie uświadomić, że wnioskowanie na podstawie prostego porównywania wartości średnich niesie za sobą duże ryzyko błędnych wniosków i błędnych działań. Pomijam tu już zjawisko częstej manipulacji średnimi polegające m.in. na rozciąganiu skali, aby sztucznie (wizualnie) uwypuklić różnice, którymi chcemy się pochwalić, nie wiedząc, że ta różnica (poprawa) jest nieistotna. Aby to wiedzieć, potrzebne jest podejście statystyczne do analizy danych i wnioskowania.

Skupimy się teraz na praktycznej użyteczności wiedzy o zmiennej losowej. Wiemy, że dla danej zmiennej losowej możliwe do wystąpienia wyniki różnią się prawdopodobieństwem wystąpienia. Jedne występują częściej, inne – mniej prawdopodobne – występują rzadziej. Jeśli wyniki obserwacji jakiegoś wskaźnika, np. wskaźnika czasu trwania awarii maszyny, uszeregujemy od najmniejszej wartości do największej i przypiszemy im (pewnym ustalonym ich zakresom zwanym klasami) słupki, których wysokość zależy od ilości wystąpień, to powstanie nam wykres zwany histogramem, jak na Rysunku 1. Histogram jest bardzo prostym, graficznym przedstawieniem rozkładu prawdopodobieństwa zmiennej losowej. Jest jednocześnie uproszczonym, graficznym obrazem rozkładu normalnego zobrazowanego krzywą rozkładu normalnego, zwaną też krzywą Gaussa.

Podsumowując, wyniki każdego wskaźnika liczbowego (zmiennej losowej) o charakterze ciągłym (np. czas trwania, długość, pole powierzchni, objętość, ciśnienie, masa, temperatura, $, PLN etc.) mają swój ściśle określony rozkład prawdopodobieństwa, według którego powinny się układać. Powszechnym rozkładem prawdopodobieństwa dla ciągłej zmiennej losowej jest rozkład normalny zwany też rozkładem Gaussa. Jeśli nasze wyniki dla danego wskaźnika układają się w krzywą Gaussa mówimy, że te wyniki mają charakter losowy, czyli są wyznaczone przez los. Świadczy to o powtarzalności i przewidywalności procesu, którego ten wskaźnik jest miarą. Jeśli wyniki nie układają się w krzywą Gaussa, mówimy o nielosowości danych i procesu, spowodowanej jakimiś wyznaczalnymi zakłóceniami. Możemy tu wziąć za przykład ciśnienie krwi w organizmie człowieka. Jeżeli przeprowadzamy badanie sprawnym i odpowiednio dokładnym przyrządem, zawsze w podobnych warunkach, to dla zdrowego człowieka wyniki pomiarów ciśnienia ułożą się w krzywą Gaussa z wartością średnią około 120. Jeśli jest inaczej, jeśli nie układają się w krzywą Gaussa, świadczy to o nielosowości wyników, czego przyczyną mogą być zakłócenia procesów psychofizjologicznych, wywołane np. stresem, dietą etc. Podobne zależności możemy zaobserwować dla procesów operacyjnych typu usuwanie lub prewencja awarii. Jeśli czas trwania awarii albo koszty działań prewencyjnych układają się w krzywą Gaussa, mamy do czynienia ze „zdrowym” przebiegiem tych procesów. Jeśli są istotnie odchylone od tej krzywej, świadczy to o pojawieniu się możliwych do wyjaśnienia i wyeliminowania zakłóceń, powodujących nieprzewidywalność wyników. Trzeba jednak najpierw zdobyć wiedzę płynącą z charakteru rozkładu naszych danych – czy są losowe czy nie?

Szefowie UR lub Działu Technicznego dowolnego szczebla, zapewne chcieliby wiedzieć czy dane dla danego wskaźnika UR (czas trwania awarii, poziom zapasów części zamiennych ilościowy i kosztowy, płynność części zamiennych, koszty prewencji, czasy przezbrojeń etc.) układają się w krzywą Gaussa, czy też nie. Jest to podstawowy test powtarzalności i przewidywalności procesów. Jeśli mamy dane (ciągłe), przeprowadźmy test normalności rozkładu przy pomocy programu statystycznego, np. Minitab. Odbieganie od normy świadczy o występowaniu zakłóceń, które powinniśmy poznać i wyeliminować. Jest to jedyna droga do osiągania coraz lepszych wyników w sposób trwały. Oprócz normalności (losowości) rozkładu, interesuje nas też (a może bardziej), czy wyniki jakie osiągamy dla danego wskaźnika są zgodne z postawionym celem, np. wskaźnika czasu przezbrojenia linii lub maszyny, która na dodatek jest wąskim gardłem dla danego strumienia wartości.

Załóżmy, że nie posiadamy danych odnotowanych dla wszystkich zdarzeń (przezbrojeń) lub mamy dane, ale nie w pełni im ufamy, a chcemy wiedzieć, w którym etapie procesu się znajdujemy. Żeby zdobyć dowód, musimy pójść do gemba i pomierzyć czasy trwania jak największej ilości przezbrojeń. Jeżeli w realnym czasie jesteśmy w stanie wykonać 30 lub więcej pomiarów, mamy do czynienia z tzw. dużą próbą i możemy zastosować do analizy jej wyników statystykę „Z” zgodną z poniższym wzorem:

gdzie:
S – odchylenie standardowe z próby μ0 – wartość średnia z populacji
n – liczba obserwacji (liczność próby) X – wartość średnia z próby

W powyższej formule μ0 jest naszym celem (wartością oczekiwaną), który testujemy.

Jeżeli wartość powyższej statystyki (testu statystycznego Z) mieści się pomiędzy punktami granicznymi podanymi w poniższej tabeli (np. +/- 1,96), to możemy powiedzieć „jest dobrze” (hipoteza H0: μ0 = X jest potwierdzona) – osiągamy postawiony cel, a odchylenie średniej z próby od celu jest nieistotne. Jeżeli natomiast otrzymamy: -1,96 > X > 1,96, wtedy różnica pomiędzy wynikiem z próby, a celem jest znaczna i świadczy o istotnym odchyleniu rzeczywistych wyników od postawionego celu (hipotezę H0 zastępuje hipotez H1: μ0≠ X). Jeśli odchylenie jest na minus, czyli nasze przykładowe czasy przezbrojeń są istotnie niższe od postawionego celu, świadczy to o tym, że cel został postawiony mało ambitnie, a nasze możliwości są większe. W takim przypadku należy zweryfikować cel, bo analiza dostarczyła nam dowodów, że już osiągamy dużo lepsze wyniki niż założone.

Przyjmijmy, że nasz test jest testem dwustronnym, bo z powyższych powodów interesują nas przypadki, w których przykładowy czas przezbrojeń jest zarówno wyższy, jak i niższy od postawionego celu.

Do wyjaśnienia pozostaje nam jeszcze poziom istotności. Jego sens objaśniony jest na rysunku 2.

Rysunek 2 ilustruje twierdzenie Czebyszewa, które mówi, że 95% wyników odchyla się od wartości średniej nie więcej niż o dwa odchylenia standardowe (± 2 Σ). Na tym twierdzeniu opiera się cała konstrukcja testowania hipotez statystycznych. Jednym z testów jest test Z.

Przedział ufności:
• z 95% prawdopodobieństwem wyniki dla dowolnej zmiennej losowej ciągłej znajdą się w przedziale +/- 1,96 σ (~ +/- 2σ). A więc prawdopodobieństwo, że dowolny wynik znajdzie się w tym obszarze, wynosi 95%. Jest to przedział ufności.

• prawdopodobieństwo wyniku spoza powyższego obszaru jest ≤ 5% (poziom istotności) i wynikom, które w tym obszarze się pojawią „nie ufamy”, bo znajdują się w obszarze odrzucenia.

Z powyższych objaśnień wynika, że nie ufamy wynikom, których prawdopodobieństwo zdarzenia jest ≥ 5%, a które, mimo to, pojawiły się. Uznajemy je za nielosowe, czyli takie, w których pojawieniu się coś „losowi pomogło” – zakłócenia, konieczne do wyjaśnienia i wyeliminowania, by na tej drodze zapewnić ciągłą poprawę wyników. Po przeprowadzeniu powyższej analizy, zdobywamy wiedzę dowodową do „zawyrokowania” o naszych wynikach. Innej drogi do równie pewnej (na 95%) wiedzy nie ma.

Możemy wybrać inny poziom ufności. Nie 95%, a 99% lub 90%. Zależy to od nas. Jeżeli wybierzemy 99% (poziom istotności 0,01), to zwiększamy prawdopodobieństwo uznania złego wyniku za dobry („uniewinnienie winnego” – błąd β). Jeżeli natomiast wybierzemy 90% (poziom istotności 0,1), to odwrotnie, bardziej ryzykujemy, że uznamy dobry wynik za zły („skazanie niewinnego” – błąd α). Co jest gorsze? Zachęcam czytelnika do przemyślenia tej kwestii i samodzielnych wniosków. Jaki jest „złoty środek”? Dobrą statystyczną praktyką jest przyjęcie 95%. Z tymi zagadnieniami ściśle wiąże się parametr zwany „P_value” (wartość P). Jest to jeden z najważniejszych wskaźników decyzyjnych do rozstrzygania o słuszności hipotez statystycznych: H0, H1. Jeśli P_value , to słuszność hipotezy H0, mówiącej, że jest dobrze zostaje potwierdzona. Jeśli P_value , to nie znajdujemy wystarczających argumentów na obronę hipotezy H0 i przyjmujemy hipotezę H1 mówiącą, że nie osiągamy spodziewanych wyników (jest źle). Chciałbym tu ponownie uwrażliwić czytelnika na występujący często zły nawyk przyjmowania za zły każdego wyniku, który jest gorszy arytmetycznie od postawionego celu. Gorszy jest on tylko wtedy, gdy przekracza punkty kontrolne z powyższej tabeli, zgodnie z przyjętym poziomem istotności. Dobrym nawykiem jest statystyczne, a nie arytmetyczne podejście do wnioskowania na podstawie uzyskanych wyników.

A co jeśli z różnych obiektywnych powodów dysponujemy liczbą pomiarów mniejszą niż 30? Mówimy wtedy o małej próbie i w takim przypadku stosujemy statystykę t opartą na rozkładzie studenta (t). Gdy liczność próby wzrasta, rozkład studenta dąży do rozkładu normalnego. Statystyce t, która ma ogromne zastosowanie praktyczne, gdy liczność obserwacji jest <30, poświęcony będzie następny artykuł.

Na zakończenie gorąco zachęcam czytelników do niezwłocznego praktycznego zastosowania statystyki Z do przetestowania własnych wyników względem postawionych własnych celów. Jak widać z załączonego wzoru, wystarczy tylko (albo aż) mieć dane oraz arkusz kalkulacyjny lub kalkulator, żeby zyskać głębszą wiedzę o procesach. Dla pełniejszej, bogatszej i znacznie szybszej analizy, niezawodny jest program Minitab, w którym statystykę Z znajdziemy na ścieżce: Stat/Basic Sta s cs/ 1Z 1-Sample Z (pełna wersja dostępna nieodpłatnie do testowania na jeden miesiąc).

Pobierz artykuł w formacie PDF!



Skomentuj

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *