Zaznacz stronę

Zakłócenia w liczbach 

Przez ostatnie dwadzieścia lat naukowcy analizowali, w jaki sposób firmy i startupy korzystają z danych i jak na nie reagują. Każda organizacja ma swoje cele, a w konsekwencji akcję lub reakcję – może nawet nadmierną reakcję, która występuje za każdym razem, gdy pojawiają się zawirowania w dostarczanych informacjach. Często działania, które są podejmowane przez kadrę zarządzającą bazują na emocjach i odczuciach związanych z daną analizą.

Ważne jest, aby firmy (bez względu na ich wielkość – od startupów po duże korporacje) cofnęły się o krok i oceniły, w jaki sposób analizują dane. Dostępność różnorodnych danych produkcyjnych jest tak duża, że firmy mogą łatwo reagować na każdą poprawę, spowolnienie lub drobne zmiany – czyli to, co właśnie jest zakłóceniem w liczbach. Osoby decyzyjne muszą ustalić czy dany sygnał traktowany jest jako zakłócenie. Stworzenie jasno określonego filtra pozwala na rozróżnienie rodzaju informacji czy jest znaczącym sygnałem, standardową fluktuacją wokół średniej, której nie należy uwzględniać. 

Ustalenie tej zależności nie musi być skomplikowane. Stosowanie wskaźników i ustalanie ich konkretnych poziomów będzie definiować kierunek dalszych działań. Pojedyncza fluktuacja – traktowana jako błąd statystyczny nie będzie miała decydującego wpływu na wyniki produkcyjne. Natomiast poważne zakłócenie w postaci odchylenia od założonego trendu jest sygnałem do podjęcia analizy, a w konsekwencji odpowiednich kroków celem poprawy sytuacji. 

Przestań nadinterpretować i rozpocznij wizualizować 

Nie oznacza to, że konieczna jest obsesyjna analiza dostarczanych danych. W rzeczywistości jest dokładnie odwrotnie. Wyszukiwanie przyczyn lub przyczyny w każdym spadku lub wzroście pochłania dużo czasu. Co więcej, może odwrócić uwagę od szerszego obrazu określającego czy ta fluktuacja jest statystycznie istotna. Lub gorzej, może sprawić, że interpretacja okaże się błędna albo zacznie się poszukiwanie kozła ofiarnego. Zamiast obwiniania współpracowników lub podwładnych ważne jest, by spojrzeć na sprawy z perspektywy procesów. 

Dlatego warto najpierw popracować nad wizualizacją danych, rysując wykres, aby uzyskać wgląd w to czy wskaźniki wskazują na długoterminowe trendy, czy tylko krótkoterminowe zmiany. Po narysowaniu wykresu można dodać trzy linie. Pierwsza będzie oznaczać średnią bazową oraz dolne i górne odchylenie standardowe. Jednak czasem odchylenie standardowe nie sprawdza się w odniesieniu do specyficznych procesów (np. o dużej zmienności, niskich seriach), wówczas należy wprowadzić limity zdefiniowane w oparciu o ograniczenia procesowe. Czasami klient narzuca na nas poziom odchylenia, a wtedy użyj jego wartości. 

Taki wykres jest specyficznym głosem procesu. Pomaga określić zakres spodziewanych zmian w danych. Po wykonaniu tej czynności o wiele łatwiej jest określić czy w rekordach pojawia się sygnał, którym należy się zająć. 

Oto trzy reguły, które ułatwią analizę:  

  1. Znajdź pojedynczy punkt danych powyżej lub poniżej linii, które wyznaczają górną i dolną granicę. 
  2. Następnie poszukaj ośmiu kolejnych punktów danych, które są powyżej lub poniżej średniej bazowej. 
  3. Znajdź klaster złożony z trzech czwartych punktów danych, które są bliższe górnym lub dolnym granicom niż dla średniej bazowej. 

Pojedyncze odchylenia nie wnoszą nic do analizy – nie marnuj na nie czasu. Zbiory większej ilości punktów, ale niedominujące ilościowo, wskazują na odchylenia, które należy przeanalizować. Natomiast w przypadku formowania klasterów, agregatów danych w rejonach granic (ale w zakresie tolerancji) może oznaczać nieprawidłowe wyznaczenie trendu. 

W ten sposób systematyczna wizualizacja danych pomoże osobie dokonującej analizy złapać oddech i uniknąć paraliżu decyzyjnego. To podejście pozwala wskazać zakłócenia i skupić się na elementach, które mają istotny wpływ na proces. Cele takiej wizualizacji są dwa, ale wybieraj do analizy tylko jeden na raz. Pierwszy to określenie parametrów, które przesuwają średni poziom wydajności. Jakie działania mają wpływ na trend globalny? Drugi cel to obniżenie wariacji w wydajności. Czyli wszystkie działania, które wpływają na stabilizację procesową. 

Nie musisz być matematykiem, aby dobrze wykorzystywać dane 

Chociaż ta metodologia jest niesamowicie skuteczna we wzmacnianiu myślenia przyczynowo-skutkowego, należy rzetelnie podchodzić do analizy danych i unikać wybierania liczb. Danymi można manipulować tak, aby pokazywały inny obraz. Chodzi o spójność w analizie, żeby wybierane zakresy określały rzeczywisty proces, a nie odchyłki, które mogą sugerować lepszą sytuację. Ważne, żeby unikać reagowania na pojedyncze odchylenia danego dnia, a gromadzić reprezentatywną próbkę zarówno w ujęciu ilościowym oraz jakościowym. Analizy powinny się odbywać według określonego harmonogramu, np. każdy piątek tygodnia lub po wyprodukowaniu kolejnych 100 000 elementów. 

Mimo że proces jest oparty na danych, jest to coś, co każdy może zrobić. W ostatecznym rozrachunku, poświęcając czas na analizę danych, możesz nauczyć się odróżniać zakłócenia od sygnałów, aby zyskać zrozumienie i ulepszać swoje procesy. A ponieważ dane są królem, może nam tylko pomóc zdobyć cierpliwość i dyscyplinę, aby metryki i dane mogły wykonać swoje zadanie. 

Jak przekładać wyniki na działanie 

Nawiązując do poprzednich akapitów, zaczynamy od wyboru metody – przesuwanie wartości średniej wydajności procesu, ograniczenie wariacji. Pojedyncze odchylenia zazwyczaj oznaczają wyjątkową sytuację, która nie ma miejsca w procesie. Jeżeli występuje pojedynczo i nie powtarza się w większym horyzoncie czasowym, to rozwiązanie tego problemu nigdy nie zwróci zaangażowanych zasobów.  

Natomiast w przypadku znalezienia odchylenia, które wykazuje charakter cykliczny, a także pojawia się w większej ilości – wówczas należy podjąć działania. Praktyka pokazuje, że zdefiniowanie takich problemów daje długą listę. Wówczas kolejnym krokiem jest spotkanie w zespole multidyscyplinarnym, celem omówienia analizy. Kluczowym elementem tego spotkania jest oszacowanie dwóch parametrów. Pierwszy to czasochłonność – 100 godzin pracy zespołu oraz szansa na realizację – 90%. Zacznij od problemu o najmniejszej czasochłonności i największej szansie na implementację. Takie podejście pozwala utrzymać odpowiednią motywację w zespole oraz na szybkie określenie czy problem został odpowiednio zdefiniowany. 

Największym wyzwaniem jest problem nieprawidłowego zdefiniowania linii trendu. Trend odzwierciedla realizację strategicznych celów organizacji. Działania, które muszą zostać podjęte zaczynają się od konfrontacji celów strategicznych z działaniami operacyjnymi. Zazwyczaj na styku tych dwóch interefejsów dochodzi do konfliktu. Definiowanie akcji musi być realizowane podobnie jak poprzednim punkcie – jednak referencją pozostanie cel strategiczny.