Świat IT wstrzymał oddech, gdy pierwsze LLM (Large Language Model) zaczęły pisać kod, tworzyć grafiki i przybliżać świat sztucznej inteligencji osobom, które nigdy nie potrafiły programować. Co za tym idzie coraz więcej firm zaczęło stawiać na AI i automatyzację.
Niestety, zmiany, które obserwujemy, dokonywane w firmach najczęściej powodowane są strachem przed tym, że konkurencja zacznie wykorzystywać AI i nas wyprzedzi. Duże firmy lepiej wytrzymują tę presję, ponieważ często posiadają własnych specjalistów AI lub mogą zatrudnić ich dostateczną liczbę w stosunkowo szybkim czasie.
Od czego jednak zacząć, jeśli pragniemy zautomatyzować żmudne procesy firmowe bez blokowania od razu dużej części naszego zespołu i budżetu?
Czym jest Process Discovery
To inaczej nazwa metody polegającej na badaniu przepływu procesów biznesowych w naszej firmie. Zazwyczaj, gdy spotykamy się z tym stwierdzeniem, mamy na myśli mapowanie procesów przy wykorzystaniu notacji takich jak np. BPMN (Business Process Model & Notation).
Dotychczas rysowanie map w ten sposób pozwalało osobom „nietechnicznym” lepiej porozumiewać się z różnymi działami programistów i analityków, zajmujących się m.in. cyfryzacją procesów biznesowych.
Choć notacje tego typu wciąż są wykorzystywane, to coraz częściej staramy się jeszcze mocniej upraszczać całą mapę i rysować je w formach np. schematu usługi (tzw. Service blueprint).
Zrozumienie tych metod pozwoli Ci lepiej zrozumieć dalszą część tego artykułu, który skupi się na pojęciach task miningu i process miningu, czyli metod bezpośrednio związanych z AI i automatyzacją.
Jak możemy zidentyfikować procesy biznesowe z potencjałem na wykorzystanie narzędzi AI lub automatyzacji
To pytanie, które stało się na prawdę gorące od 2022. Na pewno coraz częściej będą pojawiały się pojęcia wspomniane powyżej, czyli Process mining i Task mining.
Oba te pojęcia odnoszą się do metod pozwalających stwierdzić (na podstawie danych ilościowych), gdzie potencjalnie „gubimy” efektywność. Zanim przejdziemy do konkretnego przykładu, najpierw rozszyfrujmy oba te pojęcia.
Task mining
Jest to proces polegający zbieraniu informacji o wykonywanych w organizacji akcjach przez indywidualną osobę/pracownika. W praktyce, w tle uruchamiany jest system, który analizuje, a w razie potrzeby także monitoruje akcje wykonywane przez danego użytkownika. Pozwala to stworzyć ogólny wzorzec zachowań danej osoby lub całej grupy osób i analizować efektywność jej działań. Takie podejście pozwala analizować efektywność wykonywania zadań i samą logikę ich obiegu.
Jako przykład możemy podać proste zaakceptowanie faktury
- Użytkownik wyszukuje fakturę w systemie (5 min)
- Otwiera folder z fakturami (<1min)
- Analizuje dane na fakturze (~10 min)
- Klika w przycisk zaakceptuj fakturę (<1min)
Taki prosty proces może trwać parę minut lub parę godzin w zależności od tego co dzieje się pomiędzy krokami zarejestrowanymi w systemie. Taka informacja skorelowana z danymi indywidualnymi całej firmy może dać nam informacje o tym, ile średnio czasu należy poświęcić, aby zaakceptować fakturę.
Dzięki tego typu informacjom pomnożonym przez liczbę faktur do zaakceptowania danego dnia (skalę), jesteśmy w stanie lepiej ocenić potencjalnie korzyści z automatyzacji procesu.
Ten sam proces dla przykładu mógłby wyglądać tak:
- Użytkownik otrzymuje powiadomienie o nowej fakturze w folderze (automatyzacja)
- Wraz z informacją otrzymuje podsumowanie pozycji na fakturze wraz z rekomendacją AI (działanie AI)
- Upewnia się co do faktury (~5 min)
- Klika Zaakceptuj (<1min)
W tym prostym przykładzie oszczędzamy 11 min na wykonanym zadaniu – jeśli przełożymy to np. na ok. 30 takich zadań wykonywanych przez 1 użytkownika to oszczędności wyglądają następująco:
Bez automatyzacji – Wykonanie zadania | Z automatyzacją – Wykonanie zadania | |
1 faktura | ~ 17 minut | ~ 6 minut |
10 faktur | ~ 170 minut (ok. 2h 50 minut) | ~ 60 minut (1h) |
100 faktur | ~ 1700 minut (28h 20minut) | ~ 600 minut (10h) |
Oczywiście ten prosty przykład jest tu tylko po to, aby zobrazować jak element skali / powtarzalności zadania wpływa na wymierne efekty w postaci oszczędności czasu.
Widząc efekty task miningu naturalnym jest przejście do process miningu.
Process mining
Process mining to w skrócie analizowanie zdarzeń (eventów), które zostały zarejestrowane w całym systemie. Zdarzenia te zazwyczaj mają formę bazy danych, a analizowane są przez wyspecjalizowane algorytmy. Nie analizujemy tu już działań konkretnych pracowników, a bardziej aktywności w całej firmie np. czas obiegu dostarczenia paczki kurierskiej do klienta.
Tu jednak natrafiamy na pierwszy większy problem.
Choć zasada jest podobna jak w task miningu to przekazanie wszystkich danych z wszystkich systemów wymaga upewnienia się, że nie łamią przepisów firmowych (compliance) a dodatkowo dodają żmudnej pracy dostosowywania danych, gdy np. formaty dat nie są ze sobą spójne pomiędzy systemami (choć tu coraz częściej pomaga nam właśnie AI).
Efekt też nie zawsze jest satysfakcjonujący, ponieważ suche dane nie dają nam kontekstu. Przedstawiają nam podróż np. wspomnianej paczki z kolejnymi „bramkami” np. nadanie paczki, odbiór przez kuriera itd., ale nie dają nam odpowiedzi na pytania dlaczego. Pomiędzy procesami czysto cyfrowymi zachodzą relacje bardziej organiczne np. otrzymanie od pilota optymalnej trasy dojazdu do klienta lub po prostu otrzymanie paczki w przerwie na jedzenie.
Oczywiście te wszystkie rzeczy można próbować dostosować, ale suma danych potrzebnych, aby otrzymać realny proces, często przekracza możliwości ludzkie i AI. Sama idea process mining to jednak świetny sposób na wskazanie miejsc przestojów czy nawet potencjalnych przekroczeń uprawnień (compliance breach), ale zazwyczaj nie są to dane wystarczające, aby rozpocząć świadomy i efektywny proces automatyzacji lub wdrażania sztucznej inteligencji.
Już na tym etapie widzimy, że takie podejście sprawdzi się świetnie tylko jeśli każdy aspekt pracy naszej firmy jest monitorowany i gdy posiadamy doświadczonych analityków danych.
Wartość pomiędzy 0 a 1
Problem, z którym zderzają się firmy to modelowanie swoich map procesów tylko na podstawie danych liczbowych lub – co gorsza – własnych przekonań. Choć na pierwszy rzut oka wykorzystanie danych liczbowych wydaje się logiczne i eleganckie, o tyle realne procesy biznesowe są bardziej złożone niż „0” i „1”. Odkrywaniem wartości pomiędzy 0 a 1 zajmujemy się w EDISONDA.
Przykładowo, jeśli zajmujemy się sprzedażą produktów i prześledzimy trasę dostarczania paczek z magazynu, możemy na podstawie suchych danych, stwierdzić, że paczki przetrzymywane są 2 dni dłużej w jednym z naszych magazynów niż w innych. Same dane mogą nie dać nam wystarczających informacji, czemu tak się dzieje i co z tym faktem zrobić.
Aby nadać kontekst tym danym, będziemy chcieli przyjrzeć się magazynowi z bliska. Po wstępnych wywiadach z pracownikami i analizie ścieżki takiej paczki możemy być zaskoczeni, że nie musimy wydawać dużych środków na autonomiczne roboty, a wystarczy jedynie zrezygnować z papierowych formularzy na rzecz sprawnego systemu informatycznego lub zaplanować nieco inaczej mały element procesu.
Tego typu historie pojawiają się w naszej pracy niemal codziennie. Firmy szukając oszczędności wpadają w większe koszty, inwestując w coś na fali popularności. Efektem często jest brak osiągnięcia zamierzonych efektów, a co za tym idzie, za drugim razem o wiele ciężej jest przekonać zespół do automatyzacji procesów, jeśli pierwsza próba skończyła się fiaskiem.
Process Discovery Workshops w wykonaniu EDISONDA
Process Discovery Workshop to coś, co według nas łączy ze sobą koncepcję Process miningu z warstwą badań jakościowych. Naszym celem jest szybkie zrozumienie potrzeb na automatyzację i sprawdzenie ich, a dopiero później wejście w tryby pełnoprawnego projektu.
Chodzi tu o wspomniane wcześniej wartości pomiędzy zerem a jedynką. Realne procesy biznesowe wymagają rozmów z zespołami, wywiadów i obserwacji tego, jak praca wygląda. Nie chcielibyśmy przecież automatyzować procesu, z którego ostatecznie nikt nie skorzysta, a jego koszt będzie większy, niż zakładano.
Podczas Process Discovery Workshops skupiamy się na połączeniu danych ilościowych i jakościowych. Całość składa się z 4 kroków milowych podzielonych na mniejsze zadania:
Krok 1: Pozyskanie informacji
Zanim przystąpimy do warsztatów, chcemy zrozumieć otoczenie biznesowe i to, jakim wycinkiem procesu będziemy chcieli się zająć. Zazwyczaj przybiera to formę tezy np. „Wierzymy, że automatyczne podsumowywanie faktur pozwoli nam przyśpieszyć cały proces akceptowania faktur kosztowych”.
Takich tez zbieramy więcej w obrębie danego wycinka procesu. Pozwala to nam przygotować warsztaty, gdzie wspólnie spróbujemy doprecyzować wymagania i cel zmian. Dla bardziej złożonych problemów dopytujemy też o to, jakie systemy są obecnie wykorzystywane i jakie powinny być integrowane ze sobą przy potencjalnej automatyzacji procesu.
Ponieważ warsztat polega jedynie na „naszkicowaniu” pierwszej mapy procesu, to taka wiedzy jest już dla nas wystarczająca, aby przejść do warsztatów.
Krok 2: Warsztaty
Pierwsze warsztaty trwają zazwyczaj ok. 4 godziny, podczas których skupiamy się na paru istotnych punktach:
- opisujemy cel(e) automatyzacji,
- wypisujemy potencjalne zagrożenia,
- wypisujemy aktorów procesu (Osoby lub systemy obecnie wykonujące pracę, którą pragniemy zautomatyzować),
- określamy kluczowe mierniki sukcesu projektu (KPI),
- spisujemy obecny wycinek procesu.
Po tych warsztatach jesteśmy tak na prawdę dopiero w stanie spróbować ocenić, które potencjalnie rozwiązanie (np. ML czy LLM) będzie najlepsze.
Krok 3: Pytania po warsztatach
Po warsztatach staramy się dopytać o niezbędne szczegóły. To tutaj jest miejsce na bardziej szczegółowe pytania np. o strukturę danych, potencjalny szum informacyjny, narzędzia jakie należy uwzględnić w automatyzacji itd.
Często zadawanie pytania to:
- Czy firma posiada wystarczające kompetencje wdrożeniowe po swojej stronie?
- Czy w związku z kwestiami prawnymi powinniśmy zwrócić na coś szczególną uwagę?
- W jakim budżecie się poruszamy?
Wszystko to prowadzi nas do kolejnego kroku czyli:
Krok 4: Rekomendacje
Rekomendacje zależą w głównej mierze od możliwości, ograniczeń i wyników warsztatów. Nasze rekomendacje zazwyczaj zawierają informacje o potencjalnym koszcie wdrożenia i utrzymania rozwiązania. Bez znaczenia, czy mówimy o usługach zewnętrznych, czy o postawieniu własnej architektury informatycznej dostosowanej do wykorzystania AI.
Wraz z rekomendacją tworzony jest schemat rozwiązania, który może przybierać różne formy. Od prostych, takich jak Service blueprint, kończąc na architekturze informatycznej i powiązaniach pomiędzy różnymi systemami.
Proces wdrożenia i Proof of concept
W zależności od wielkości projektów, wdrożenie może trwać od paru tygodni do paru miesięcy.
Jednym z pierwszych kamieni milowych jest wspomniany już wcześniej czynnik ludzki i wywiady z użytkownikami. To ten etap pozwala nam sprawdzić, czy założenia co do tego jak wygląda praca łączą się z tym, jak wyglądają realia. Z naszych doświadczeń wynika, że na tym etapie często musimy na krótki czas wstrzymać pracę, aby lepiej zrozumieć realne procesy biznesowe.
Kolejnym istotnym elementem wdrożenia jest zaplanowanie proof of concept, który pozwoli nam sprawdzić w praktyce, jak docelowe rozwiązanie może działać. Pozwala nam stosunkowo szybko sprawdzić zasadność wdrożenia nowej. Na tym etapie wstępnie wybieramy przetrenowane modele AI lub planujemy przepływ automatyzacji.
W przypadku sztucznej inteligencji jest to graniczny etap, podczas którego musimy już mieć dostęp do danych, które posłużą nam do dostosowania modelu lub podpięcia odpowiedniego systemu RAG (czyli systemu, który łączy się z wybraną przez nas bazą danych).
Ostatnim większym kamieniem milowym jest wdrożenie proof of concept. To na tym etapie testujemy to, jak dane rozwiązanie radzi sobie na danych testowych i, jeśli wszystko jest w porządku, to wdrażamy rozwiązanie szerzej w firmie.
O czym warto pamiętać wdrażając AI lub automatyzację w firmie?
Samo wykorzystanie maszyny nie rozwiązuje często problemów organizacyjnych. Żadna maszyna nie będzie w stanie prawidłowo skatalogować np. faktur, jeśli w firmie nie obowiązują pewne wzorce, na których możemy się oprzeć.
Poza oczywistymi problemami należy też pamiętać o potencjalnych barierach wykorzystania AI, m.in.
- Bariery biznesowe – to, jak AI wpływa na działanie naszego biznesu i postrzeganie go przez pracowników i klientów
- Bariery prawne – zależne od regionu, w którym planujemy wdrożyć automatyzacje lub system AI. Mowa tu m.in. o AI Act.
- Bariery technologiczne – czyli zagrożenia związane z tym, że niektóre rozwiązania związane w szczególności z modelami LLM, takimi jak ChatGPT, posiadają wady, których na razie technicznie nie potrafimy w 100% uniknąć.
- Bariery ekologiczne – wykorzystanie AI oznacza daleko idące skutki ekologiczne poprzez wykorzystanie prądu i zasobów do jego generowania. Dla przykładu, wygenerowanie 1000 obrazów za pomocą zaawansowanego modelu sztucznej inteligencji, takiego jak Stable Diffusion XL, odpowiada za mniej więcej tyle dwutlenku węgla, ile przejechanie 6,5 km przeciętnym samochodem o napędzie benzynowym.
Jak widać wykorzystanie AI i automatyzacji w celach komercyjnych może miejscami okazać się nie lada wyzwaniem. Process Discovery Workshop minimalizuje jednak ryzyko nieudanej inwestycji i skupia się na osiągnięciu konkretnych celów, nawet jeśli są one dopiero pierwszym krokiem na drodze do większej automatyzacji procesów biznesowych.