Jak zaprojektować system monitoringu maszyn z wykorzystaniem AI i internetu rzeczy (IoT)

0
16
Rate this post

Z tego wpisu dowiesz się:

Dlaczego w ogóle myśleć o monitoringu maszyn z AI i IoT?

Jakie problemy naprawdę chcesz rozwiązać?

Czy twoje maszyny psują się „nagle”, a ty i tak słyszysz od załogi, że „od tygodnia coś dziwnie chodziło”? Czy plan postoju linii produkcyjnej istnieje tylko na papierze, bo i tak rządzą go nieplanowane awarie? Jeżeli tak, monitoring maszyn z wykorzystaniem internetu rzeczy (IoT) i sztucznej inteligencji (AI) nie jest dla ciebie gadżetem, ale narzędziem do opanowania chaosu.

Typowe bóle głowy, które można adresować systemem monitoringu, to przede wszystkim:

  • nagłe awarie krytycznych maszyn – szczególnie tam, gdzie nie ma redundancji, a zatrzymanie jednej maszyny blokuje cały ciąg technologiczny,
  • częste mikropostoje, które nie są raportowane, ale skutecznie zjadają OEE,
  • słaba widoczność stanu technicznego – decyzje serwisowe oparte bardziej na przeczuciu niż na danych,
  • chaos w zarządzaniu częściami zamiennymi – zamawianie „na wszelki wypadek” albo przeciwnie, ciągłe braki i przyspieszone przesyłki.

Pytanie do ciebie: co dokładnie boli najbardziej – przestoje, koszty serwisu, czy nieprzewidywalność? Bez odpowiedzi na to pytanie bardzo łatwo zbudować system pełen danych, który nie zmieni nic w praktyce.

Różnica między ładnymi wykresami a efektem biznesowym

System monitoringu maszyn z AI i IoT potrafi generować dziesiątki paneli, wykresów, alarmów. Problem w tym, że część z nich służy bardziej do prezentacji na konferencji niż do codziennej pracy utrzymania ruchu. Kluczowy punkt wyjścia: z czym porównasz efekt tego systemu?

Najczęściej sensownymi wskaźnikami są:

  • OEE – całkowita efektywność wyposażenia; jeżeli monitoring ma sens, po kilku miesiącach powinieneś zauważyć mniejszy udział nieplanowanych przestojów,
  • MTBF i MTTR – średni czas między awariami i średni czas naprawy; modele predykcyjne skracają MTTR (lepsza diagnoza) i wydłużają MTBF (wcześniejsza reakcja),
  • koszty części zamiennych i usług zewnętrznych – zmiana z „gaszenia pożarów” na zaplanowane działania powinna wygładzić i docelowo obniżyć te koszty,
  • liczba interwencji awaryjnych – jeżeli wciąż dzwonisz po serwis w nocy, coś poszło nie tak w projekcie.

Zanim wybierzesz platformę IoT, czujniki czy modele AI, odpowiedz sobie: który z tych wskaźników chcesz ruszyć jako pierwszy? Bez tego zamiast systemu utrzymania ruchu zyskasz „centrum dowodzenia wykresami”.

Od prostego monitoringu do predykcyjnego utrzymania – po co ci AI?

Monitoring maszyn może mieć bardzo różny poziom dojrzałości. AI nie jest potrzebne wszystkim od razu. Jak to rozróżnić?

Monitoring reaktywny – masz proste sygnały: alarm temperatury, przekroczenie prądu, błąd z PLC. Reagujesz, gdy coś już jest nie tak. To poziom „zauważmy szybciej, że jest źle”.

Monitoring warunkowy (condition-based) – obserwujesz trendy: rosnącą temperaturę, zmieniające się drgania, rosnące czasy cyklu. Decyzje serwisowe podejmujesz na podstawie zmian, nie tylko przekroczeń progów. AI może pomóc w wykrywaniu subtelnych anomalii, ale wciąż dużo opiera się na ludzkiej interpretacji.

Monitoring predykcyjny (predictive maintenance) – na bazie historii danych i znanych awarii budujesz modele ML, które wskazują: „na tej maszynie ryzyko awarii łożyska w ciągu dwóch tygodni”. To już moment, w którym mówisz: „wiemy, kiedy zadziałać, zanim się zepsuje”. Tu AI jest sercem systemu.

Jeśli dopiero zaczynasz, zadaj sobie pytanie: czy najpierw potrzebujesz widzieć dane, czy już prognozować awarie? W wielu zakładach logicznym krokiem jest start od prostego monitoringu warunkowego i dopiero po kilku miesiącach przejście do modeli predykcyjnych.

Przykład małego zakładu, który zaczął od jednego silnika

W średniej wielkości zakładzie produkcyjnym kierownik utrzymania ruchu miał jeden szczególny problem: krytyczny wentylator wyciągowy w procesie, którego awaria zatrzymywała całą produkcję. Zamiast wdrażać IoT wszędzie, zespół zdecydował się na pilotaż na jednym silniku:

  • zamontowano czujnik drgań i temperatury na łożyskach wentylatora,
  • zastosowano proste urządzenie brzegowe zbierające dane i wysyłające je do lokalnego serwera,
  • ustanowiono progi alarmowe i prosty model wykrywający nagłą zmianę charakterystyki drgań.

Po kilku miesiącach udało się złapać dwie sytuacje, w których łożysko „wstawało bokiem” i można było zaplanować wymianę w czasie postoju weekendowego. Zamiast wielkiej transformacji, zespół dostał konkretny dowód, że nawet mały, dobrze dobrany projekt potrafi wprost uniknąć poważnej awarii. Pytanie do ciebie: czy masz w swoim parku maszynowym taki „krytyczny wentylator”?

Laboratoryjne stanowisko z zaawansowanymi maszynami przemysłowymi
Źródło: Pexels | Autor: Ludovic Delot

Na czym polega system monitoringu maszyn – od czujnika po decyzję?

Łańcuch wartości: od maszyny do decyzji serwisowej

Żeby nie utknąć w szczegółach technicznych, dobrze jest patrzeć na system monitoringu maszyn jak na prosty łańcuch:

maszyna → czujnik → urządzenie brzegowe (edge) → sieć → platforma danych (serwer / chmura) → model AI / algorytmy → człowiek lub system CMMS.

Co to oznacza w praktyce?

  • Maszyna – fizyczne urządzenie: silnik, prasa, pompa, wentylator, linia pakująca.
  • Czujnik – „oczy i uszy” systemu: zbiera informacje o drganiach, temperaturze, prądzie, ciśnieniu itd.
  • Urządzenie brzegowe – mały komputer (gateway, sterownik, moduł IoT), który zczytuje dane z czujników, wstępnie je przetwarza i wysyła dalej.
  • Sieć – przewodowa lub bezprzewodowa komunikacja (Ethernet, Wi-Fi, sieć przemysłowa, 4G/5G).
  • Platforma danych – system, w którym dane są gromadzone, przechowywane i udostępniane (baza czasowa, broker MQTT, system SCADA z modułem danych, platforma chmurowa).
  • Model AI / algorytmy – logika, która z danych wyciąga wnioski: wykrywa anomalie, trend zużycia, klasyfikuje typy usterek.
  • Człowiek / CMMS – utrzymanie ruchu, planista lub system do zarządzania utrzymaniem (CMMS), który przekształca alarm w zlecenie pracy.

Pytanie kontrolne: na którym etapie tego łańcucha masz dziś największą lukę – brak danych, brak obróbki, czy brak decyzji?

Typy danych z maszyn: co ma sens w twoim przypadku?

Świat czujników daje ogromne możliwości, ale nie każde źródło danych przyniesie realną wartość. Najczęstsze typy danych w systemach monitoringu maszyn to:

  • Drgania – klasyka diagnostyki łożysk, niewyważenia, niewspółosiowości. Dobre dla silników, wentylatorów, pomp, przekładni.
  • Temperatura – przegrzewanie się silników, przekładni, układów hydraulicznych, elektroniki.
  • Prąd / energia – przeciążenia, zablokowania ruchu, zmiany charakterystyki pracy.
  • Ciśnienie i przepływ – pompy, instalacje hydrauliczne i pneumatyczne, filtry, układy chłodzenia.
  • Dźwięk – detekcja nietypowych odgłosów, kawitacji, luzów; często wykorzystywany w połączeniu z AI.
  • Logi PLC i SCADA – błędy, stany awaryjne, tryby pracy, zmiany nastaw, sekwencje start/stop.

Zanim zaczniesz kupować czujniki, odpowiedz na pytanie: jaką awarię chcesz wykryć wcześniej i która wielkość fizyczna „zdradza” jej nadejście? Przykładowo, zużycie łożyska będzie bardziej widoczne w sygnale drgań niż w temperaturze, która podnosi się dopiero na późnym etapie.

Monitoring online, pomiary okresowe i inspekcje ręczne

Monitoring maszyn z wykorzystaniem IoT kojarzy się z pracą online – dane spływają ciągle, a alerty są generowane w czasie zbliżonym do rzeczywistego. Nie zawsze jednak jest to konieczne. Masz kilka możliwości:

  • Monitoring online – ciągłe zbieranie danych, idealne dla maszyn krytycznych, pracujących non stop, gdzie liczy się reakcja w ciągu minut lub godzin.
  • Pomiary okresowe – np. raz dziennie, raz na zmianę, raz w tygodniu. Wystarczające dla urządzeń o wolno narastających uszkodzeniach.
  • Inspekcje ręczne – przeglądy realizowane przez diagnostów z przenośnymi miernikami (drgań, temperatury), uzupełnione notatkami w systemie.

Pytanie: jak szybko naprawdę musisz reagować na problemy na danej maszynie? Czasem nadmiernie rozbudowany monitoring online generuje mnóstwo danych i kosztów, a wystarczyłby sensownie zorganizowany pomiar okresowy z wykorzystaniem prostych urządzeń IoT.

Po więcej kontekstu i dodatkowych materiałów możesz zerknąć na praktyczne wskazówki: informatyka.

Ostrzeżenia „wcześniej” czy lepsza diagnoza „po fakcie”?

AI w systemach monitoringu maszyn może mieć dwa główne zadania:

  • wczesne ostrzeganie – wykrywanie subtelnych zmian w danych, zanim przekroczą klasyczne progi alarmowe,
  • lepsza diagnoza po awarii – analiza danych z okresu przed awarią, klasyfikacja przyczyn (root cause), budowanie wiedzy na przyszłość.

Jeśli twoje awarie są rzadkie, ale bardzo kosztowne, możesz skupić się na wczesnym ostrzeganiu. Jeżeli awarie zdarzają się często, a największym problemem jest powtarzalność i brak nauki z przeszłości – lepsza analiza po fakcie (logów, trendów, sygnałów) może przynieść większy zysk na początek. Zastanów się: czy chcesz przede wszystkim zapobiegać, czy rozumieć? Oba cele są ważne, ale inaczej wpływają na projekt systemu.

Diagnoza startowa: które maszyny i procesy w ogóle monitorować?

Inwentaryzacja parku maszynowego z myślą o IoT

Zanim kupisz pierwszy czujnik, zrób ćwiczenie przy biurku i na hali. Spisz listę kluczowych maszyn i zadaj do każdej z nich kilka pytań:

  • Jak krytyczna jest ta maszyna dla produkcji (czy jest obejście/redundancja)?
  • Jak często ulega awariom i z jakich przyczyn?
  • Jaki jest koszt przestoju tej maszyny na godzinę lub dzień (utracona produkcja, kary, nadgodziny)?
  • Jak łatwo jest zapewnić dostęp fizyczny do montażu czujników (bezpieczeństwo, warunki środowiskowe)?
  • Jak wygląda dostępność części zamiennych i czas ich dostawy?

To pierwsze, bardzo proste spojrzenie na priorytety. Czy już masz taką listę w formie arkusza lub w systemie CMMS? Jeśli nie – to pierwszy konkretny krok, który możesz wykonać jeszcze przed rozmową z dostawcą IoT.

Prosty scoring maszyn – tabela priorytetów

Aby zbudować logiczną kolejność wdrażania monitoringu, można zastosować prosty scoring. Przykładowa tabela może wyglądać następująco:

MaszynaRyzyko awariiKoszt przestojuDostępność częściHistoria usterekPriorytet monitoringu
Linia pakująca 1WysokieWysokiŚredniaCzęsteBardzo wysoki
Sprężarka powietrzaŚrednieWysokiDobraŚrednieWysoki
Pompa obiegowa 3NiskieNiskiDobraRzadkieNiski

Możesz ten schemat uprościć do skali punktowej (np. 1–3 lub 1–5) i policzyć sumę albo wagę ważniejszych kryteriów. Pytanie do ciebie: czy potrafisz jednym zdaniem uzasadnić, dlaczego dana maszyna ma iść „na monitorowanie” jako pierwsza?

Najpierw „wąskie gardła”, dopiero potem „reszta świata”

Dobrym filtrem startowym jest proste pytanie: co zatrzyma produkcję najszybciej i na najdłużej? Tam zazwyczaj powinien wylądować pierwszy projekt IoT. W praktyce często są to:

  • główne linie pakujące lub rozlewnicze (bo bez nich nie ma wysyłki),
  • centralne media: sprężone powietrze, para, chłód technologiczny,
  • maszyny z bardzo długim czasem rozruchu lub skomplikowanym przezbrojeniem.

Zadaj sobie jeszcze jedno pytanie: gdzie dziś najczęściej „gasicie pożary” na telefon od produkcji? To bardzo dobry kandydat do pilotażu monitoringu.

Procesy technologiczne vs. pojedyncze maszyny

Niektóre awarie nie biorą się z jednej maszyny, ale z całego łańcucha procesu. Przykład: jakość produktu spada, bo:

  • temperatura medium jest za niska,
  • przepływ jest niestabilny,
  • czas cyklu w jednej sekcji się wydłuża.

Czy w takim przypadku monitorować każdą maszynę osobno, czy cały proces? Odpowiedź zależy od tego, gdzie chcesz podejmować decyzję:

  • jeśli priorytetem jest utrzymanie jakości – skup się na parametrach procesu (temperatura, czas, przepływ, ciśnienia),
  • jeśli priorytetem jest unikanie twardych awarii – wejdź głębiej w podzespoły maszyn (łożyska, przekładnie, napędy).

Dobrze jest wybrać 1–2 procesy „przekrojowe” (np. wytwarzanie medium, proces mycia CIP, linia mieszania) i zastanowić się: które trzy parametry musiałbym widzieć na ekranie, żeby spać spokojniej?

Panel sterowania maszyną z wyświetlaczem cyfrowym i ikonami bezpieczeństwa
Źródło: Pexels | Autor: Freek Wolsink

Czujniki i hardware: co wybrać, żeby nie przedobrzyć?

Minimum sensownych czujników na start

Typowy błąd wdrożeń IoT to „choinka z czujników”: wszystko mierzone, nic wykorzystane. Rozsądniejsze podejście to minimum sensownego zestawu. Co to może oznaczać w praktyce?

  • Na silnikach, pompach, wentylatorach – 1–3 punkty drganiowe + temperatura obudowy.
  • Na przekładniach – drgania na obudowie + temperatura oleju (albo czujnik poziomu/ciśnienia oleju).
  • Na sprężarkach – ciśnienie na wejściu/wyjściu, temperatura, kilka punktów drganiowych na zespole napędowym.
  • Na pompach procesowych – przepływ, ciśnienie różnicowe, sygnał prądu silnika.

Zapytaj siebie: czy wiem, jakie zjawisko chcę uchwycić tym czujnikiem? Jeżeli nie potrafisz tego nazwać (np. kawitacja, przegrzanie, niewyważenie), być może dany pomiar jest na razie „ładnym dodatkiem”, a nie koniecznością.

Czujniki przewodowe czy bezprzewodowe?

Decyzja „kabel czy radio” zależy od kilku praktycznych czynników. W skrócie:

  • Przewodowe – stabilne, nie wymagają baterii, dobre do nowych instalacji lub tam, gdzie kable i tak prowadzone są w korytach kablowych.
  • Bezprzewodowe – szybszy montaż, mniejsze ingerencje w instalację, ale trzeba liczyć się z bateriami, zasięgiem i zakłóceniami.

Zastanów się nad trzema pytaniami:

  1. Jak długo ma działać system bez ingerencji (wymiany baterii, serwisu)?
  2. Jak trudne i kosztowne jest prowadzenie nowych kabli w danym miejscu?
  3. Jak krytyczne są dane w czasie – czy mierzenie co 5 minut zamiast co sekundę coś zmienia?

Dla wielu zastosowań predykcyjnych wystarczy próbkowanie okresowe (np. co 10–15 minut próbka drgań, temperatura co minutę). To otwiera drogę do tańszych czujników bezprzewodowych z dłuższą żywotnością baterii.

Klasy środowiskowe i bezpieczeństwo ATEX

Fabryka to nie biuro. Kurz, woda, wibracje konstrukcji, wysokie i niskie temperatury, strefy zagrożone wybuchem – to wszystko wpływa na wybór sprzętu. Podstawowe pytania kontrolne:

  • Czy miejsce montażu wymaga IP65/IP67 lub wyżej (mycie ciśnieniowe, pył)?
  • Czy masz strefy ATEX (pyły, gazy palne) i czy sprzęt musi mieć odpowiednie certyfikaty?
  • Czy urządzenie będzie narażone na silne drgania mechaniczne lub udary (np. na prasie)?

Jeśli odpowiedź na któreś pytanie brzmi „tak”, w specyfikacji czujników od razu filtruj po odpowiednich klasach – inaczej pozorna oszczędność zamieni się w serię awarii samego systemu monitoringu.

Edge: małe komputery, duże decyzje

Czujniki to dopiero początek. Gdzieś pomiędzy maszyną a chmurą pojawia się urządzenie brzegowe (edge):

  • zbiera sygnały z kilku–kilkudziesięciu czujników,
  • wstępnie filtruje dane (np. usuwa szum, wylicza proste cechy: RMS, max, min),
  • czasem uruchamia proste algorytmy AI lokalnie, bez wysyłania wszystkiego do chmury,
  • komunikuje się z siecią fabryczną i/lub internetem.

Przed wyborem konkretnego hardware’u zadaj trzy pytania:

  1. Jakie interfejsy potrzebujesz: analogowe (4–20 mA), cyfrowe, Modbus, Profinet, OPC UA, MQTT?
  2. Czy chcesz mieć możliwość lokalnej analizy (Linux, Docker, Python) czy wystarczy prosty gateway?
  3. Jak zamierzasz aktualizować oprogramowanie na tych urządzeniach (zdalnie czy ręcznie)?

Jeśli już dziś korzystasz z określonej marki sterowników PLC, rozejrzyj się, czy ten producent nie ma modułów IoT lub edge, które łatwo zintegrujesz. Czasem lepiej mieć jeden ekosystem niż dziesięć „pudełek” od różnych dostawców.

Integracja z istniejącym PLC vs. dodatkowy system

Przed tobą wybór: dokleić monitoring do istniejących sterowników, czy postawić go zupełnie obok?

  • Integracja z PLC – wykorzystanie istniejących wejść, sygnałów i logiki. Mniej nowych pudełek, ale trzeba uważać, żeby nie obciążyć sterownika odpowiedzialnego za sterowanie.
  • Osobny system IoT – czujniki idą do dedykowanych gatewayów, które tylko „podsłuchują” i analizują. Większa niezależność, ale więcej elementów do utrzymania.

Zapytaj automatyków: na ile komfortowo czują się z dołożeniem kolejnych zadań do obecnych PLC? Jeśli odpowiedź jest pełna obaw, bezpieczniejsze będzie odseparowanie warstwy monitoringu od sterowania procesem.

Stary przemysłowy panel sterowania z licznikami w pomieszczeniu technicznym
Źródło: Pexels | Autor: Paul Lichtblau

Architektura systemu IoT w fabryce: od sterownika PLC do chmury

Warstwa fizyczna, logiczna i biznesowa – trzy spojrzenia

Żeby nie zagubić się w kablach i protokołach, przydatny bywa podział architektury na trzy warstwy:

  • Fizyczna – czujniki, kable, urządzenia edge, routery, switche.
  • Logiczna – protokoły komunikacyjne, topic’i MQTT, modele danych, integracje z PLC/SCADA.
  • Biznesowa – aplikacje, raporty, integracja z CMMS/ERP, powiadomienia, dashboardy.

Zastanów się, w której warstwie masz dziś największy chaos. Czy brakuje kabla do maszyny, czy raczej pomysłu, jak dane z tej maszyny mają wyglądać w systemie utrzymania ruchu?

Topologia: punkt–punkt czy hub–spoke?

Prosta instalacja pilotażowa często przypomina połączenia punkt–punkt: czujnik → gateway → serwer. Gdy jednak zaczynasz dodawać kolejne maszyny, potrzebujesz struktury:

  • kilka–kilkanaście gatewayów zbierających dane z grup maszyn,
  • jeden wspólny broker danych (np. MQTT) lub bus przemysłowy,
  • centralną platformę bazodanową (lokalną lub w chmurze).

Dobra praktyka: kategoryzuj urządzenia edge według obszarów produkcji (hala 1, hala 2, linia X). Ułatwia to zarówno zarządzanie siecią, jak i późniejsze analizy – szybciej zobaczysz, że np. jedna hala ma większe problemy z jakością zasilania.

W tym miejscu przyda się jeszcze jeden praktyczny punkt odniesienia: Testy modeli w warunkach przemysłowych: drift, zmiana partii materiału i sezonowość.

Komunikacja: klasyczne protokoły automatyki czy MQTT?

W świecie IoT często pojawia się skrót MQTT – lekki protokół oparty na modelu publish–subscribe. Jak to pogodzić z istniejącymi standardami typu Modbus, Profinet czy OPC UA?

  • Poziom maszyna–edge: dominują protokoły automatyki (Modbus, Profinet, Profibus, CAN), sygnały analogowe i dyskretne.
  • Poziom edge–platforma danych: tutaj dobrze sprawdza się MQTT lub HTTP/REST, zwłaszcza gdy dane mają trafić do chmury.
  • Integracja z SCADA/PLC: często przez OPC UA lub natywne drivery producentów.

Jeśli zaczynasz od zera, sensownym kierunkiem jest: użyć tego, co już masz na poziomie sterowania, a dopiero wyżej standaryzować komunikację (np. wszystko zasilane do chmury przez MQTT i ujednolicony schemat topiców).

Lokalnie, w chmurze czy hybrydowo?

Decyzja o miejscu przetwarzania danych bywa polityczna, ale technicznie sprowadza się do kilku pytań:

  • Czy masz stabilne i bezpieczne połączenie z internetem o odpowiedniej przepustowości?
  • Czy wymagania bezpieczeństwa (np. branża chemiczna, farmacja) dopuszczają wyniesienie danych do chmury publicznej?
  • Czy potrzebujesz niskich opóźnień (reakcje w sekundach) czy wystarczy analiza po czasie (minuty, godziny)?

Najpraktyczniejszy w wielu zakładach bywa model hybrydowy:

  • podstawowe dane i proste alarmy są dostępne lokalnie (SCADA, serwer w zakładzie),
  • szersza historia i cięższe analizy AI działają w chmurze, dokąd wysyłane są dane zagregowane i zanonimizowane.

Zadaj sobie pytanie: czego się najbardziej obawiasz – braku internetu, RODO/kontrahentów, czy kosztów serwerów lokalnych? Od tego zwykle zaczyna się racjonalna rozmowa o architekturze.

Bezpieczeństwo: segmentacja sieci i dostęp zdalny

IoT kusi możliwością zdalnego podglądu maszyn z domu czy z biura centrali. Zanim jednak otworzysz bramę na szeroko, uporządkuj podstawy bezpieczeństwa:

  • Segmentacja sieci – oddziel sieć produkcyjną (OT) od biurowej (IT) oraz od internetu.
  • Dostęp zdalny przez VPN – żadnych otwartych portów na surowo do urządzeń edge.
  • Kontrola uprawnień – kto może tylko oglądać dane, a kto ma prawo zmieniać konfigurację, progi alarmowe, firmware?

Porozmawiaj z działem IT/bezpieczeństwa: jakie są twarde zasady, których nie możesz naruszyć? Dużo lepiej dopasować się do nich od razu niż później gasić konflikt między produkcją a IT.

Dane, które mają sens: jak je zbierać, oczyszczać i opisywać?

Strumienie, serie czasowe i „zdjęcia” stanu

Dane z maszyn mogą wyglądać bardzo różnie. Żeby nie robić z tego magii, rozbij to na trzy kategorie:

  • Strumienie ciągłe – np. drgania, prądy, dźwięk; dużo próbek na sekundę.
  • Serie czasowe wolniejsze – temperatura, ciśnienie, przepływ mierzone co kilka sekund lub minut.
  • „Zdjęcia” stanu – logi zdarzeń z PLC, statusy alarmów, informacje o zleceniach produkcyjnych.

Zapytaj siebie: które z tych danych są naprawdę potrzebne w wysokiej rozdzielczości? Być może nie musisz trzymać surowego sygnału drgań z ostatnich dwóch lat, a wystarczą wyliczone cechy (np. RMS, pasmo łożyskowe) plus fragmenty sygnału wokół podejrzanych zdarzeń.

Jak często próbkujesz – częściej nie znaczy lepiej

Spotykane często podejście „zbieramy wszystko co sekundę” kończy się szybko problemami z:

  • przepustowością sieci,
  • Redukcja danych u źródła: agregacja, cechy, okna czasowe

    Jeśli próbkujesz szybko, nie musisz wszystkiego przechowywać w oryginale. Zastanów się: która postać sygnału jest użyteczna do decyzji?

    Najczęstsze podejście to redukcja danych na poziomie edge lub tuż po wejściu do platformy:

  • Agregaty czasowe – co 1 s / 10 s / 1 min liczysz średnią, minimum, maksimum, odchylenie standardowe.
  • Cechy sygnału – dla drgań: RMS, kurtosis, crest factor, energia w wybranych pasmach; dla prądów: THD, współczynnik mocy.
  • Okna zdarzeniowe – pełny, surowy sygnał przechowujesz tylko w krótkich oknach przed/po zdarzeniu (alarm, zatrzymanie, przekroczenie progu).

Pomyśl: co musi zostać „na zawsze”, a co wystarczy w formie zagregowanej? Często dobrze działa model: 7–30 dni surowych danych + długoterminowa historia zredukowana do cech.

Synchronizacja danych z wielu źródeł

Monitoring maszyn to nie tylko jeden czujnik. Masz drgania, prądy, temperatury, a do tego logi z PLC i zlecenia z MES. Jak to ze sobą pożenić?

Kluczem jest wspólna oś czasu i choćby minimalne informacje kontekstowe. Zadaj sobie pytanie: czy potrafisz dziś odpowiedzieć, co działo się na maszynie w momencie konkretnej awarii?

Praktyczne kroki:

  • Ustal źródło prawdy dla czasu – np. serwer NTP, z którym synchronizujesz PLC, edge, bazy danych.
  • Dla każdego pomiaru zapisuj nie tylko wartość, ale też znacznik czasu z dokładnością adekwatną do procesu (czasem wystarczy sekunda, czasem trzeba milisekund).
  • Łącz sygnały procesowe z informacją o stanie maszyny (bieg jałowy, produkcja, czyszczenie, przezbrojenie) – inaczej model AI będzie mieszał różne tryby pracy.

Jeśli dziś masz w logach tylko „awaria – 13:07”, a sygnały z czujników opisane jako „pomiar nr 1234”, zacznij od prostego kroku: dorzucenie spójnych timestampów do wszystkich strumieni.

Jakość danych: błędy, braki, „dziury” w historii

Każdy system monitoringu prędzej czy później złapie „dziury” w danych. Zaniki zasilania, problemy z siecią, reset PLC. Pytanie: jak sobie z tym radzisz?

Podstawowe techniki:

  • Oznaczanie braków – zamiast „ciszy” w danych zapisuj brak (null) lub specjalny kod. To istotne, bo model AI powinien wiedzieć, że tu czegoś nie zmierzono, a nie że było równe zero.
  • Prosta imputacja – dla wolnych serii czasowych czasem wystarczy interpolacja liniowa lub ostatnia znana wartość (LOCF). Ustal jednak, dla jak długiej „dziury” to ma sens.
  • Raporty jakości danych – ile procent czasu w tygodniu masz pełne dane? Z której maszyny dane uciekają najczęściej? Bez takiej „tablicy wstydu” problemy ciągną się miesiącami.

Jeśli dopiero zaczynasz, na początek wystarczy jedno pytanie zadane co miesiąc: jaką część czasu mam komplet danych z kluczowych maszyn? Jeśli odpowiedź jest poniżej 80–90%, trzeba poprawić fundament, zanim zaczniesz stroić modele.

Standaryzacja nazw i metadanych

Bez wspólnego języka monitoring szybko zamieni się w zlepek wysp. Każdy czujnik nazywany inaczej, każda linia ma „swoje” definicje alarmów. Jak u ciebie nazywa się ten sam typ sygnału na różnych maszynach?

Przyda się minimalny słownik pojęć i konwencji nazewniczej:

  • Identyfikatory maszyn (np. HALA1-LINIA3-M1).
  • Typy sygnałów (TEMP, VIB, CURR, SPEED, STATUS).
  • Lokalizacja na maszynie (np. LOZYSKO_NAPED_WEJSCIE, SILNIK_GLOWNY).

Przykładowa nazwa punktu pomiarowego może wyglądać tak: HALA1.L3.M1.VIB.LOZYSKO_WEJSCIE.RMS. Czy twoje obecne nazwy pozwalają odgadnąć, co to za pomiar, bez szukania w dokumentacji?

Ustal też podstawowe metadane dla każdego sygnału:

  • jednostka (°C, mm/s, A),
  • zakres normalny i zakres alarmowy,
  • częstotliwość próbkowania,
  • typ czujnika i jego lokalizacja.

Taka „książka telefoniczna” sygnałów na początku bywa uciążliwa do spisania, ale później ratuje godziny przy wdrażaniu kolejnych analityków i integracji.

Budowa modelu danych pod analitykę i AI

Nawet najlepsze modele AI nie poradzą sobie z chaosem w danych. Pytanie startowe: jakie pytania biznesowe chcesz zadawać danym? Inaczej zaprojektujesz bazę pod detekcję anomalii w drganiach, a inaczej pod analizy OEE.

Kilka sprawdzonych wzorców:

  • Baza szeregów czasowych (np. InfluxDB, TimescaleDB) – dobra do surowych i zagregowanych pomiarów, gdy kluczowa jest oś czasu.
  • Data lake – do przechowywania miksu danych: logi, pliki audio, dane z CMMS, dokumentacja techniczna; później możesz z tego korzystać w modelach NLP lub zaawansowanej analityce.
  • Warstwa semantyczna – słownik pojęć, model obiektowy (maszyna, linia, hala, zamówienie, zlecenie serwisowe), na którym budujesz raporty i reguły decyzyjne.

Zastanów się: czy dziś potrafisz łatwo prześledzić ścieżkę: awaria → sygnały z czujników → historię serwisową → partię produkcji? Jeśli nie, właśnie tu przyda się lepszy model danych, niekoniecznie bardziej skomplikowane algorytmy.

Przygotowanie danych do modeli AI

Gdy fundament danych jest w miarę stabilny, pojawia się pytanie: jak je przygotować, żeby AI miało z czego „uczyć się” stanu maszyny?

Praktyczny workflow bywa podobny:

  1. Wybór okien czasowych – np. 10-sekundowe fragmenty sygnału drgań, zsynchronizowane z innymi sygnałami (prąd, temperatura, stan PLC).
  2. Ekstrakcja cech – wyliczenie statystyk, cech w dziedzinie częstotliwości, wskaźników jakości pracy (np. liczba restartów w ostatnich 30 minutach).
  3. Etykietowanie – oznaczenie okien jako „praca normalna”, „awaria łożyska”, „nieprawidłowe smarowanie” itp. Tu niezwykle potrzebna jest współpraca z utrzymaniem ruchu.
  4. Balansowanie klas – awarie są rzadkie, więc dane „normalne” trzeba często przycinać lub wzbogacać dane awaryjne (np. poprzez augmentację sygnału).

Zadaj sobie pytanie: kto u ciebie będzie etykietował dane? Bez czasu poświęconego przez praktyków żaden zespół data science sam nie odróżni „dziwnego, ale normalnego” od „naprawdę groźnego” sygnału.

Jak łączyć dane procesowe z danymi serwisowymi

Monitoring ma sens, gdy przekłada się na działania: przeglądy, naprawy, modyfikacje procedur. Czy dziś twoje dane z CMMS/serwisu „widzą się” z danymi z czujników?

Sprawdza się prosty model integracji:

  • Każda maszyna ma jeden, spójny identyfikator w systemie monitoringu i w CMMS.
  • Zlecenia serwisowe zawierają czas wystąpienia problemu, typ usterki, wymienione części, przyczynę źródłową.
  • System IoT zapisuje link do zlecenia przy danych z okresu poprzedzającego awarię.

Zapytaj zespół UR: czy przy każdym większym uszkodzeniu opisujecie, jak wyglądały sygnały tuż przed awarią? Jeśli nie, to dobra okazja, żeby zmienić formularze w CMMS lub dodać prostą checklistę.

Wersjonowanie konfiguracji i modeli

Gdy system zaczyna żyć, zmieniają się progi alarmowe, dodajesz nowe czujniki, aktualizujesz modele AI. Później pojawia się pytanie: dlaczego model „kiedyś działał lepiej”?

Pomaga proste podejście do wersjonowania:

  • Konfiguracja czujników i progów trzymana w repozytorium (np. Git) lub w wersjonowanej bazie konfiguracji.
  • Modele AI z nadanymi numerami wersji, opisem danych treningowych, datą wdrożenia i rollbackiem.
  • Dziennik zmian – co i kiedy zmodyfikowano, kto zatwierdził, jak zmieniła się skuteczność alarmów.

Pomyśl: czy dziś jesteś w stanie odtworzyć konfigurację systemu sprzed pół roku? Jeśli nie, zacznij chociaż od zapisywania snapshotów konfiguracji przy większych zmianach.

Testowanie systemu na danych historycznych

Zanim dasz nowemu systemowi prawo do wywoływania alarmów na produkcji, dobrze jest go „przepuścić” przez historię. Masz w ogóle dane z okresów, gdy występowały prawdziwe awarie?

Prosty scenariusz testów:

  1. Wybierz kilka dobrze udokumentowanych przypadków awarii (z datą, typem usterki, skutkami).
  2. Wyciągnij dane z czujników z okresu np. 7–14 dni przed awarią.
  3. Uruchom nowy algorytm/konfigurację „wstecz” i sprawdź:
    • czy alarm w ogóle się pojawił,
    • z jakim wyprzedzeniem,
    • ile było fałszywych alarmów w porównywalnych okresach „zdrowej” pracy.

Jeśli nie masz jeszcze sensownej historii danych, zacznij od prostszych reguł i stopniowo zbieraj materiał do strojenia bardziej zaawansowanych modeli.

Projektowanie alarmów i progów decyzyjnych

Każdy system monitoringu może albo pomagać, albo zasypywać ludzi alertami. Pytanie dla ciebie: ile alarmów dziennie jest jeszcze użyteczne, a od jakiej liczby operator przestaje reagować?

Dobrze sprawdza się podejście warstwowe:

  • Poziom informacyjny – sygnały typu „trend się pogarsza”, ale bez wymogu działania. Dostępne głównie dla inżynierów utrzymania ruchu.
  • Poziom ostrzegawczy – komunikaty „zaplanuj interwencję”, z określonym horyzontem (np. w ciągu tygodnia).
  • Poziom krytyczny – „wstrzymaj produkcję” lub „ryzyko natychmiastowej awarii”. Tu każde fałszywe wywołanie kosztuje.

Dobrą praktyką jest okres strojenia progów bez wysyłania alarmów na halę. Przez miesiąc–dwa logujesz „symulowane” alarmy i analizujesz, co by się stało, gdyby były prawdziwe. Dzięki temu masz konkretną bazę do korekty czułości.

Interfejsy dla ludzi: dashboardy, raporty, powiadomienia

Nawet najlepiej zaprojektowany system danych nie zadziała, jeśli ludzie nie będą z niego korzystać. Kto w twoim zakładzie ma być głównym „użytkownikiem” monitoringu: operator, mistrz zmiany, inżynier UR, dyrektor produkcji?

Do kompletu polecam jeszcze: Które czujniki ruchu działały cały rok na baterii? — znajdziesz tam dodatkowe wskazówki.

Każda z tych osób potrzebuje czegoś innego:

  • Operator – prosty widok stanu maszyny, czytelne kolory, jasne komunikaty „co zrobić teraz?”.
  • Mistrz / kierownik – przegląd linii/obszaru, lista otwartych problemów, priorytety, trend awarii.
  • Inżynier UR – detale techniczne: wykresy drgań, historia alarmów, dane przed/po interwencji.
  • Menedżment – wskaźniki OEE, koszty przestojów, efekty wdrożonych działań predykcyjnych.

Zanim zamówisz pierwsze dashboardy, zadaj każdej grupie jedno pytanie: jaką decyzję chcesz podejmować na podstawie tych ekranów? Dopiero wtedy projektuj widoki i reguły powiadomień (email, SMS, aplikacja mobilna).

Iteracyjne wdrażanie – od pilota do standardu

System monitoringu z AI i IoT rzadko działa idealnie od pierwszego dnia. Kluczowe jest, jak planujesz kolejne kroki: masz w głowie mapę dojścia od jednej maszyny do całego zakładu?

Sprawdza się podejście etapowe:

  1. Pilot na 1–3 maszynach krytycznych – skupiasz się na jakości danych, stabilności połączeń, sensowności alarmów.
  2. Najczęściej zadawane pytania (FAQ)

    Od czego zacząć wdrażanie monitoringu maszyn z IoT i AI w małym lub średnim zakładzie?

    Na początek odpowiedz sobie na dwa pytania: jaki konkretny problem chcesz rozwiązać (nagłe awarie, mikropostoje, koszty serwisu?) i która maszyna boli najbardziej. Bez tego szybko skończysz z „ładnymi wykresami”, które niczego nie zmieniają w produkcji.

    Praktyczny start to mały pilotaż na jednej, maksymalnie kilku krytycznych maszynach. Wybierz sprzęt, którego zatrzymanie wstrzymuje linię, załóż podstawowe czujniki (np. drgania i temperatura na łożyskach silnika), zbierz dane przez kilka tygodni i ustaw proste alarmy. Gdy zobaczysz, że prognozy faktycznie pomagają zaplanować postój, dopiero wtedy myśl o skalowaniu.

    Jakie wskaźniki (KPI) mierzyć, żeby sprawdzić, czy system monitoringu ma sens biznesowy?

    Najpierw zdecyduj, co chcesz ruszyć jako pierwsze: dostępność maszyn, koszty serwisu, czy liczbę nagłych awarii. Inny KPI będzie kluczowy dla dyrektora produkcji, a inny dla szefa utrzymania ruchu. Jakie dane o przestojach masz dziś w ogóle zebrane?

    Najczęściej stosuje się: OEE (zwłaszcza udział nieplanowanych przestojów), MTBF i MTTR (jak często i jak długo trwa awaria), koszty części zamiennych i usług zewnętrznych oraz liczbę interwencji awaryjnych poza planem. Porównaj te wartości z okresem przed wdrożeniem systemu – jeżeli nie widzisz różnicy po kilku miesiącach, trzeba skorygować cele albo konfigurację monitoringu.

    Jak dobrać czujniki do monitoringu maszyn – jakie pomiary mają największy sens?

    Najpierw zadaj sobie pytanie: jaką awarię chcesz złapać wcześniej i co ją „zdradza” w fizyce maszyny. Inny czujnik sprawdzi się przy zużyciu łożyska, a inny przy problemach z filtrami czy hydrauliką.

    Typowe wybory to: drgania (łożyska, niewyważenie, niewspółosiowość w silnikach, pompach, wentylatorach), temperatura (przegrzewanie silników i przekładni), prąd/energia (zablokowanie ruchu, przeciążenia), ciśnienie i przepływ (pompy, układy hydrauliczne, filtry) oraz logi PLC/SCADA (błędy, tryby pracy). Zacznij od 1–2 wielkości, które są najbardziej powiązane z awariami, które realnie generują dziś przestoje.

    Jaka jest różnica między prostym monitoringiem a predykcyjnym utrzymaniem ruchu z AI?

    Podstawowy monitoring reaktywny to sygnały typu: przekroczona temperatura, błąd z PLC, zbyt wysoki prąd. Dowiadujesz się, że jest źle, gdy problem już wystąpił. Monitoring warunkowy idzie krok dalej – patrzysz na trendy w czasie, np. rosnące drgania czy czasy cyklu, i reagujesz, gdy widzisz zmianę zachowania maszyny.

    Predykcyjne utrzymanie ruchu wykorzystuje historię danych i modele ML, by oszacować ryzyko awarii z wyprzedzeniem: „łożysko tej pompy ma wysokie prawdopodobieństwo uszkodzenia w ciągu dwóch tygodni”. Jeśli dopiero zaczynasz, zadaj sobie pytanie: czy masz już wiarygodne dane z maszyn? Jeżeli nie, zbuduj najpierw monitoring warunkowy, a dopiero potem dokładaj AI do prognoz.

    Czy muszę od razu wysyłać wszystkie dane z maszyn do chmury?

    Niekoniecznie. Najpierw określ, jaki masz dostęp do sieci, jakie są wymagania bezpieczeństwa IT/OT i jak szybko chcesz reagować na zdarzenia. Czy masz w firmie restrykcje dotyczące wynoszenia danych na zewnątrz?

    Typowy łańcuch to: czujnik → urządzenie brzegowe (edge) → sieć → platforma danych (lokalny serwer lub chmura) → algorytmy/AI → człowiek lub CMMS. Część wstępnego przetwarzania (np. filtracja, proste wykrywanie anomalii) można zrobić na brzegu, wysyłając do chmury tylko agregaty i alerty. Dla krytycznych, wrażliwych instalacji często buduje się systemy całkowicie lokalne, a chmura służy jedynie do analiz historycznych lub testów modeli AI.

    Kiedy opłaca się robić monitoring online, a kiedy wystarczą pomiary okresowe?

    Zadaj sobie pytanie: jak szybko po wystąpieniu problemu musisz zareagować, żeby uniknąć przestoju? Jeśli liczą się minuty lub godziny (piece, sprężarki, krytyczne wentylatory procesowe), monitoring online z ciągłym zbieraniem danych ma sens i realnie ratuje produkcję.

    Jeżeli maszyny są mniej krytyczne, a awarie rozwijają się wolno, dobrze działają pomiary okresowe (np. raz na tydzień, raz w miesiącu) lub inspekcje ręczne z wykorzystaniem przenośnych analizatorów drgań czy kamer termowizyjnych. Często rozsądny kompromis wygląda tak: online tylko na kilku „wąskich gardłach”, a reszta parku maszynowego objęta przeglądami okresowymi.

    Jak połączyć system monitoringu maszyn z istniejącym CMMS i zespołem utrzymania ruchu?

    Kluczowe pytanie brzmi: co ma się stać po pojawieniu się alarmu? Kto go widzi, kto decyduje o działaniach, jak to ląduje w planie prac? Bez tego system będzie generował powiadomienia, które wszyscy ignorują.

    Najprostszy scenariusz to integracja monitoringu z CMMS tak, aby z wybranych alarmów automatycznie tworzyły się zlecenia pracy, np. „sprawdź łożysko osi X przed końcem tygodnia”. Do tego potrzebne są jasne progi (kiedy tworzymy zadanie, a kiedy tylko obserwujemy trend) i krótkie procedury dla zespołu UR. Warto zacząć od kilku typów alarmów i dopiero później rozbudowywać reguły, gdy zespół oswoi się z nowym sposobem pracy.

    Najważniejsze wnioski

  • Zacznij od bólu, nie od technologii – najpierw nazwij, co naprawdę chcesz opanować: nagłe przestoje, koszty serwisu, czy totalną nieprzewidywalność pracy maszyn; bez tego skończysz z „ładnymi wykresami”, które nic nie zmieniają w produkcji.
  • System monitoringu ma sens tylko wtedy, gdy poprawia konkretne wskaźniki – wybierz na start 1–2: OEE, MTBF/MTTR, koszty części, liczbę interwencji awaryjnych; zadaj sobie pytanie: „który z nich musi drgnąć, żeby projekt był uznany za sukces?”.
  • AI nie jest celem samym w sobie – dobierz poziom dojrzałości do sytuacji: od prostego monitoringu reaktywnego, przez monitoring warunkowy, aż po predykcyjne utrzymanie ruchu; zastanów się szczerze: „czy dziś bardziej potrzebuję widzieć dane, czy przewidywać awarie?”.
  • Najbezpieczniejsza ścieżka to mały, dobrze dobrany pilotaż – wybierz jedną krytyczną maszynę (twój „wentylator wyciągowy”), załóż kilka czujników, postaw prosty monitoring i sprawdź, czy realnie unikasz choć jednej poważnej awarii.
  • Myśl w kategoriach całego łańcucha: maszyna → czujnik → edge → sieć → platforma danych → algorytmy → decyzja serwisowa; na każdym etapie zapytaj: „kto i w jaki sposób wykorzysta te dane do konkretnej decyzji, np. zaplanowania postoju?”.
  • Bibliografia

  • ISO 17359: Condition monitoring and diagnostics of machines – General guidelines. International Organization for Standardization (2018) – Wytyczne monitoringu warunkowego i diagnostyki maszyn
  • ISO 13374: Condition monitoring and diagnostics of machines – Data processing, communication and presentation. International Organization for Standardization (2019) – Model przepływu danych od czujnika do decyzji serwisowej
  • IEC 62890: Life-cycle management for systems and products used in industrial-process measurement, control and automation. International Electrotechnical Commission (2016) – Cykl życia systemów automatyki i ich utrzymanie
  • Industrial Internet of Things Volume G1: Reference Architecture. Industrial Internet Consortium (2019) – Referencyjna architektura IIoT od czujnika po aplikacje
  • Predictive Maintenance of Pumps Using Condition Monitoring. European Federation of National Maintenance Societies – Praktyczne zastosowania monitoringu warunkowego i predykcyjnego
  • Maintenance Engineering Handbook. McGraw-Hill (2014) – Klasyczne wskaźniki OEE, MTBF, MTTR i strategie utrzymania ruchu
  • Handbook of Condition Monitoring: Techniques and Methodology. Springer (2006) – Przegląd technik monitoringu drgań, temperatury, prądu
  • Artificial Intelligence for the Internet of Things. Elsevier (2020) – Zastosowania AI w systemach IoT, w tym predykcyjne utrzymanie
  • Predictive Maintenance in Dynamic Systems: Advanced Methods and Applications. CRC Press (2019) – Modele ML do przewidywania awarii i planowania serwisu
  • Asset Management and Maintenance Strategies. Institute of Asset Management – Strategie przejścia od reaktywnego do predykcyjnego utrzymania