Nowe rozporządzenie maszynowe (UE) 2023/1230 zacznie obowiązywać za 0d 00g 00m 00s Czy Twoja firma jest gotowa?
Sprawdź szkolenie

Dlaczego nie wolno „wierzyć” AI przy ocenie ryzyka maszynCert Info

Dlaczego nie wolno „wierzyć” AI przy ocenie ryzyka maszyn

Coraz częściej w firmach pojawia się pokusa, żeby „podpytać AI”, jak opisać ryzyko, jakie środki ochronne zastosować, czy jak zbudować dokumentację do wymagań maszynowych. Sztuczna inteligencja może być przydatnym narzędziem w pracy inżyniera ds. bezpieczeństwa maszyn, ale nie może zastąpić osoby kompetentnej, która odpowiada za bezpieczeństwo ludzi i zgodność z przepisami. Poniżej omówiono typowe błędy, jakie niesie bezrefleksyjne korzystanie z AI przy ocenie ryzyka maszyn.

  1. Profesjonalnie brzmiące, ale błędne treści

Systemy AI potrafią generować teksty, które wyglądają jak fragmenty norm, procedur czy wytycznych – zawierają odwołania do przepisów, numerów punktów, a nawet pozorne cytaty. Problem w tym, że część takich treści jest po prostu niezgodna z wymaganiami: pojawiają się nieistniejące wymagania, błędne numery norm, mylące powiązania między wymaganiami ogólnymi a normami typu C. Dla osoby spoza obszaru bezpieczeństwa maszyn tekst może wyglądać przekonująco i „profesjonalnie”, co zwiększa ryzyko bezkrytycznego przeniesienia błędów do dokumentacji oceny ryzyka czy instrukcji.

  1. Oparcie na niepełnych i nieaktualnych źródłach

Normy zharmonizowane (takie jak EN ISO 12100, EN ISO 13849‑1 i normy typu C) oraz przewodniki do dyrektyw/rozporządzeń są chronione prawem autorskim i dostępne w pełnej treści wyłącznie przez wyspecjalizowanych dostawców. Modele AI nie mają dostępu do pełnych, aktualnych brzmień norm – bazują głównie na skrótach, omówieniach, materiałach marketingowych i blogach, które często są nieaktualne lub mocno uproszczone. Zmiany w wykazach norm zharmonizowanych oraz nowe wydania norm pojawiają się regularnie, a AI nie ma automatycznego mechanizmu śledzenia takich zmian, dlatego nie może pełnić roli „wirtualnej normy”.

  1. Brak kontaktu z rzeczywistą maszyną i procesem

Ocena ryzyka w rozumieniu EN ISO 12100 i norm szczegółowych wymaga bezpośredniego kontaktu z maszyną i procesem. Osoba kompetentna musi zobaczyć maszynę w rzeczywistym otoczeniu, przeanalizować sposób użytkowania, tryby pracy, czynności czyszczenia i serwisowania, a także typowe obejścia zabezpieczeń i zachowania operatorów pod presją produkcji. AI działa wyłącznie na opisach tekstowych i nie „widzi” ani konfiguracji linii, ani faktycznych dróg dojścia, ani ergonomii stanowiska. W efekcie generowane opisy, wartości ryzyka i propozycje środków ochronnych są odklejone od realnych zagrożeń i praktyki użytkowania.

  1. Niebezpieczne rekomendacje środków ochronnych

Typowym błędem AI jest „projektowanie” środków bezpieczeństwa na ogólnym poziomie, bez uwzględnienia wymaganej kategorii, poziomu skuteczności (PL) czy architektury układu sterowania zgodnie z EN ISO 13849-1:2023. Rekomendacje w stylu „zastosować kurtynę świetlną” czy „dodać blokadę drzwi” mogą brzmieć rozsądnie, ale w konkretnej aplikacji mogą:

  • nie zapewnić wymaganego poziomu bezpieczeństwa,
  • wchodzić w konflikt z istniejącą architekturą sterowania,
  • generować nowe zagrożenia, np. sprzyjać obchodzeniu zabezpieczeń przez operatorów.

Bez analizy PL, struktury, kategorii i kontekstu procesu takie „podpowiedzi” nie mogą być traktowane jako projekt zapewnienia bezpieczeństwa, a jedynie jako luźne inspiracje do dalszej, w pełni odpowiedzialnej analizy inżynierskiej.

  1. Ignorowanie praktyki kontroli, audytów i sporów powypadkowych

Specjalista ds. bezpieczeństwa maszyn nie opiera się wyłącznie na suchym tekście norm, ale także na doświadczeniu z kontroli PIP, UDT, audytów klienta, dochodzeń powypadkowych i orzecznictwa. To właśnie praktyka organów nadzoru i ubezpieczycieli pokazuje, które rozwiązania są uznawane za akceptowalne, a które budzą zastrzeżenia mimo formalnej zgodności z literą normy. AI nie uczestniczy w kontrolach ani audytach, nie analizuje akt powypadkowych i nie ma doświadczenia z realnych sporów. Może więc proponować rozwiązania „książkowe”, które w praktyce nie przejdą audytu albo zostaną zakwestionowane po wypadku.

  1. Brak odpowiedzialności i kwalifikacji osoby kompetentnej

Ocena ryzyka, dobór środków ochronnych i potwierdzenie zgodności z wymaganiami prawnymi muszą być przypisane do konkretnych osób kompetentnych – z odpowiednią wiedzą z zakresu norm, dyrektyw/rozporządzeń i praktyki branżowej, nierzadko potwierdzoną szkoleniami i certyfikatami. To te osoby podpisują dokumentację, składają deklaracje zgodności i ponoszą odpowiedzialność w razie wypadku. System AI nie może być wskazany jako „osoba kompetentna”, nie złoży podpisu, nie ma formalnych kwalifikacji i nie odpowiada przed sądem. Ślepe poleganie na jego rekomendacjach jest sprzeczne z zasadą jasnego przypisania odpowiedzialności w procesie oceny zgodności.

Rola działu jakości i dokumentacji jako wsparcia

Działy jakości i dokumentacji mogą istotnie wspierać proces bezpieczeństwa maszyn, ale w innym obszarze niż merytoryczna ocena ryzyka. Typowe, wartościowe wsparcie to:

  • dopilnowanie kompletności i spójności dokumentacji,
  • weryfikacja zgodności formy dokumentacji z procedurami wewnętrznymi i wymaganiami klienta,
  • organizacja obiegu dokumentów, wersjonowania i archiwizacji.

To specjalista ds. bezpieczeństwa maszyn określa, jakie informacje merytoryczne muszą się w dokumentach znaleźć oraz jak opisać zagrożenia, środki ochronne i ryzyko resztkowe. Dział jakości może pomóc, by dokumentacja była czytelna, pełna i dobrze zarządzana – ale nie zastąpi kompetencji technicznych w obszarze bezpieczeństwa.

Jak rozsądnie wykorzystywać AI w pracy inżyniera ds. bezpieczeństwa maszyn

Sztuczna inteligencja może realnie wspierać osoby kompetentne w bezpieczeństwie maszyn, o ile jest traktowana jako narzędzie pomocnicze, a nie źródło „prawdy”. Przykładowe, rozsądne zastosowania to:

  • szkicowanie struktury dokumentów (np. planu oceny ryzyka, spisu treści instrukcji),
  • pomoc w tworzeniu materiałów szkoleniowych (slajdy, opisy ogólnych zasad),
  • generowanie wstępnych list kontrolnych do audytów, które następnie dostosowuje ekspert,
  • porządkowanie notatek, maili i wniosków z analiz w spójny tekst roboczy.

Każdy taki materiał powinien być w kolejnym kroku zweryfikowany przez osobę kompetentną, która zna konkretną maszynę, proces, aktualne normy i wymagania prawne.

Zasada, którą warto jasno komunikować w organizacji, jest prosta:

AI może pracować razem z inżynierem ds. bezpieczeństwa maszyn, ale nigdy zamiast niego – decyzje, ocena ryzyka i podpis zawsze należą do człowieka z odpowiednimi kompetencjami.

Jeśli chcesz uniknąć kosztownych błędów i zyskać pewność, że działasz zgodnie z wymaganiami, napisz lub zadzwoń pomożemy Ci znaleźć najlepsze rozwiązanie: cioz@certpartner.pl; 508 438 098

Data opublikowania: 2025-12-16
zaufali nam