ANC – finansowe aspekty

Dzisiejsze realia w coraz większym stopniu angażują ludzi do rozmowy o finansach. Zarówno, jeżeli chodzi o nasze prywatne domowe budżety, jak i o wielkie inwestycje na szczeblu globalnym. Nie sposób nie zauważyć faktu, że dbałość o finanse zaowocowała wypracowaniem nowatorskich metod ich analizy. Począwszy od prostych aplikacji, które pozwalają nam monitorować codzienne wydatki, kończąc na olbrzymich systemach rachunkowo księgowych, które obsługują globalne korporacje. Rozmowy o pieniądzach dotyczą również szeroko pojętych inwestycji. Bardzo często związane są one z wdrożeniami nowoczesnych technologii, które w domyśle mają przynosić jeszcze większe korzyści, z finalnym efektem w postaci większego zysku. W jaki sposób możemy zdefiniować zysk? I czy rzeczywiście jest on najważniejszym czynnikiem w dzisiejszym postrzeganiu biznesu? Jak aktywna redukcja hałasu może wpłynąć na wydajność i zysk?

Co to jest zysk?

Sięgając do literatury czytamy, że „zysk stanowi nadwyżkę przychodów nad kosztami” [1]. Innymi słowy zysk stanowi dodatni wynik finansowy. Potocznie rzecz biorąc jest to stan, w którym więcej sprzedajemy niż wydajemy. I oczywiście jest to zjawisko zdecydowanie pożądane, bowiem w zamyśle firma powinna przynosić zysk. Stanowi on podstawę do kolejnych inwestycji, aby w dalszym ciągu mieć możliwość zaspokajać potrzeby klientów. Mówiąc o zysku możemy wyróżnić kilka jego rodzajów [2]:

  1. Zysk brutto, czyli różnicę pomiędzy przychodami netto ze sprzedaży a kosztami sprzedanych produktów. Dzięki niemu możemy zobaczyć jak jednostka naszego wyrobu przekłada się na wynik finansowy. Ma to szczególne znaczenie dla przedsiębiorstw produkcyjnych, które często poszukują takich usprawnień, które w efekcie pozwolą im na zachowanie efektu skali.
  2. Zysk netto, czyli nadwyżkę, która zostaje po odjęciu wszystkich kosztów. W bilansowym ujęciu jest to różnica między kosztami całkowitymi a przychodem ze sprzedaży. W dzisiejszym świecie bardzo często pojmowany jako czynnik, który świadczy o dobrej kondycji finansowej przedsiębiorstwa.
  3. Zysk operacyjny, czyli specyficzny rodzaj zysku, który skupia się tylko i wyłącznie na wyniku w obszarze podstawowej działalności firmy. Bardzo często odzwierciedlony w rachunku zysków i strat w postaci EBIT-u.

Zysk a wydajność

Wydajność w takim rozumieniu wiąże się z zagwarantowaniem w długim okresie czasu, że praca nie zaszkodzi życiu lub zdrowiu pracowników. Ogólna klasyfikacja Centralnego Instytutu Ochrony Pracy wymienia czynniki takie jak [3]:

  • hałas i drgania mechaniczne,
  • czynniki mechaniczne,
  • czynniki chemiczne i pyły,
  • obciążenia mięśniowo – szkieletowe,
  • stres,
  • oświetlenie,
  • promieniowanie optyczne,
  • prąd elektryczny.

Klasyfikacja wymienia również obciążenia termiczne, pole elektromagnetyczne, czynniki biologiczne oraz zagrożenia wybuchem i pożarem. Najczęstszym jednak problemem jest kwestia hałasu przemysłowego i drgań, których często nawet ludzkie ucho nie jest w stanie wychwycić. Bardzo często w wyniku przebywania w środowisku wiecznie hałaśliwym koncentracja i poziom senności wzrastały. Stąd możemy wywnioskować, że nawet coś tak niepozornego jak hałas i drgania generują dla przedsiębiorcy spore koszty, zwłaszcza jeśli chodzi o koszty jednostkowe (przy masowej produkcji), dlatego istotnym jest podjęcie działań w kierunku redukcji hałasu. Jeśli chcesz dowiedzieć się więcej na temat tego jak walczyć z hałasem zapisz się na szkolenie tutaj.

Jak zapobiec generowaniu kosztów?

Dzisiejsze firmy z branży R&D, inżynierowie i specjaliści wnikliwie badają i usprawniają systemy produkcyjne, oferując im rozwiązania, które eliminują nawet te najtrudniejsze do rozwiązania problemy, dotyczące efektywności pracy człowieka. Świadomość lepszej opieki nad pracownikiem pogłębia się z roku na rok. Stąd też przysłowiowy „boom” na rozwiązania z zakresu sztucznej inteligencji oraz systemów, które będą ułatwiały pracę człowiekowi. Rozwiązania tego typu to jednak spora inwestycja, stąd starania inżynierów finansowych do optymalizacji kosztów takich rozwiązań.

Krok 1 – Zapoznanie się z charakterystyką wydajności systemu produkcyjnego fabryki w ujęciu produkcyjnym oraz ekonomicznym.

Każdy z procesów produkcyjnych ma swoją wydajność i charakterystykę, która w określonym stopniu przekłada się na wyniki produkcji. Aby te procesy były mierzalne, należy wcześniej je za pomocą mierników. Na bazie wiedzy o procesie oraz danych, które określone są przy użyciu wspomnianych mierników warto określić poziom wydajności procesu w dwóch ujęciach, produkcyjnym oraz ekonomicznym. Pierwsze z nich określi poziom wydajności pracy zespołu człowiek – maszyna, drugie natomiast spojrzy na problem wydajności w perspektywie zysków lub strat. Bardzo często na tym etapie wyłapywane są tzw. wąskie gardła produkcji, które stanowią o wydajności danego procesu. Warto w tym momencie sporządzić raporty, dotyczące stanu wydajności produkcji.

Krok 2 – Określenie założeń techniczno – ekonomicznych

Podstawą do określenia założeń będzie raport z charakterystyki wydajności procesu. Dzięki niemu będziemy w stanie określić najmniej i najbardziej wydajny proces. Określenie założeń ma na celu sporządzenie aktualnych celów dla zarządzających konkretnymi procesami. W obszarze technicznym założenia dotyczą najczęściej optymalizacji produkcji w wąskich gardłach, natomiast w obszarze ekonomicznym swoją uwagę warto skupić na optymalizacji kosztowej, wynikającej z prowadzonych rachunków kosztów w ramach rachunkowości zarządczej. Założenia techniczno-ekonomiczne są podstawą do wdrożenia innowacyjnych rozwiązań, dają bowiem zielone światło dla zmian, które należy przeprowadzić, aby proces był rentowny.

Krok 3 – Prognozy wartości dochodów i nakładów inwestycyjnych a aktywna redukcja hałasu

Następnie przystępujemy do badania prognostycznego. Ma ono na celu zbadać jaki rozkład w czasie będą miały dochody oraz nakłady inwestycyjne, poniesione zarówno na wdrożenie i późniejsze działanie systemu w warunkach przemysłowych.

Nakład z aktywnej redukcji hałasu jest wyższy na przestrzeni lat od zwykłego nakładu
Rys. 1 Prognozowane nakłady na lata 2017-2027
Dochód z aktywnej redukcji hałasu utrzymuje się na podobnym poziomie, a dochód bez anc jest niestabilny
Rys. 2 Prognozowany dochód na lata 2017-2027

Wdrożenie systemu aktywnej redukcji hałasu jest w stanie, z punktu widzenia ekonomicznego, uspokoić wahania dochodów w czasie.  Trend na podstawie analizy poprzednich okresów wyraźnie pokazuje cykliczność i tendencję liniową do zarówno wzrostów jak i spadków. Stabilizacja koreluje z wdrożeniem opisywanego systemu. Może się to wiązać ze stałym dodatkowym wzrostem mocy produkcyjnych związanych z implementacją systemu do procesu produkcyjnego. Stąd też wniosek, że poprawa wydajności produkcyjnej przynosi w rezultacie stabilizację dochodów w czasie. Z drugiej strony poziom nakładów jest wyższy w przypadku wdrożenia systemu. Mimo tego faktu poziom ten ma tendencje spadkowe z roku na rok.

Na podstawie tych danych jesteśmy w stanie obliczyć podstawowe mierniki opłacalności inwestycji. W tym momencie również przeprowadzamy obliczenia wprowadzające, mające na celu sprowadzenie dochodów oraz nakładów do jednego momentu w czasie. Zabieg ten pozwoli na obliczenia stopy dyskonta oraz pozwoli zaprognozować przyszłe okresy inwestycji [1].

Krok 4 – Ocena efektywności inwestycji metodami statycznymi

Mierniki opłacalności inwestycji liczymy, chcąc sprawdzić, czy to, w co chcemy włożyć nasz kapitał, przyniesie nam odpowiednie i satysfakcjonujące zyski. Inwestowanie w takie rozwiązania jest konieczne, przy znaczącej konkurencji. Oczywiście podejmowane decyzje mogą przechylić szalę w dwojaki sposób. Zwiększenie zysków, obniżenie kosztów czy też mocniejsza pozycja na rynku to jedne, z wielu pozytywnych aspektów inwestowania. Istnieje też druga strona medalu. Złe decyzje, opierane najczęściej na nieprzygotowanych analizach, lub nawet braku takich analiz, wiążą się niejednokrotnie z utraconymi zyskami, często ponosimy koszty alternatywne. Jeszcze częściej nieprzemyślane ruchy inwestycyjne powodują obniżanie się wartości firmy. W ujęciu statycznym mówimy o następujących wskaźnikach:

  • Roczna stopa zwrotu,
  • Księgowa stopa zwrotu,
  • Prosty okres zwrotu.

W omawianym przypadku, czyli wdrożeniu systemu aktywnej redukcji hałasu, mówimy o rocznej oraz księgowej stopie zwrotu na poziomie ok. 200% wartości. Okres zwrotu oscyluje na poziomie niecałego roku. Jest to związane z dużą dysproporcją pomiędzy nakładami poniesionymi na wdrożenie systemu, a korzyściami jego implementacji. Jednak aby mieć stuprocentową pewność wdrożenia, należy policzyć jeszcze przede wszystkim zaktualizowaną wartość netto (NPV) oraz wewnętrzną stopę zwrotu (IRR). Określą one wydajność inwestycji na przestrzeni kolejnych badanych okresów.

Krok 5 – Ocena efektywności metodami dynamicznymi

W tej części należy zastanowić się jak efektywna jest inwestycja i jaki przez to ma wpływ na jej wartość przyszłą. Dlatego obliczone zostaną wskaźniki takie jak:

  • Zaktualizowana wartość netto (NPV),
  • Zdyskontowana stopa zysku (NPVR),
  • Wewnętrzna stopa zwrotu (IRR),

Realizując politykę wprowadzania innowacyjności w spółkach przemysłowych firmy stoją przed wyzwaniem maksymalizacji wskaźników efektywności. Widząc zatem korelację pomiędzy możliwościami zastosowania metod aktywnej redukcji hałasu, które poprawiają jakość warunków pracy – wpływając na realizację zadań przez pracowników, można stwierdzić, że poprawa wydajności pracy odbija się na wynikach finansowych co ma bezpośredni wpływ na ocenę efektywności realizacji takiego projektu. Mimo wysokich nakładów początkowych korzyści mają charakter długoterminowy, wpływając na poprawę stabilizacji produkcji.

Czy warto prowadzić wstępne kalkulacje zyskowności inwestycji?

Odpowiedź jest krótka, warto. Pomagają one w procesach decyzyjnych. Stanowią dla decydentów pierwsze przetarcie, wstępną selekcję inwestycji opłacalnych oraz nieopłacalnych. W tym momencie zarząd jest w stanie ustalić prognozowaną zyskowność, którą są w stanie kreować już na pułapie operacyjnym działalności. Reagując na ubytki wydajności szefowie są w stanie wychwycić uciekające źródła dochodów oraz wcześniej zareagować na potencjalne nowinki technologiczne. Wstępna ocena opłacalności jest pomocnym narzędziem w podejmowaniu trafnych i obiektywnych decyzji.

Bibliografia

[1] D.Begg, G.Vernasca, S.Fischer „Mikroekonomia” PWE Warszawa 2011
[2] mfiles.pl/pl/index.php/Zysk

[3] Felis P., 2005: Metody i procedury oceny efektywności inwestycji rzeczowych przedsiębiorstw. Wydawnictwo Wyższej Szkoły Ekonomiczno-Informatycznej. Warszawa.

Cyfrowe przetwarzanie obrazów

Przetwarzanie sygnałów towarzyszy każdemu człowiekowi codziennie. Wszystkie bodźce (sygnały) odbierane z otaczającego nas świata, tj. dźwięk, światło, temperatura są przetwarzane w impulsy elektryczne, przesyłane następnie do mózgu. Tam następuje analiza i interpretacja odebranych sygnałów, w wyniku której otrzymujemy informacje płynące z danego rodzaju sygnału (np. rozpoznajemy kształt przedmiotu, odczuwamy ciepło itp.).

W podobny sposób działa Cyfrowe Przetwarzanie Sygnałów (CPS). W tym przypadku sygnał analogowy konwertuje się na sygnał cyfrowy przez przetwornik analogowo-cyfrowy. Następnie przy użyciu komputera przetwarzane są dostarczone sygnały. W systemach CPS wykorzystuje się również komputerowe urządzenia peryferyjne, wyposażone w procesory sygnałowe, dzięki którym możliwe jest przetwarzanie sygnałów w czasie rzeczywistym. Niekiedy potrzebna jest ponowna konwersja sygnału do postaci analogowej (np. do sterowania jakiegoś urządzenia). W tym celu wykorzystuje się przetworniki cyfrowo-analogowe.

Cyfrowe przetwarzanie sygnałów ma bardzo szerokie zastosowanie. Może być wykorzystywane m.in. do przetwarzania dźwięku, rozpoznawania i przetwarzania mowy, czy do przetwarzania obrazów. To ostatnie zagadnienie będzie przedmiotem tego artykułu, a konkretnie omówimy w nim podstawową operację wykonywaną w procesie cyfrowego przetwarzania obrazów, tj. filtrację splotową.

Czym jest przetwarzanie obrazów?

Mówiąc w najprostszy sposób, przetwarzanie obrazów polega na przekształceniu obrazu wejściowego w obraz wyjściowy. Celem tego procesu jest selekcja informacji – wybranie najistotniejszych (np. kształtu) oraz wyeliminowanie zbędnych (np. szumów). Proces cyfrowego przetwarzania obrazów obejmuje szereg różnorodnych operacji, m.in.:

  • filtrację,
  • binaryzację,
  • segmentację,
  • transformację geometryczną,
  • kodowanie,
  • kompresję.

Jak już wspominaliśmy, w tym artykule omówimy szerzej operację filtracji obrazów.

Filtracja splotowa

Zarówno w domenie jednowymiarowej, przykładowo dla sygnałów audio, tak również dla dwóch wymiarów istnieją odpowiednie narzędzia służące przeprowadzeniu operacji na sygnałach, w tym przypadku na obrazach. Jednym z takich narzędzi jest filtracja. Polega ona na wykonaniu na pikselach obrazu wejściowego pewnych operacji matematycznych, w wyniku których otrzymywany jest nowy obraz. Najczęściej filtrację wykorzystuje się w celu poprawy jakości obrazu lub wydobycia z niego istotnych cech.

Podstawową operacją w metodzie filtracji jest operacja splotu 2D. Pozwala ona na aplikowanie przekształceń obrazu z użyciem odpowiednio przygotowanych do tego filtrów w postaci macierzy współczynników. Wykorzystanie filtrów polega na obliczeniu nowej wartości punktu na podstawie wartości punktów znajdujących się w jego otoczeniu. Do obliczeń wykorzystuje się tzw. maski, zawierające wagi pikseli z otoczenia danego piksela. Najczęściej spotykane rozmiary masek to 3×3, 5×5 i 7×7. Poniżej przybliżono proces przeprowadzenia konwolucji obrazu oraz filtra.

Przyjmując, że obraz reprezentowany jest przez macierz o wymiarach 5×5, zawierającą wartości kolorów, a filtr reprezentowany macierzą 3×3, przeprowadzono modyfikację obrazu poprzez splecenie jednej z nich z drugą.

Pierwsze, co należy wykonać to zamiana wierszy, a następnie kolumn w macierzy filtra (wiersz/kolumna pierwsza → wiersz/kolumna ostatnia – i na odwrót). Należy również przyjąć, że środek jądra filtracji h(0,0) znajduje się w środku macierzy, tak jak to pokazano na poniższym rysunku. W związku z taką konwencją indeksy (m,n) oznaczające wiersze i kolumny macierzy filtra będą ujemne i dodatnie.

Przetwarzanie obrazów - schemat filtracji obrazu
Rys. 1 Schemat filtracji obrazu

Uznając macierz filtra (kolor niebieski) za odwróconą w pionie i poziomie, możemy przeprowadzić operację filtracji. Dokonujemy tego umieszczając element h(0,0) → h(m,n) macierzy niebieskiej w elemencie s(-2,-2) → s(i,j) macierzy obrazu (kolor żółty). Następnie wymnażamy nachodzące na siebie wartości obu macierzy i sumujemy. W ten sposób otrzymaliśmy wynik splotu dla komórki o(-2,2) obrazu wyjściowego.

Kolejne etapy procesu są analogiczne, przesuwamy środek macierzy niebieskiej do elementu s(-2,-1), wymnażamy nachodzące na siebie wartości, sumujemy, otrzymując wynik wyjściowy. Pola, które wykraczają poza obszar macierzy s(i,j) uznajemy za niezdefiniowane, w związku z tym wartości w tych miejscach nie istnieją, a więc nie dokonujemy mnożenia.

Zastosowanie filtracji splotowej

W zależności od rodzaju filtra wyróżnia się różne zastosowania filtracji splotowej. Filtry dolnoprzepustowe wykorzystywane są do usuwania szumów w obrazach, natomiast filtry górnoprzepustowe stosowane są do wyostrzania lub podkreślenia krawędzi.

W celu zobrazowania działania poszczególnych rodzajów filtrów spróbujmy zastosować praktyczny przypadek konwolucji na rzeczywistym obrazie. Poniższy obraz w formacie „.jpg” został wczytany jako macierz MxNx3 pikseli. Na jego przykładzie pokażemy podstawowe efekty możliwe do uzyskania, dzięki zastosowaniu filtracji splotowej.

Oryginalny obraz wejściowy
Rys. 2. Oryginalny obraz wejściowy

Rozmycie Gaussowskie

Aby dokonać rozmycia obrazu należy zastosować funkcję splotu, jak również odpowiednio przygotowany kernel – filtr. Jednym z najczęściej wykorzystywanych do tego filtrów dolnoprzepustowych jest filtr Gaussowski. Pozwala on na zmniejszenie ostrości obrazu, jak również stosuje się go przy redukcji szumu obecnego w obrazie.

W prezentowanym przypadku wykorzystano macierz o wymiarach 29×29, wygenerowaną na podstawie funkcji Gaussowskiej o odchyleniu standardowym równym 5. Rozkład normalny nadaje wagi otaczającym pikselom w procesie konwolucji. Działanie filtra dolnoprzepustowego polega na tłumieniu elementów obrazu charakteryzujących się wysoką częstotliwością i przepuszczaniu tych elementów, których częstotliwość jest mała. W rezultacie następuje redukcja szumów oraz rozmycie obrazu, a otrzymany obraz jest mniej wyraźny niż pierwotny.

Rozmyty obraz wejściowy
Rys. 3 Rozmyty obraz wejściowy

Wyostrzanie

Analogicznie jak przy rozmyciu Gaussowskim można sprawić, że obraz zostanie wyostrzony. W tym celu należy zastosować odpowiedni filtr górnoprzepustowy. Jego działanie polega na przepuszczaniu oraz wzmacnianiu elementów obrazu, które odznaczają się dużą częstotliwością, np. szumów czy krawędzi. Natomiast elementy o małej częstotliwości filtr wytłumia. W wyniku zastosowania filtru następuje wyostrzenie pierwotnego obrazu, co można łatwo zauważyć na przykład w okolicach ramienia.

Wyostrzony obraz wejściowy
Rys. 4 Wyostrzony obraz wejściowy

Detekcja krawędzi

Kolejnym zabiegiem możliwym do przeprowadzenia przy użyciu filtracji splotowej jest detekcja krawędzi. Do przeprowadzenia operacji wykrywania krawędzi wykorzystuje się filtry przesuwania i odejmowania. Ich działanie polega na przesunięciu obrazu i odjęciu obrazu pierwotnego od jego kopii. W wyniku tej operacji następuje detekcja krawędzi.

Detekcja krawędzi
Rys. 5 Detekcja krawędzi

BFirst.Tech a przetwarzanie obrazów

Jako firma posiadamy wykwalifikowaną kadrę, a także doświadczenie w dziedzinie cyfrowego przetwarzania obrazów.

Projektem, do realizacji którego wykorzystano przetwarzanie obrazów, jest platforma Webowa Virdiamed. Została ona stworzona we współpracy z firmą Rehasport Clinic. Platforma polega na rekonstrukcji 3D danych pochodzących z tomografu komputerowego, a także z rezonansu magnetycznego. Umożliwia ona podgląd danych 3D w przeglądarce internetowej. Więcej informacji o naszych projektach znajdziesz tutaj.

Cyfrowe przetwarzanie sygnałów, w tym także przetwarzanie obrazów, jest dziedziną techniki o szerokich możliwościach stosowania, a jej popularność ciągle rośnie. Nieustający postęp technologiczny sprawia, że również ta dziedzina cały czas się rozwija. Wiele technologii stosowanych na co dzień działa w oparciu o przetwarzanie sygnałów, dlatego też pewnym jest, że w przyszłości znaczenie CPS będzie ciągle rosnąć.

Bibliografia

[1] Leonowicz Z.: „Praktyczna realizacja systemów DSP”

[2] http://www.algorytm.org/przetwarzanie-obrazow/filtrowanie-obrazow.html

Smart Manufacturing

Nowe technologie znajdują zastosowanie w wielu dziedzinach życia. Jedną z nich jest przemysł, w którym zaawansowane technologie wykorzystywane są już od lat i przynoszą fabrykom wiele korzyści. Znaczący wpływ na rozwój technologiczny i poprawę innowacyjności przedsiębiorstw produkcyjnych miało wdrożenie do nich inteligentnych rozwiązań, opartych na zaawansowanych technologiach z zakresu IT. Jednym z nich jest Smart Manufacturing, który pomaga w optymalizacji przemysłowej poprzez czerpanie wiedzy z danych, generowanych w procesach produkcyjnych.

Czym jest Smart Manufacturing?

Smart Manufacturing to koncepcja obejmująca pełną integrację systemów wraz ze współpracującymi z nimi jednostkami produkcyjnymi, które są w stanie reagować w czasie rzeczywistym i adaptować się do zmiennych warunków środowiskowych, co umożliwia to spełnienie założonych wymagań w całym łańcuchu dostaw. Wdrożenie systemu inteligentnej produkcji wspomaga proces optymalizacji procesów produkcyjnych, przyczyniając się tym samym do zwiększenia zysków przedsiębiorstw przemysłowych.

Koncepcja Smart Manufacturing wiąże się ściśle z takimi pojęciami jak sztuczna inteligencja (AI), Przemysłowy Internet Rzeczy (IIoT) czy chmura obliczeniowa (cloud computing). To co łączy te trzy pojęcia to dane – idea inteligentnej produkcji zakłada, że informacje w nich zawarte są dostępne zawsze, gdy są potrzebne i w postaci, w której są najbardziej przydatne. To właśnie analiza danych ma największy wpływ na optymalizację procesów produkcyjnych i czyni je bardziej wydajnymi.

IIoT a optymalizacja przemysłowa

Przemysłowy Internet Rzeczy jest niczym innym, jak wykorzystaniem potencjału IoT w branży przemysłowej. W inteligentnym modelu produkcji ludzie, maszyny i procesy są ze sobą połączone za pomocą systemów informatycznych. Każda maszyna wyposażona jest w czujniki, które zbierają istotne dane o jej działaniu. System przesyła dane do chmury obliczeniowej, gdzie poddaje je dogłębnej analizie. Dzięki uzyskanym z nich informacjom pracownicy mają wgląd w dokładny przebieg procesu, dzięki czemu są w stanie przewidzieć awarie i wcześniej im zapobiec, unikając ewentualnych przestojów. Dodatkowo firmy mogą badać tendencje w danych, czy przeprowadzać na ich podstawie różne symulacje. Integracja wszystkich elementów procesu produkcyjnego pozwala również na zdalne monitorowanie jego przebiegu w czasie rzeczywistym, a także reagowanie na ewentualnie nieprawidłowości. Wszystkie te działania nie byłyby możliwe, gdyby nie zastosowanie technologii IIoT.

Wzrost znaczenia sztucznej inteligencji

Kolejnym z nowoczesnych rozwiązań technologicznych, które jest wykorzystywane w systemie inteligentnej produkcji jest sztuczna inteligencja. Na przestrzeni ostatnich kilku lat można było obserwować znaczny wzrost implementacji rozwiązań sztucznej inteligencji w produkcji. Stało się to możliwe, właśnie dzięki wdrożeniu do niej urządzeń IIoT, które dostarczają ogromne ilości danych, wykorzystywanych przez AI. Algorytmy sztucznej inteligencji analizują uzyskane dane i wyszukują w nich nieprawidłowości. Ponadto umożliwiają one automatyczne podejmowanie decyzji w oparciu o zebrane dane. Co więcej sztuczna inteligencja jest w stanie przewidzieć problemy zanim one wystąpią, a także podjąć odpowiednie kroki w celu złagodzenia ich skutków.

Korzyści dla przedsiębiorstwa

Wdrożenie w fabrykach technologii Smart Manufacturing może przynieść szereg korzyści, przede wszystkim w sferze optymalizacji procesów produkcyjnych. Inteligentna produkcja umożliwia znaczną poprawę efektywności. Poprzez dostęp do danych o całym procesie można szybko reagować na ewentualne nieprawidłowości czy dostosowywać proces do aktualnych potrzeb (większa elastyczność). Dzięki temu firmy mogą uniknąć wielu niepożądanych zdarzeń, jak na przykład awarie. To natomiast korzystnie wpływa na optymalizację kosztów, a tym samym poprawia rentowność przedsiębiorstwa. Kolejną zaletą jest lepsze wykorzystanie maszyn i urządzeń. Poprzez ich bieżące monitorowanie firmy mogą kontrolować stopień ich zużycia, przewidywać awarie lub bardziej efektywnie planować przestoje. To z kolei wpływa na poprawę produktywności, a nawet jakości wytwarzanych produktów.

Wykorzystanie SM umożliwia również wizualizację danych w czasie rzeczywistym, co pozwala na zdalne zarządzanie procesem, a także monitorowanie jego przebiegu. Ponadto wirtualne odzwierciedlenie procesu dostarcza wielu informacji kontekstowych, które są niezbędne do jego doskonalenia. Na bazie zebranych danych firmy mogą również dokonywać różnego rodzaju symulacji. Czy też przewidywać trendy lub potencjalne problemy, co znacznie usprawnia prognozowanie. Warto również wspomnieć, że wdrażanie w przedsiębiorstwie nowoczesnych rozwiązań, takich jak Smart Manufacturing zwiększa ich innowacyjność. Tym samym firmy stają się bardziej konkurencyjne, a pracownicy postrzegają je jako bardziej atrakcyjne miejsce pracy.

Czy automatyzacja pozbawi ludzi pracy?

Wraz z rozwojem technologicznym i coraz większą automatyzacją procesów wzrosły także obawy dotyczące likwidacji miejsc pracy. Nic bardziej mylnego – w koncepcji inteligentnej produkcji człowiek nadal odgrywa kluczową rolę. Bez zmian pozostanie zatem odpowiedzialność pracowników w zakresie kontroli procesów czy podejmowania krytycznych decyzji. Współpraca człowieka z maszyną umożliwi tym samym zwiększenie efektywności operacyjnej inteligentnego przedsiębiorstwa.

Rozwój technologiczny nie ma zatem na celu eliminacji człowieka, a raczej stanowi dla niego wsparcie. Co więcej, połączenie doświadczenia i kreatywności człowieka z coraz większymi możliwościami maszyn umożliwia realizację innowacyjnych pomysłów, które mogą mieć realny wpływ na poprawę efektywności produkcji. Tym samym na rynku pracy zacznie wzrastać zapotrzebowanie na nowych specjalistów, co sprawi, że branża produkcyjna nie zaprzestanie zatrudniania ludzi.

Inteligenta produkcja jest nieodłączną częścią czwartej rewolucji przemysłowej, która dzieje się na naszych oczach. Połączenie maszyn i systemów informatycznych otworzyło nowe możliwości optymalizacji przemysłowej. Dzięki temu firmy mogę realnie zwiększyć wydajność swoich procesów, przyczyniając się tym samym do poprawy ich rentowności. BFirst.tech oferuje usługę Optymalizacja Przemysłowa, która pozwala na analizowanie i przekazywanie w czasie rzeczywistym do wszystkich zainteresowanych danych, w których zawarte informacje wspomagają podejmowanie krytycznych decyzji i skutkują w ciągłym ulepszaniu procesów.

Bibliografia

[1] https://blog.marketresearch.com/the-top-7-things-to-know-about-smart-manufacturing

[2] https://przemyslprzyszlosci.gov.pl/7-krokow-do-zaawansowanej-produkcji-w-fabryce-przyszlosci/?gclid=EAIaIQobChMIl7rb1dnD7QIVFbd3Ch21kwojEAAYASAAEgKVcfD_BwE

[3] https://www.comarch.pl/erp/nowoczesne-zarzadzanie/numery-archiwalne/inteligentna-produkcja-jutra-zaczyna-sie-juz-dzis/

[4] https://elektrotechnikautomatyk.pl/artykuly/smart-factory-czyli-fabryka-przyszlosci

[5] https://www.thalesgroup.com/en/markets/digital-identity-and-security/iot/inspired/smart-manufacturing

[6] https://www.techtarget.com/iotagenda/definition/smart-manufacturing-SM

Trendy technologiczne na 2021

Rok 2020 na długo zostanie w pamięci wielu osób. Pandemia koronawirusa w krótkim czasie sprawiła, że wiele firm zmieniło swój dotychczasowy sposób działania, przystosowując się do panujących warunków. Kwestia bezpieczeństwa pracowników stała się kluczowa, stąd też wiele firm przeszło w tryb pracy zdalnej. Nie da się ukryć, iż ta sytuacja wpłynęła na przyspieszenie procesu transformacji cyfrowej w wielu branżach, przyczyniając się tym samym do szybszego rozwoju nowoczesnych technologii.

Jak co roku największe firmy analityczne publikują rankingi, w których prezentują swoje przewidywania z zakresu nowych technologii na nadchodzący rok.

Internet zachowań

Pojęcie Internetu zachowań (IoB) pojawiło się już jakiś czas temu, ale według prognoz w 2021 roku i w kolejnych latach będziemy obserwowali znaczny wzrost tego zjawiska. Polega na gromadzeniu danych o użytkownikach i łączeniu ich z określonymi rodzajami zachowań. Celem jest lepsze profilowanie klientów, a tym samym świadome wpływanie na ich zachowania oraz podejmowane decyzje. IoB wykorzystuje wiele różnych nowoczesnych technologii – od sztucznej inteligencji po systemy rozpoznawania twarzy, czy mowy. Kwestią sporną w dziedzinie IoB jest bezpieczeństwo gromadzonych danych. Także etyczne i społeczne aspekty wykorzystania tych danych w celu wywierania wpływu na konsumentów są sprawą kontrowersyjną.

Cyberbezpieczeństwo

Pandemia COVID-19 sprawiła, że znaczna część firm pracuje obecnie w trybie zdalnym. Tym samym kwestia cyberbezpieczeństwa stała się ważna, jak nigdy dotąd. Aktualnie jest to kluczowy element dla zapewnienia bezpiecznego funkcjonowania organizacji. Wraz z popularyzacją pracy zdalnej, wzrosła również liczba zagrożeń cybernetycznych. Dlatego też przewiduje się, że firmy będą inwestować we wzmocnienie zabezpieczeń, by zapewnić ochronę swoich danych i zapobiec ewentualnym atakom hakerskim.

Anywhere operations

Model „anywhere operations” jest głównym trendem technologicznym na 2021 rok. Polega on na stworzeniu środowiska informatycznego, które umożliwi pracę z dowolnego miejsca poprzez wdrażanie rozwiązań biznesowych opartych na infrastrukturze rozproszonej. Takie rozwiązanie pozwoli pracownikom dostęp do zasobów organizacji niezależnie od miejsca, w którym pracują, a także ułatwi wymianę i przepływ informacji między nimi. Według prognoz Gartnera do 2023 roku 40% organizacji wdroży u siebie ten model operacyjny.

Rozwój sztucznej inteligencji

Wśród głównych nurtów technologicznych na 2021 nie zabrakło również sztucznej inteligencji, której rozwój stale obserwujemy. Rozwiązania AI takie jak prognozowanie, rozpoznawanie mowy czy diagnostyka znajdują zastosowanie w wielu branżach. Modele uczenia maszynowego coraz częściej wdrażane są również w fabrykach, przyczyniając się do zwiększenia efektywności zachodzących w nich procesów. Przez kolejne lata będziemy obserwowali nieustający rozwój sztucznej inteligencji, a także wykorzystania ukrytego w niej potencjału.

Total Experience

Kolejnym z przewidywanych na ten rok trendów jest Total Experience (TX), który w założeniu ma łączyć odmienne spojrzenie klientów, pracowników i użytkowników celem poprawy ich doświadczeń w miejscach, w których te elementy się przenikają. Takie podejście w połączeniu z nowoczesną technologią ma zapewnić firmom przewagę konkurencyjną. Pandemia spowodowała, że interakcje pomiędzy wymienionymi grupami przeniosły się w większości do świata wirtualnego. Dlatego też ważne jest, aby doświadczenia każdej z nich przynosiły im określoną satysfakcję, co realnie wpłynie na wyniki firm.

Tegoroczne trendy technologiczne skupiają się w głównej mierze na rozwoju rozwiązań, które mają na celu poprawę jakości pracy zdalnej oraz doświadczeń związanych z przeniesieniem znacznej części naszego życia do sieci. Nie da się ukryć, że pandemia znacząco przyspieszyła rozwój technologiczny wielu firm. Zwłaszcza dla mikroprzedsiębiorstw, które musiały dostosować się do panujących warunków i wdrożyły u siebie transformację cyfrową. Istotnym aspektem wśród prognozowanych trendów niezaprzeczalnie jest zapewnienie cyberbezpieczeństwa, zarówno dla organizacji jak i osób prywatnych. BFirst.tech stara się dostosować do rosnącego zapotrzebowania na te kwestie, dlatego w swojej ofercie posiada usługę Chmura i Blockchain, która wykorzystuje nowoczesne technologie do stworzenia bezpiecznych środowisk danych.

Bibliografia

[1] https://www.gartner.com/en/newsroom/press-releases/2020-10-19-gartner-identifies-the-top-strategic-technology-trends-for-2021

[2] https://mitsmr.pl/b/trendy-technologiczne-2021/PQu9q8s0G

[3]https://www.magazynprzemyslowy.pl/artykuly/7-trendow-w-it-na-2021-rok

[4] https://www.nbc.com.pl/trendy-technologiczne-w-2021%E2%80%AFroku/

Hurtownia danych

Hurtownia danych jest jednym z bardziej powszechnych tematów w branży informatycznej. Gromadzone dane stanowią istotne źródło cennych informacji w wielu przedsiębiorstwach, zwiększając tym samym ich przewagę konkurencyjną. Coraz więcej przedsiębiorstw korzysta w swojej pracy z systemów typu Business Intelligence, które w szybki i przystępny sposób wspomagają procesy analityczne. Podstawą systemów BI są hurtownie danych i to o nich opowiemy szerzej w dzisiejszym artykule.

Czym jest hurtownia danych?

Hurtownia danych jest narzędziem, które gromadzi i przechowuje w jednym miejscu duże ilości danych, pochodzących z różnych, rozproszonych źródeł. Zebrane dane są ustrukturyzowane i przechowywane w zintegrowanej bazie danych. Hurtownie danych umożliwiają raportowanie, a także przeprowadzanie analiz. Stanowią one istotne źródło informacji w przedsiębiorstwach, wspomagając tym samym proces podejmowania decyzji biznesowych. Warto wspomnieć, że hurtownie danych służą jedynie do odczytu danych, a więc użytkownik nie ma możliwości ich modyfikacji.

Cechy hurtowni danych

Patrząc na definicję hurtowni danych możemy wyczytać cztery główne cechy, które je charakteryzują. Są to:

  • zorientowanie na temat – dane gromadzone w hurtowniach są zorganizowane wokół głównych tematów, takich jak sprzedaż, produkt, czy klient;
  • integralność – dane przechowywane w hurtowni są jednolite, np. pod względem formatu, nazewnictwa, struktur kodowania (ujednolica się je zanim trafią do hurtowni);
  • czasowość – dane pochodzą z różnych przedziałów czasowych, hurtownia zawiera zarówno dane historyczne jak i teraźniejsze;
  • nieulotność – dane w hurtowni pozostają niezmienione, użytkownik nie ma możliwości ich modyfikacji, dzięki czemu mamy pewność, że za każdym razem uzyskamy takie same wyniki.

Architektura i działanie hurtowni danych

W architekturze hurtowni danych można wyróżnić cztery podstawowe elementy składowe: źródła danych, oprogramowanie ETL, właściwą hurtownię danych oraz aplikacje analityczne. Na poniższej grafice przedstawiono uproszczony schemat budowy hurtowni danych.

Poglądowy schemat budowy hurtowni danych.
Rys. 1 Poglądowy schemat działania hurtowni danych.

Jak wynika z powyższej grafiki podstawą budowy hurtowni danych są dane. Źródła tych danych są rozproszone – należą do nich m.in. systemy ERP, CRM, SCM, czy źródła internetowe (np. dane statystyczne).

Pobrane dane są przetwarzane i integrowane, a następnie ładowane do właściwej hurtowni danych. Etap ten nosi nazwę procesu ETL, od angielskich słów: extract, transform i load. Zgodnie z poszczególnymi etapami procesu dane są najpierw pobierane z dostępnych źródeł (extract). W kolejnym kroku następuje transformacja danych (transform), czyli przetworzenie ich w odpowiedni sposób (czyszczenie, filtrowanie, walidacja, czy usuwanie zduplikowanych danych). Ostatnim etapem jest ładowanie danych (load) do docelowej bazy danych, czyli do hurtowni danych.

Jak już wcześniej wspomnieliśmy dane zebrane w hurtowni danych są wyłącznie do odczytu. Użytkownicy wywołują dane z hurtowni przy użyciu odpowiednich zapytań, uzyskując w ten sposób dane przedstawione w bardziej przyjaznej formie, tj. raportów, schematów czy wizualizacji.

Główne zadania

Jako główne zadanie hurtowni danych należy wyróżnić przetwarzanie analityczne danych (OLAP, On-Line Analytical Processing). Pozwala ono na wykonywanie różnego rodzaju zestawień, raportów, czy wykresów, prezentujących znaczne ilości danych, np. wykres sprzedaży w I kwartale roku, zestawienie produktów generujących największy przychód.

Kolejnym zadaniem, jakie pełnią hurtownie danych jest wspomaganie decyzji w przedsiębiorstwach (DSS, Decision Support System). Biorąc pod uwagę ogromną ilość informacji, jakie znajdują się w hurtowniach danych stanowią one dla firm część systemu wspomagania decyzji. Dzięki zaawansowanym analizom prowadzonym z użyciem tych baz danych znacznie łatwiej wyszukać jest dominujące trendy. Pozwalają one w znaczy sposób ułatwić kierownictwu podjęcie decyzji.

Innym z zadań tych specyficznych baz danych jest centralizacja danych w firmie. Dane pochodzące z różnych działów/szczebli przedsiębiorstwa gromadzi się w jednym miejscu, dzięki czemu każdy zainteresowany ma do nich dostęp, kiedy tylko ich potrzebuje.

Z centralizacją wiąże się kolejna rola hurtowni danych, jaką jest archiwizacja. Z uwagi na to, że dane gromadzone w hurtowni pochodzą z różnych okresów, a hurtownia na bieżąco zasila nowe, bieżące dane to samoistnie staje się ona również archiwum danych i informacji o danym przedsiębiorstwie.

Podsumowanie

Hurtownia danych to bez wątpienia przydatne i funkcjonalne narzędzie, które przynosi wiele korzyści przedsiębiorstwom. Wdrożenie tej bazy danych do swojej firmy może ułatwić i przyspieszyć część procesów zachodzących w przedsiębiorstwach. Hurtownie danych są doskonałą odpowiedzią na przechowywanie tych informacji w jednym, bezpiecznym miejscu, dostępnym dla analityków biznesowych. Jeśli chcesz wprowadzić hurtownię danych do swojej firmy, sprawdź nasz produkt Data Engineering.

Bibliografia

[1] https://www.oracle.com/pl/database/what-is-a-data-warehouse/

Górnictwo kosmiczne

Górnictwo towarzyszy ludzkości od zarania dziejów. W ciągu najbliższych lat będziemy mieć szansę zobaczyć kolejny milowy krok jego rozwoju: górnictwo kosmiczne.

Wizje a rzeczywistość

Górnictwo kosmiczne rozpala wyobraźnię pisarzy i scenarzystów. Roztaczane są wizje walki o zasoby między państwami, korporacjami i kulturami zamieszkującymi inne rejony wszechświata. Mowa jest także o zagrożeniach dla ludzkości wynikających ze spotkania z innymi organizmami żywymi. Pojawia się również wątek niezwykle cennych, nierzadko nieznanych na Ziemi, minerałów i innych substancji możliwych do pozyskania w kosmosie.

Jednak w chwili obecnej daleko do urzeczywistnienia tych wizji. Jesteśmy na etapie katalogowania zasobów kosmicznych, np. sporządzane są mapy geologiczne Księżyca[1] oraz obserwowane są asteroidy[2]. Z ciekawostek wiadomo, że na Księżycu znajdują się złoża helu-3, który w przyszłości może posłużyć jako paliwo przy reakcjach fuzji jądrowej. Na asteroidach spodziewamy się znaleźć złoża wielu cennych minerałów, np. niklu, żelaza, kobaltu, wody, azotu, wodoru i amoniaku na asteroidzie Ryugu. Nasza wiedza o zasobach mineralnych opiera się głównie na obserwacjach astronomicznych. Znacznie rzadziej polega na bezpośredniej analizie próbek skał z powierzchni, a incydentalnie na analizie skał podpowierzchniowych. Jedynie w pełni możemy analizować obiekty, które upadły na powierzchnię Ziemi. Spodziewać się zatem należy, że przed nami jeszcze wiele niespodzianek.

Pierwsze kroki w górnictwie kosmicznym

Jak jednak będą wyglądać początki? Górnictwo jako działalność związana ściśle z ekonomią zacznie się rozwijać by zaspakajać potrzeby rynku. Wbrew temu, do czego jesteśmy przyzwyczajeni na Ziemi, w kosmosie problemem może być dostęp nawet do takich podstawowych substancji jak woda.

Woda

Woda może być ona wykorzystywana bezpośrednio przez ludzi jak i, po hydrolizie, jako paliwo. Zatem realizacja planów NASA wyprawy załogowej na Marsa poprzedzonej obecnością ludzi na Księżycu[3] wygeneruje zapotrzebowanie na wodę na Księżycu jak i w jego pobliżu. Innym znaczącym rynkiem zbytu kosmicznej wody mogą być satelity (potrzebują energii choćby do okresowej korekty trajektorii). Tym bardziej, że według szacunków bardziej będzie się opłacało sprowadzać wodę z Księżyca nawet na niską orbitę okołoziemską (Low Earth Orbit LEO) niż z Ziemi.

Z tych powodów przemysłowe pozyskiwanie wody na Księżycu ma szansę być pierwszym przejawem górnictwa kosmicznego. Jak to może wyglądać w praktyce? Ze względu na intensywne promieniowanie ultrafioletowe jakikolwiek lód na powierzchni Księżyca musiałby zostać rozłożony na tlen i wodór. Natomiast brak atmosfery spowodowałby ulecenie tych pierwiastków w przestrzeń kosmiczną. Dlatego lód spodziewany jest w miejscach wiecznie zacienionych, np. na dnie kraterów uderzeniowych na biegunach. Jedną z metod jego pozyskania może być odparowywanie w szczelnym i przezroczystym namiocie. Energia mogłaby pochodzić ze Słońca: wystarczy odbić promienie słoneczne od luster znajdujących się na szczytach krawędzi kraterów. Na biegunie północnym można znaleźć miejsca, gdzie praktycznie cały czas świeci Słońce.

Regolit

Jedną z pierwszych skał pozyskiwaną na Księżycu ma szansę zostać regolit (pył pokrywający powierzchnię Księżyca). Niewykluczone, że zawiera śladowe ilości wody. Ale przede wszystkim daje nadzieję na przerobienie go na toner do drukarek 3D. To zaś pozwoliłoby na szybkie i tanie konstruowanie budynków planowanej bazy księżycowej[4]. Budynki takiej bazy będą musiały chronić przed szkodliwym promieniowaniem kosmicznym. I choć regolit, w porównaniu do innych materiałów, nie jest bardzo wydajny w ekranowaniu promieniowania (potrzeba jego grubej warstwy), to ma tę przewagę, że nie trzeba go dostarczać z Ziemi. Generalnie, możliwość jak najszerszego wykorzystywania miejscowych surowców jest ważnym czynnikiem decydującym o powodzeniu projektów powstania trwałych habitatów pozaziemskich, dlatego optymalizacja tych procesów jest kluczowa (jeśli chcesz dowiedzieć się więcej o możliwościach optymalizacji w przemyśle, kliknij tutaj).

Asteroidy

Innym kierunkiem rozwoju górnictwa kosmicznego mogą być asteroidy[5]. Naukowcy biorą pod uwagę łowienie mniejszych asteroid i sprowadzanie ich na Ziemię. Można też sprowadzić mniejszą lub większą asteroidę na orbitę okołoziemską lub okołoksiężycową i tutaj dopiero ją eksploatować. Można też eksploatować asteroidy bez ich przemieszczania i dopiero urobek, być może po wstępnym przetworzeniu, dostarczać na Ziemię.

Bariery prawne

Zwykle nie pamięta się, że oprócz oczywistych ograniczeń technologicznych i finansowych istotną barierą mogą okazać się kwestie prawne związane z komercyjną eksploatacją kosmosu[6]. W chwili obecnej najważniejsze cztery międzynarodowe regulacje prawne dotyczące przestrzeni kosmicznej to[7]:

  • Traktat o przestrzeni kosmicznej z 1967 r.,
  • Umowa o ratowaniu astronautów z 1968 r.
  • Konwencja o odpowiedzialności międzynarodowej za szkody wyrządzone przez obiekty kosmiczne z 1972 r. oraz
  • Konwencja o rejestracji obiektów wypuszczonych w przestrzeń kosmiczną z 1975 r.

Formułują one zasadę wolności i niewyłączności przestrzeni kosmicznej, traktowania kosmonautów jako wysłanników ludzkości oraz przypisania każdemu obiektowi wysłanemu w kosmos przynależności państwowej. Ponadto regulują kwestie odpowiedzialności za szkody wyrządzone przez obiekty wysłane w kosmos. Nie regulują jednak kwestii ekonomicznych związanych z eksploatacją kosmosu. Tę lukę częściowo stara się wypełnić Układ księżycowy z 1979 roku. Mimo że niewiele państw (18) go ratyfikuje, to aspiruje on do tworzenia ważnych norm zwyczajowych w zakresie objęcia prawem przestrzeni kosmicznej. Stanowi m. in. że zasoby naturalne Księżyca stanowią wspólne dziedzictwo ludzkości oraz, że powierzchnia ani zasoby Księżyca nie mogą stać się niczyją własnością[8]. Do tych postanowień Układu księżycowego bogate państwa odnoszą się niechętnie. W szczególności USA oficjalnie zapowiedziały, że nie zamierzają się do układu stosować. Czyżby górnictwo kosmiczne miało być elementem kosmicznej odmiany kolonializmu?

Bibliografia

[1] https://store.usgs.gov/filter-products?sort=relevance&scale=1%3A5%2C000%2C000&lq=moon

[2] http://www.asterank.com

[3] https://www.nasa.gov/topics/moon-to-mars

[4] https://all3dp.com/mit-autonomous-construction-rig-could-make-3d-printed-homes/

[5] http://space.alglobus.net/presentations/

[6] http://naukawpolsce.pap.pl/aktualnosci/news%2C81117%2Cdr-pawel-chyc-prawo-w-kosmosie-szczegolne-wyzwanie.html

[7] http://www.unoosa.org/oosa/en/ourwork/spacelaw/index.html

[8] https://kosmonauta.net/2011/09/uklad-ksiezycowy/

Grać jak z nut – cz. 1

Muzycy w czasie swojej edukacji muszą posiąść umiejętność gry a vista – grania nowego dla nich utworu muzycznego, bez wcześniejszego dokładnego zapoznania się z nim. Dzięki temu wirtuozi nie tylko mogą grać bez przygotowania większość utworów, ale też potrzebują dużo mniej czasu na zapoznanie się z bardziej wymagającymi kompozycjami. Do ćwiczeń gry a vista potrzebne jest jednak sporo utworów. Powinny być to raczej mało znane utwory i dopasowane do umiejętności danego muzyka poziomie trudności. Przyszły wirtuoz musi więc poświęcić sporo swojego (i nauczyciela) czasu na przygotowanie takiej playlisty, co dodatkowo demotywuje do nauki. Co gorsza, raz wykorzystana playlista nie jest już do niczego potrzebna.

Tranzystorowy kompozytor

A co gdyby było coś, co samo przygotowuje te utwory, w pełni zautomatyzowany sposób? Nie tylko samo je tworzy, ale też dopasowuje poziom trudności do umiejętności muzyka. Tak powstał pomysł na stworzenie automatycznego kompozytora – programu komputerowego komponującego utwory muzyczne za pomocą sztucznej inteligencji, która w ostatnim czasie nabiera dużego rozgłosu.

Słowo „komponowanie” może jest tu użyte trochę na wyrost, bardziej pasuje „generowanie”. Choć w sumie, kompozytorzy też tworzą kompozycje w oparciu o swoje własne algorytmy. Semantyka na bok, ważne, że stworzenie takiego (prostego póki co) programu się udało i początkujący muzycy mogliby z niego skorzystać.

Zanim jednak przejdziemy do tego, jak generować utwory muzyczne musimy najpierw poznać podstawy, dowiedzieć się jak zbudowane są utwory, a także od czego zależy ich trudność.

Muzyczne ABC

Interwał, półton, akord, takt, metrum, skala muzyczna, tonacje utworu to podstawowe pojęcia w muzycznym ABC. Interwał to wielkość opisująca odległość pomiędzy dwoma kolejnymi dźwiękami melodii. Chociaż jej jednostką jest półton, to zazwyczaj używa się nazw konkretnych interwałów. Z kolei półton to najmniejsza przyjęta różnica pomiędzy wysokościami dźwięków (ok. 5%). Oczywiście różnice te mogą być nieskończenie małe, po prostu taki podział interwałów przyjął się jako standard. Akord to trzy lub więcej dźwięków granych jednocześnie. Następnym pojęciem jest takt, czyli to co znajduje się pomiędzy pionowymi kreskami na pięciolinii. Czasami utwór zaczyna się niepełnym taktem (przedtaktem).

Wizualizacja przedtaktu
Rys. 1 Wizualizacja przedtaktu

Metrum – określenie to odnosi się do tego, ile wartości rytmicznych znajduje się w jednym takcie. W metrum 4/4 w jednym takcie powinny się znaleźć cztery ćwierćnuty. W metrum 3/4 – trzy ćwierćnuty, w metrum 6/8 sześć ósemek. Chociaż 3/4 oraz 6/8 oznaczają taką samą liczbę wartości rytmicznych, to metra te są inne, akcenty w nich przypadają na inne miejsca w takcie. W metrum 3/4 akcent przypada na pierwszą ćwierćnutę (poprawnie mówi się „na pierwszą miarę taktu”). Natomiast w metrum 6/8 akcent przypada na pierwszą i czwartą miarę taktu.

Skala muzyczna to zbiór dźwięków, które określają materiał dźwiękowy, z jakiego utwory muzyczne korzystają. Skale są uporządkowane, zazwyczaj przedstawia się je zgodnie z rosnącą wysokością dźwięków. Najbardziej popularnymi skalami są durowa i molowa. Skal muzycznych jest o wiele więcej, jednak w zachodnim kręgu kulturowym te dwie skale są dominujące. Wykorzystywane były w większości starszych oraz obecnie popularnych utworach. Kolejne pojęcie to tonacja utworu, czyli określenie z jakich dźwięków utwory korzystają. Skala vs. tonacja – skala jest bardziej szerokim określeniem, jest wiele tonacji o danej skali, ale dana tonacja posiada swoją skalę. Tonacja określa od jakiego dźwięku zaczyna się skala.

Budowa utworu muzycznego

W muzyce klasycznej najbardziej popularną zasadą kształtowania utworu muzycznego jest budowa okresowa. Kompozycje budowane są z pewnych elementów – okresów, stanowiących odrębną całość. By jednak zrozumieć, czym one są należy wprowadzić kilka innych pojęć.

Motyw jest to ciąg kilku nut, powtarzających się w tej samej lub nieco odmienionej postaci (wariacja) w innych miejscach utworu. Zazwyczaj czas trwania motywu jest równy długości jednego taktu.

Wariacją motywu nazywamy zmienioną w jakiś sposób formę motywu, zachowującą jednak większość jego właściwości, jak np. rytm bądź charakterystyczny interwał. W utworach muzycznych nie ma bardzo dużej liczby motywów. Większość utworu stanowią wariacje motywów. Dzięki temu utwór ma tak jakby swój charakter i nie zaskakuje słuchacza co raz to nowym materiałem muzycznym.

Muzyczny temat jest to zazwyczaj ciąg 2-3 motywów, które powtarzają się (ewentualnie w nieco zmienionych wersjach) przez cały utwór. Nie każdy utwór musi posiadać swój temat.

Zdanie muzyczne jest to dwie lub więcej fraz.

Okresem muzycznym określamy połączenie dwóch zdań muzycznych. Poniżej przedstawiono prosty okres mały z zaznaczonymi podstawowymi elementami.

Schemat budowy okresowej utworu muzycznego
Rys. 2 Schemat budowy okresowej utworu muzycznego

Tak w uproszczeniu wygląda budowa okresowa. Kilka nut tworzy motywy, kilka motywów frazę, kilka fraz zdanie, kilka zdań okres i w końcu – jeden lub kilka okresów cały utwór muzyczny. Istnieją również alternatywne metody tworzenia utworów muzycznych. Jednakże budowa okresowa jest najbardziej rozpowszechniona, a co ważne w tym przypadku – łatwiejsza do zaprogramowania.

Komponowanie w harmonii

Zazwyczaj kompozycje oparte są na przebiegach harmonicznych – akordach, które mają swoją własną „melodię” i swój własny rytm. Kolejne akordy w przebiegach harmonicznych nie są zupełnie przypadkowe. Na przykład, po akordach F-dur i G-dur bardzo prawdopodobne jest, że następnym akordem będzie C-dur. Mniej prawdopodobne będzie natomiast to, że będzie to e-moll, a zupełnie nieprawdopodobne, by był to Dis-dur. Istnieją pewne reguły rządzące tymi zależnościami między akordami. Nie musimy się jednak w nie bardziej zagłębiać, gdyż będziemy stosować modele statystyczne do generowania harmonii utworów.

Musimy za to zrozumieć, co to są stopnie harmoniczne. Tonacje posiadają kilka ważnych akordów, trójdźwięków. Ich podstawowy dźwięk, prymą są kolejne dźwięki danej tonacji. Pozostałe dźwięki należą do tej tonacji, np. pierwszym stopniem tonacji C-dur jest akord C-dur, drugim stopniem akord d-moll, trzecim e-moll, itd. Stopnie harmoniczne oznaczane są rzymskimi literami, akordy durowe oznaczane są zazwyczaj dużymi literami, a molowe małymi (podstawowe stopnie skali durowej: I, ii, iii, IV, V, vi,VII).

Stopnie harmoniczne są takimi „uniwersalnymi” akordami, niezależnie od jakiego dźwięku zaczyna się tonacja, prawdopodobieństwa kolejnych stopni harmonicznych są takie same. W tonacji C-dur ciąg akordów: C – F – G – C jest tak samo prawdopodobny jak w tonacji G-dur przebieg: G – C – D – G. W tym przykładzie został przedstawiony jeden z najczęściej stosowanych w muzyce przebiegów harmonicznych, wyrażony w stopniach: I – IV – V – I.

Dźwięki melodii nie są zupełnie dowolne, jest wiele reguł i wyjątków, które nimi rządzą. Przykład reguły i wyjątku w tworzeniu harmonii:

  • reguła: na każdą miarę taktu powinien wystąpić dźwięk należący do danego akordu,
  • wyjątek: czasami na daną miarę taktu używa się innych dźwięków, nienależących do tego akordu, lecz po których stosunkowo szybko występuje nuta tego akordu.

Te reguły i wyjątki w harmonii nie muszą być ściśle przestrzegane. Jeśli jednak będziemy się do nich stosować, to istnieje dużo większa szansa, że komponowana przez nas muzyka będzie dobrze, naturalnie brzmieć.

Od czego zależy trudność utworu muzycznego

Jest kilka czynników, które wpływają na trudność utworu:

  • szybkość- generalnie, niezależnie od instrumentu im szybciej, tym trudniej (szczególnie w kontekście gry a vista)
  • dynamika melodii – melodia składająca się z dwóch dźwięków będzie prostsza do zagrania niż taka, która wykorzystuje wiele różnych dźwięków
  • trudność rytmiczna – im bardziej złożony rytm, tym trudniej. Im więcej synkop, trioli, legowanych nut itp. „urozmaiceń” rytmicznych, tym trudniej
  • powtarzalność – nieważne jak trudna melodia, jeśli jej fragmenty się powtarzają, to gra się ją dużo łatwiej, niż taką, która cały czas się zmienia. Jeszcze gorzej jeśli się powtarza, ale w nieco zmieniony, można by rzec „podchwytliwy” sposób (gdy zmiana melodii jest łatwa do przeoczenia)
  • trudności związane z zapisem nutowym – im więcej dodatkowych znaków chromatycznych (bemoli, krzyżyków, kasowników) tym trudniej
  • trudności związane z danym instrumentem – niektóre przebiegi melodyczne mogą mieć diametralnie różne poziomy trudności na różnych instrumentach np. dwudźwięki na pianinie lub gitarze są znacznie prostsze do zagrania niż dwudźwięki na skrzypcach

Niektóre tonacje są trudniejsze od innych, bo posiadają więcej znaków przykluczowych, o których trzeba pamiętać.

Techniczne strony zagadnienia

Muzyczną stronę staraliśmy się nakreślić w poprzednich akapitach natomiast teraz skupimy się na stronie technicznej. Aby dobrze w nią wejść potrzebne jest zagłębienie się w zagadnienie „prawdopodobieństwa warunkowego”. Na początek przykład.

Załóżmy, że nie wiemy gdzie jesteśmy ani nie znamy dzisiejszej daty. Jakie jest prawdopodobieństwo, że jutro zacznie padać śnieg? Zapewne dosyć małe (w większości miejsc na ziemi śnieg nigdy lub prawie nigdy nie pada) więc oszacujemy je na jakieś 2%. Dowiedzieliśmy się jednak, że znajdujemy się w Laponii. Jest to kraina tuż za północnym kołem podbiegunowym. Jak teraz określimy prawdopodobieństwo tego, że jutro spadnie śnieg? Otóż będzie ono dużo wyższe niż przed chwilą. Niestety, dalej taka informacja nie rozwiązuje naszej zagadki, ponieważ nie znamy pory roku jaka obecnie panuje. W związku z tym określimy nasze prawdopodobieństwo na 10%. Kolejną informacją jaką otrzymaliśmy jest to, że jest środek lipca, lato w pełni. Biorąc pod uwagę najnowsze informacje możemy określić prawdopodobieństwo tego, że jutro spadnie śnieg określimy na 0,1%.

Prawdopodobieństwo warunkowe

Z historii powyżej bardzo prosto wysnuć jeden wniosek. Prawdopodobieństwo zależało od stanu naszej wiedzy i zmieniało się na jej podstawie w różne strony. W ten sposób działają prawdopodobieństwa warunkowe, oznaczane w następujący sposób:

P(A|B)

Informują nas o tym, jakie jest prawdopodobieństwo wystąpienia zdarzenia (tutaj A), jeśli wystąpiły jakieś inne zdarzenia (tutaj B). „Zdarzenie” nie musi oznaczać jakiegoś wydarzenia, incydentu – może to być jak w naszym przykładzie dowolny warunek, informacja.

Aby obliczyć prawdopodobieństwo warunkowe musimy wiedzieć, jak często występuje zdarzenie B i jak często występują oba zdarzenia – A i B jednocześnie. Lepiej to zrozumiemy wracając do naszego przykładu. Zakładając, że A to padający śnieg, a B to znajdowanie się w Laponii, to prawdopodobieństwo, że śnieg padać będzie w Laponii jest równe:

wzór na prawdopodobieństwo, że śnieg będzie padać w Laponii

To samo równanie, wyrażone bardziej formalnie i zgodnie z przyjętymi symbolami A i B, będzie wyglądało następująco:

To nie jest to samo, co prawdopodobieństwo tego, że będzie padało w Laponii. Może częściej jeździmy do Laponii zimą i jak już jesteśmy w Laponii, to bardzo prawdopodobne, że będzie padał śnieg?

Aby teraz policzyć dokładnie, ile wynosi to prawdopodobieństwo, potrzebne nam są dwie statystyki:

  • NA∩B ile razy, gdy byliśmy w Laponii, padało,
  • NB ile razy byliśmy w Laponii,

oraz to ile dni do tej pory przeżyliśmy (albo ile dni upłynęło od kiedy zaczęliśmy prowadzić powyższe statystyki):

  • NTOTAL.

Te dane posłużą nam do policzenia odpowiednio P(A∩B) i P(B):

W końcu mamy to, czego oczekiwaliśmy:

Czyli prawdopodobieństwo, że będzie padało, jeżeli znajdujemy się w Laponii jest równe stosunkowi tego ile razy, gdy byliśmy w Laponii padało, do tego jak wiele razy byliśmy w Laponii. Warto też dodać, że im częściej bywaliśmy w Laponii, tym to prawdopodobieństwo będzie dokładniejsze (jeżeli byliśmy 1000 dni w Laponii to będziemy mieli lepsze rozeznanie, niż jeżeli byliśmy tam 3 razy).

N-gramy

Kolejną rzeczą, jaką musimy poznać przed przystąpieniem do algorytmicznego komponowania są N-gramy, jak je stworzyć i jak z nich korzystać do generowania prawdopodobnych sekwencji danych. N-gramy są to modele statystyczne. Jeden N-gram to ciąg elementów o długości równej N. Występują 1-gramy, 2-gramy, 3-gramy, itd. Modele te są często wykorzystywane przy modelowaniu języka. Pozwalają określić, jakie jest prawdopodobieństwo wystąpienia ciągu słów. Bierze się korpus języka (mnóstwo książek, gazet, stron internetowych, forum, itp.) i na podstawie niego zlicza, ile razy wystąpił dany ciąg słów. Na przykład jeśli w zbiorze wystąpił 1000 razy ciąg „zamek królewski”, a tylko 10 razy ciąg „zamek błyskawiczny”, to oznacza, że pierwszy ciąg jest 100 razy bardziej prawdopodobny od drugiego. Takie informacje mogą nam się przydać. Dzięki nim możemy określić, jak prawdopodobne jest każde zdanie.

Bezpieczeństwo urządzeń IoT

Całkiem niedawno opisywaliśmy na naszym blogu czym jest IoT (artykuł możesz przeczytać tutaj). Przybliżaliśmy wtedy ogólną tematykę jak i nasze działania związane z tą branżą. W tym tekście skupiamy się na zagrożeniach i zabezpieczeniach urządzeń w sieci. Internet Rzeczy wkracza w nasze życie w coraz szybszym tempie. Sterowanie oświetleniem czy klimatyzacją z pozycji smartfona powoli staje się codziennością. Również wiele firm coraz chętniej wprowadza do swoich procesów rozwiązania, jakie daje IoT (mowa tu o tzw.  Przemysłowym Internecie Rzeczy, czyli IIoT – Industrial Internet of Things). Według najnowszych prognoz do 2027 roku do sieci ma być podłączone 41 mld urządzeń IoT. Choć niewątpliwie Internet Rzeczy stwarza ogromne możliwości, nie da się ukryć, że może on również przynieść całkiem nowe zagrożenia. Warto więc być świadomym, jakie niebezpieczeństwa mogą wiązać się z użytkowaniem systemów IoT.

Całkowita liczba instalacji urządzeń dla IoT wzrosta z każdym rokiem
Rys. 1 Całkowita liczba instalacji urządzeń dla IoT (źródło: http://businessinsider.com/internet-of-things-report?IR=T)

Zagrożenia

Ataki hakerskie

Rozległa sieć połączonych za pomocą Internetu urządzeń stwarza wiele okazji dla ataków hakerskich. Im więcej tego typu urządzeń, tym większa przestrzeń, która potencjalnie może zostać zaatakowana. Wystarczy, że atakujący włamie się do jednego z takich urządzeń, a w jednej chwili uzyskuje dostęp do całej sieci i danych, jakie przez nią przepływają. Stwarza to realne zagrożenie zarówno dla pojedynczych osób, jak i całych przedsiębiorstw.

Utrata danych

To właśnie utrata danych jest jednym z najczęściej wymienianych zagrożeń, jakie niesie za sobą Internet Rzeczy. Niewłaściwe przechowywanie wrażliwych danych takich jak imię i nazwisko, PESEL czy numer karty płatniczej mogą narazić nas na poważne niebezpieczeństwo. Takie dane mogą zostać wykorzystane w niepożądany dla nas sposób (np. zaciągnięcie kredytu, kradzież pieniędzy). Ponadto na podstawie danych zbieranych przez domowe urządzenia IoT atakujący w prosty sposób może poznać zwyczaje domowników. Może być to np. informacja o godzinach, w których nikt nie przebywa w domu, co może umożliwić mu skuteczne przeprowadzenie włamania.

Atak botnetowy

Kolejnym z zagrożeń jest ryzyko włączenia urządzenia IoT do tzw. botnetu, czyli sieci urządzeń zainfekowanych złośliwym oprogramowaniem, które hakerzy wykorzystują do przeprowadzania różnego rodzaju ataków. Najczęściej spotykanym atakiem botnetowym jest atak typu DDoS (ang. Distributed Denial of Service). Polega on na połączeniu się z daną stroną WWW wielu urządzeń jednocześnie, co może doprowadzić do jej czasowej niedostępności. Innym przykładem działania botnetu jest wykorzystanie zainfekowanych urządzeń do przesyłania spamu lub wytwarzania kryptowalut. Wszystkie te ataki są przeprowadzane w sposób niezauważalny dla właściciela urządzenia. Wystarczy, że klikniemy w link pochodzący z nieznanego źródła, który może zawierać złośliwe oprogramowanie, a nieświadomie stajemy się częścią ataku botnetowego.

Ataki na roboty i maszyny

Z punktu widzenia przedsiębiorstw, istotnym zagrożeniem mogą być ataki na roboty i maszyny przemysłowe, które są podłączone do sieci. Przejęcie sterowania nad urządzeniami tego typu może spowodować poważne szkody dla firm. Hakerzy mogą na przykład zmienić parametry produkcyjne jakiegoś komponentu w taki sposób, że nie będzie on od razu możliwy do wychwycenia, ale spowoduje jego dalszą bezużyteczność. Atakujący mogą również spowodować zakłócenia w pracy maszyn, czy przerwy w dostępie energii. Działania te są poważnym zagrożeniem dla firm, które mogą ponieść z tego tytułu ogromne straty finansowe.

W jaki sposób możemy się zabezpieczyć?

Choć całkowite wyeliminowanie niebezpieczeństw wynikających z użytkowania technologii IoT wydaje się być póki co niemożliwe. Istnieją jednak rozwiązania, które możemy wdrożyć w celu zwiększenia bezpieczeństwa swoich urządzeń. Poniżej przedstawiamy kilka z nich.

Silne hasło

Ważnym aspektem w kwestii bezpieczeństwa urządzeń Internetu Rzeczy jest hasło. Bardzo często użytkownicy używają prostych haseł, zawierających dane, które są łatwe do zidentyfikowania (np. imię, czy data urodzenia). Często też zdarza się, że hasło jest takie samo do kilku urządzeń, przez co łatwiej jest uzyskać do nich dostęp. Zdarza się również, że użytkownicy nie zmieniają standardowego hasła, jakie ustawia producent danego urządzenia. Istotne jest zatem, aby hasło nie było oczywiste. Coraz częściej producenci wymuszają na użytkownikach stosowanie silnych haseł. Ustawiają oni warunki, jakie hasło musi spełniać, tj. duże i małe litery, cyfry i znaki specjalne. Jest to zdecydowanie bardzo dobra praktyka, która może zwiększyć bezpieczeństwo w sieci.

Aktualizacja systemu

Kolejnym sposobem jest regularna aktualizacja oprogramowania wykorzystywanego przez urządzenia IoT. Jeżeli producenci wykryją jakąś lukę w swoich zabezpieczeniach, będą mogli uchronić użytkowników przed potencjalnym atakiem dostarczając im nową wersję oprogramowania, która eliminuje wykryte podatności. Najlepiej, jeśli urządzenie jest ustawione na automatyczną aktualizację systemu. Wówczas możemy mieć pewność, że urządzenie zawsze działa na najnowszej wersji oprogramowania.

Zabezpieczona sieć domowa

Zabezpieczenie sieci domowej jest równie ważne, co ustawienie silnego hasła dostępu. Również w tym przypadku zaleca się zmianę pierwotnego hasła, ustawionego przez dostawcę routera. Dodatkowo domowa sieć Wi-Fi powinna korzystać z szyfrowanego połączenia, jakim jest WPA2-PSK.

Konsumpcyjny umiar

Przed zakupem danego urządzenia dobrze jest się zastanowić, czy jest nam ono rzeczywiście niezbędne, czy być może traktujemy to bardziej jako fajny gadżet. Pamiętajmy, że każde kolejne urządzenie IoT w naszym otoczeniu zwiększa ryzyko potencjalnego ataku. Dlatego też kupujmy tylko te urządzenia, które są nam naprawdę potrzebne.

Zabezpieczenia producenta

Oprócz wymienionych wyżej działań, które powinny zostać podjęte przez użytkowników Internetu Rzeczy ważne jest, aby również producent urządzenia dbał o jego zabezpieczenia. Po jego stronie leży szyfrowanie komunikatów sieciowych, które zabezpiecza przechwytywanie danych podczas ich transportu. Najczęściej stosowanym zabezpieczeniem jest protokół TLS (ang. Transport Layer Security), którego celem jest właśnie zabezpieczenie danych, które przesyła się przez sieć. Ponadto producent urządzenia powinien regularnie sprawdzać swoje zabezpieczenia, dzięki czemu będzie w stanie wychwycić ewentualne luki i je wyeliminować. Dobrze też, aby urządzenia od początku były zabezpieczone przed automatycznym łączeniem z otwartymi sieciami publicznymi.

W czerwcu 2019 roku ustanowiono Akt ws. cyberbezpieczeństwa (Cybersecurity Act), który ma na celu wzmocnienie cyberbezpieczeństwa państw należących do UE. Reguluje on podstawowe wymagania, jakie muszą spełniać produkty łączące się z siecią, co przyczynia się do zwiększenia bezpieczeństwa tych urządzeń. Szybki rozwój IoT  sprawia, że podobnych regulacji będzie więcej, co znacznie wpłynie na utrzymanie globalnego cyberbezpieczeństwa.

Podsumowanie

Pojawienie się technologii IoT przyniosło ogromną rewolucję, zarówno dla pojedynczych osób jak i całych przedsiębiorstw. Choć Internet Rzeczy przynosi wiele korzyści i ułatwień, trzeba być również świadomym, że może on powodować zagrożenie dla bezpieczeństwa naszych danych, czy nas samych. Warto jednak pamiętać, że stosowanie się do kilku przytoczonych przez nas zasad może znacząco wpłynąć na zwiększenie bezpieczeństwa posiadanych urządzeń IoT.

Bibliografia

[1] https://www.businessinsider.com/internet-of-things-report?IR=T

[2] https://medium.com/read-write-participate/minimum-standards-for-tackling-iot-security-70f90b37f2d5

[3] https://www.cyberdb.co/iot-security-things-you-need-to-know/

[4] https://www.politykabezpieczenstwa.pl/pl/a/czym-jest-botnet

[5] https://www.cyberdefence24.pl/rewolucja-w-cyberbezpieczenstwie-ue-akt-ws-cyberbezpieczenstwa-wchodzi-w-zycie

Hałas przemysłowy

W dzisiejszych czasach hałas przemysłowy jest równie istotnym problemem co zanieczyszczenie powietrza lub gospodarowanie odpadami. Wydaje się natomiast, że temat hałasu jest nieco mniej medialny. Tymczasem w równym stopniu może wpływać na nasze samopoczucie, a nawet zdrowie! Ustawa z dnia 27 kwietnia 2001 roku Prawo Ochrony Środowiska traktuje hałas jako zanieczyszczenie. Wobec powyższego należy przyjmować do niego takie same ogólne zasady postępowania jak dla innych zanieczyszczeń środowiska np. zanieczyszczenie powietrza czy gleby.

Hałas towarzyszy dzisiejszemu życiu w większym lub mniejszym stopniu. Mieszkając w okolicy lotniska musimy w pewien sposób zaakceptować wynikające z tego niedogodności, czyli hałas generowany przez startujące i lądujące samoloty, inne urządzenia działające na lotnisku oraz zwiększony ruch w jego okolicach. To samo będziemy mogli napisać o dużych dworcach kolejowych, stoczniach, kopalniach oraz innych fabrykach przemysłu ciężkiego. Galerie handlowe czy areny sportowe będą z kolei generować duży ruch samochodowy w swojej okolicy. W tym artykule skupimy się głównie na hałasie przemysłowym.

Hałas generowany w halach przemysłowych dotyczy zagadnienia hałasu w miejscu pracy.  Hale przemysłowe są to w zdecydowanej większości ogromne, często wysokie przestrzenie, po których rozchodzi się hałas i szum generowany przez maszyny oraz ludzi. W zależności od wielkości powierzchni takiej hali, liczby maszyn pracujących na niej, problem hałasu może być duży, ale mieścić się w określonych normach. Niestety, w wielu przypadkach przekracza dopuszczalne normy co wywołuje negatywne konsekwencje.

W jakich warunkach powinien przebywać pracownik?

Warunki panujące w miejscu pracy precyzyjnie opisuje ustawa, dzięki której są określone normy hałasu. I tak w ustawie zostało określone Najwyższe Dopuszczalne Natężenie (NDN). Pojęcie to definiowane jest jako natężenie fizycznego czynnika szkodliwego dla zdrowia, którego oddziaływanie podczas pracy nie powinno spowodować negatywnych zmian w stanie zdrowia pracownika. Dla 8-godzinnego trybu pracy lub tygodniowego trybu pracy jest to 85 db. Jeśli hałas przemysłowy przekracza tę normę w sposób ciągły może oznaczać to spowodowanie problemów ze zdrowiem pracownika. Może to też narazić firmę na kary ze względu na niezapewnienie odpowiednich warunków pracy. Co jeśli hałas przemysłowy jest większy niż dopuszczalne 85 dB, ale nie przez cały dzień trwania pracy? W takim wypadku też przyjęte są odpowiednie zalecenia. Praca w ciągłym hałasie w granicach 95-100 dB nie może trwać dziennie dłużej niż 40-100 minut, z kolei praca w hałasie powyżej 110 dB – nie dłużej niż 10 minut dziennie.

Jak z tym walczyć?

Jednym z najpowszechniejszych sposobów ochrony zdrowia pracowników przed pracą w nadmiernym hałasie jest wyposażenie ich w nauszniki tłumiące hałas. Na rynku dostępnych jest wiele rodzajów takich urządzeń wyposażonych w system redukcji szumów. Często umożliwiają one też porozumiewanie się pomiędzy pracownikami bez zdejmowania urządzenia. Trzeba jednak zaznaczyć, że nie jest to konkretnie rozwiązanie, które walczy z powstającym hałasem przemysłowym czy też drganiami pracujących maszyn. Ogranicza ono tylko minimalizację skutków ich oddziaływania na pracujących w tym miejscu pracownikach.

Istotną kwestią jest także wygląd hal produkcyjnych. W przypadku nowych hal na etapie projektowania uwzględniane są rozwiązania skutecznie ograniczające rozprzestrzenianie się hałasu po nich. Ciężko zastosować takie rozwiązania w halach, które mają kilkadziesiąt lat lub posiadają ograniczone możliwości przebudowy. Koszty takich modernizacji najczęściej są zbyt wysokie w stosunku do efektów. Biorąc pod uwagę te kwestie trzeba stosować inne metody redukcji hałasu, wśród nich możemy wymienić aktywne i pasywne. 

Aktywna redukcja hałasu przemysłowego

Z ang. Active Noise Cancellation (ANC) jest metodą redukcji niepożądanego hałasu przez stłumienie go za pomocą specjalnie zaprojektowanego sygnału akustycznego w celu obniżenia poziomu dźwięku. Dodanie do siebie dźwięku hałasu i antyhałasu pozwala w rezultacie na osiągnięcie bardziej zadowalającego wyniku. BFirst.Tech posiada własne rozwiązanie ANC, który jest wyposażony w algorytm sztucznej inteligencji umożliwiający redukcję hałasu przemysłowego w zakresie 50-500 Hz, tworząc strefy obniżonego poziomu dźwięku.

Sterownik aktywnej redukcji hałasu
Rys. 1 Sterownik Active Noise Control

Nasz produkt Intelligent Acoustics zawiera w sobie algorytm adaptacji w czasie rzeczywistym do zmian hałasu przemysłowego. Zaletą takiego rozwiązania jest to, że nie działa on sztywno po zaprogramowaniu. Potrafi jednak reagować na zmiany w pracy maszyn np. zmiana prędkości obrotowej układu mechanicznego. System jest przeznaczony zarówno do działania w pomieszczeniach otwartych jak i zamkniętych co oznacza, że jest idealny dla hal przemysłowych.

Pasywna redukcja hałasu przemysłowego

Problemy z hałasem można rozwiązywać wielotorowo. Kolejną możliwością jest stosowanie metod pasywnych. Metody pasywne to np. układy ustrojów akustycznych w przypadku hałasu (absorbery, maty, panele akustyczne) lub układy wibroizolujące. Kluczem do odpowiedniego zaprojektowania rozwiązań pasywnych jest zbadanie środowiska pracy. Należy zlokalizować źródła hałasu i sposobu jego rozchodzenia oraz dopasować do tego wydajne rozwiązania do redukcji hałasu. Te rozwiązania to przede wszystkim rozmieszczenie poszczególnych elementów w środowisku pracy oraz dobór materiałów o parametrach, które skutecznie będą pochłaniać powstający hałas.

Jaką ścieżkę proponujemy?

Aby skutecznie walczyć z hałasem i drganiami w przemyśle i środowisku proponujemy nowoczesny produkt Intelligent Acoustics. Więcej informacji na temat Intelligent Acoustics znajdziesz tutaj.

Bibliografia

[1] http://www.prawo.pl/kadry/halas-w-srodowisku-pracy,186770.html

[2] http://forbes.pl/kariera/dopuszczalny-poziom-halasu-w-miejscu-pracy-obowiazki-pracodawcy/kmvctgb

[3] http://acoustics.org.pl/

[4] https://aes2.org/

Innowacyjność w firmie

Współczesny świat charakteryzuje nieustanny postęp technologiczny. Niemal codziennie można usłyszeć o nowych produktach, usługach, metodach itp. Bardzo często używa się w stosunku do nich określenia „innowacyjny”. Słowo „innowacyjny” można odnieść również w stosunku do przedsiębiorstw, które coraz częściej określają się tym mianem. Co oznacza innowacyjność w przedsiębiorstwie i jak ją kreować, o tym więcej w dzisiejszym artykule.

Czym jest innowacyjność?

Pod pojęciem innowacyjności kryje się „zbiór kompetencji organizacji do nieustannego odkrywania źródeł innowacji, absorbcji innowacji z zewnątrz i generowania własnych innowacji, ich implementacji i dyfuzji (in. upowszechnienia). Mówiąc prościej, jest to umiejętność generowania nowych pomysłów, chęć ulepszania, tworzenia czegoś nowego, a następnie wdrażanie tych nowości i ich komercjalizacja. Innowacyjność przejawia się w nieszablonowym myśleniu, szukaniu rozwiązań i wyjściu poza ramy codziennej rutyny.

Zapewne każdy zna firmy takie jak Apple, Google czy Microsoft. Niewątpliwie są to firmy, które dzięki swojej innowacyjności odniosły ogromny, światowy sukces. Świadczy to o tym, że świat jest otwarty na innowacje, a zapotrzebowanie na nie jest coraz większe. Oznacza to również, że przedsiębiorstwa, które nie będą podążać drogą innowacji, mogą stracić swoją konkurencyjność, co w konsekwencji może doprowadzić do tego, że za kilka lat przestaną istnieć. Czy zatem firmy, które nie mają tak charyzmatycznego lidera jak Steve Jobs lub nie posiadają kapitału równego kapitałowi Google’a mają szansę stać się innowacyjnymi? Odpowiedź na to pytanie brzmi: TAK! Innowacyjność nie jest bowiem cechą wybrańców. Innowacyjność to postawa, którą każdy może w sobie ukształtować.

Podstawa to postawa

Niektórzy ludzie są urodzonymi innowatorami. Wymyślanie nowych pomysłów przychodzi im z niezwykłą łatwością. Co jednak z osobami, które spędzają godziny nad wymyśleniem czegoś nowego, podczas gdy efekty wciąż są niezadowalające? Dla takich osób mamy jedną radę: grunt to nastawienie! Innowacyjność bowiem to przede wszystkim postawa, którą można w sobie wypracować. Najważniejsze w byciu innowacyjnym to otwartość. To ona jest motorem do tworzenia innowacji. Nie wymyślimy bowiem nic nowego powtarzając codziennie te same czynności, zamykając się na jakikolwiek kontakt z otoczeniem.

Tu pojawia się kolejny ważny element w kreowaniu innowacyjności, mianowicie kontakt. Wiele pomysłów pochodzi z zewnątrz, są konsekwencją rozmów z innymi ludźmi. Dlatego tak ważne jest by spędzać z nimi czas, rozmawiać, poznawać ich opinie na różne tematy. W ten sposób możemy wyzwolić w sobie coś, co może skutkować nowymi pomysłami i rozwiązaniami. Dlatego też, chcąc kreować innowacyjność w przedsiębiorstwie, należy zacząć od zmiany swojego nastawienia.

„Architekci innowacyjności”

Kluczową rolę w kreowaniu innowacyjności w przedsiębiorstwie pełnią liderzy – nazwani „architektami innowacyjności” w książce o tym samym tytule autorstwa Thomasa Wedell-Wedellsborga i Paddy’ego Millera. Według autorów głównym zadaniem lidera jest stworzenie w przedsiębiorstwie kultury innowacyjności, tj. warunków, w których kreatywność będzie nieodłącznym elementem pracy każdego pracownika, niezależnie od zajmowanego stanowiska. Autorzy wskazują tu na popełniany często błąd, jakim jest chwilowa chęć stworzenia czegoś innowacyjnego. Organizuje się wówczas „burze mózgów”, wysyła pracowników na warsztaty, które zaowocować mają nowymi pomysłami. Często jednak efekty są zupełnie inne. Pracownicy wracają do pracy, w której codziennie wykonują to samo, przez co ich kreatywność jest zabijana. Dlatego też tak ważne jest wypracowanie kultury innowacyjności, która na co dzień będzie sprzyjała tworzeniu innowacji. Może się ona przejawiać w sposobie organizacji pracy, wyrobieniu nowych nawyków, praktyk i rytuałów, które będą pomocne w wyzwalaniu nowych pomysłów.

Kolejnym zadaniem, jakie stoi przed kadrą zarządzającą jest umiejętność motywowania i wspierania swoich pracowników. Lider powinien być dla swojego zespołu przewodnikiem, który potrafi wzbudzić w nim kreatywność i zmobilizować go do generowania nowych pomysłów. W tym celu autorzy książki stworzyli „kanon pięciu podstawowych zachowań innowacyjnych”, do których należą: koncentracja, kontakt, modyfikacja, selekcja oraz dyplomacja. Wszystkie te zachowania powinny być wspierane przez wytrwałość we wprowadzaniu innowacyjności na co dzień. Wprowadzenie w firmie tzw. „modelu 5+1” wpływa znacząco na ukształtowanie wśród pracowników postawy innowacyjności. Dzięki niemu tworzenie nowych pomysłów nie będzie jednorazowym działaniem, ale na stałe wpisze się w system firmy.

Zarządzanie innowacyjnością

Innowacje nabierają coraz większego znaczenia. W wielu przedsiębiorstwach tworzone są osobne działy zajmujące się działaniami innowacyjnymi firmy. Dlatego też ważnym aspektem w kreowaniu innowacyjnego przedsiębiorstwa jest wprowadzenie w nim procesu zarządzania innowacyjnością.

Poniższy rysunek prezentuje cztery filary, z których powinien składać się proces zarządzania innowacyjnością według Instytutu Innowacyjności Polska.

Innowacyjność zarządzanie. Zarządzanie innowacyjnością składa się z czterech elementów: Diagnostyka innowacji, Zarządzanie innowacją, Wdrażanie innowacji, Finansowanie innowacji
Rys. 1 Filary procesu zarządzania innowacyjnością wg. Instytutu Innowacyjności Polska

Pierwszym i najważniejszym filarem w zarządzaniu innowacyjnością jest diagnoza. Przez diagnozę rozumie się określenie dotychczasowego poziomu innowacyjności firmy, a także analizę jej środowiska pod względem zdolności do tworzenia innowacji. Diagnozę można przeprowadzić samemu, bądź zlecić firmie zewnętrznej tzw. audyt innowacyjności.

W drugim kroku należy stworzyć strukturę organizacyjną oraz procesy, które umożliwią wdrożenie w firmie procesu tworzenia innowacyjnych pomysłów.

Kolejnym krokiem jest generowanie nowych pomysłów, a także zarządzanie procesem realizacji danych projektów.

Ostatni filar zarządzania innowacyjnością stanowi określenie sposobu finansowania innowacji. Źródła finansowania mogą pochodzić zarówno ze źródeł wewnętrznych, jak i zewnętrznych (dotacje, inwestorzy itp.).

Proces zarządzania innowacyjnością jest konieczny, jeśli przedsiębiorstwo chce skutecznie realizować innowacje. Umożliwia on efektywne nadzorowanie realizacji innowacji, pozwala mierzyć stopień innowacyjności firmy, czy też kontrolować wydatki ponoszone w tym obszarze. Wprowadzenie w firmie tego procesu pokazuje, jak wysoką rangę stanowią w niej innowacje.

Podsumowanie

Bez wątpienia innowacje to temat, który nabiera coraz większego znaczenia. Wysoki poziom informatyzacji i postępu technologicznego sprawia, że zapotrzebowanie na innowacje jest coraz większe. Dlatego też, aby utrzymać się na rynku, firmy powinny podążać drogą innowacyjności i kształtować w sobie tę cechę. Istotną rolę w tym procesie odgrywa lider, który jako „architekt innowacyjności” ma za zadanie stworzyć w przedsiębiorstwie system, który na co dzień będzie wyzwalał w pracownikach kreatywne pomysły. Dodatkowo powinien on być swego rodzaju przewodnikiem, który motywuje swój zespół do twórczego działania. Kreowanie innowacyjności w przedsiębiorstwie jest zatem nieustannym procesem realizowanym każdego dnia. Istnieją jednak rozwiązania, które wspierają zarządzanie procesami, takie jak produkt Data Engineering. Wykorzystuje on nowoczesne technologie IoT do zbierania i analizowania informacji w konsekwencji umożliwiając podejmowanie szybkich i trafnych decyzji w firmie.

Bibliografia

[1] https://www.instytutinnowacyjnosci.pl/

[2] http://it-manager.pl/kultura-innowacyjnosci/

[3] Miller P., Wedell-Wedellsborg T., „Architekci Innowacyjności”