Jezioro Danych – zastosowanie uczenia maszynowego

W erze cyfryzacji rośnie zapotrzebowanie na zaawansowane technologie nie tylko do gromadzenia, ale przede wszystkim analizy danych. Przedsiębiorstwa akumulują coraz większe ilości różnorodnych informacji, które mogą zwiększać ich efektywność i innowacyjność. Produkt Data Engineering oferowany przez firmę BFirst.Tech może odgrywać kluczową rolą w procesie wykorzystywania tych danych dla dobra firmy.  Jest to jedna z najnowocześniejszych technologii do efektywnego zarządzania i przetwarzania informacji. W niniejszym artykule przedstawimy jedną z możliwości oferowanych przez Jezioro Danych.

Data Engineering – najnowsza technologia do zbierania i analizowania informacji 

Inżynieria danych to proces projektowania oraz wdrażania systemów do efektywnego zbierania, przechowywania i przetwarzania obszernych zbiorów danych. Wspiera to akumulację informacji, takich jak analiza ruchu na stronach internetowych, dane z czujników IoT, czy trendy zakupowe konsumentów. Zadaniem inżynierii danych jest zapewnienie, że informacje są zręcznie gromadzone i magazynowane oraz łatwo dostępne i gotowe do analizy. Dane mogą być efektywnie przechowywane w jeziorach, hurtowniach czy składnicach danych, a tak zintegrowane źródła danych mogą służyć do tworzenia analiz lub zasilania silników sztucznej inteligencji. Zapewnia to wszechstronne wykorzystanie zgromadzonych informacji (patrz szczegółowy opis produktu Data Engineering (rys. 1)).

Data Engineering, sustainable data management

rys. 1 – Data Engineering

Jezioro Danych w przechowywaniu zbiorów informacji  

Jezioro Danych pozwala na przechowywanie ogromnych ilości surowych danych w ich pierwotnym, nieprzetworzonym formacie. Dzięki możliwościom, jakie oferuje Data Engineering, Jezioro Danych jest zdolne do przyjmowania i integracji danych z różnorodnych źródeł. Mogą to być dokumenty tekstowe, ale także obrazy, aż po dane pochodzące z czujników IoT. To umożliwia analizę i wykorzystanie złożonych zbiorów informacji w jednym miejscu. Elastyczność Jezior Danych oraz ich zdolność do integracji różnorodnych typów danych sprawiają, że stają się one niezwykle cenne dla organizacji, które stoją przed wyzwaniem zarządzania i analizowania dynamicznie zmieniających się zbiorów danych. W przeciwieństwie do hurtowni danych, Jezioro Danych oferuje większą wszechstronność w obsłudze różnorodnych typów danych. Jest to możliwe dzięki zaawansowanym technikom przetwarzania i zarządzania danymi stosowanym w inżynierii danych. Jednakże, ta wszechstronność rodzi również wyzwania w zakresie przechowywania i zarządzania tymi złożonymi zbiorami danych, wymagając od inżynierów danych ciągłego dostosowywania i innowacyjnych podejść. [1, 2] 

Jezioro Danych a przetwarzanie informacji i wykorzystanie uczenia maszynowego

Rosnąca ilość przechowywanych danych oraz ich różnorodność stanowią wyzwanie w zakresie efektywnego przetwarzania i analizy. Tradycyjne metody często nie nadążają za tą rosnącą złożonością, prowadząc do opóźnień i ograniczeń w dostępie do kluczowych informacji. Uczenie maszynowe, wsparte przez innowacje w dziedzinie inżynierii danych, może znacząco usprawnić te procesy. Wykorzystując obszerne zbiory danych, algorytmy uczenia maszynowego identyfikują wzorce, przewidują wyniki i automatyzują decyzje. Dzięki integracji z Jeziorami Danych (rys. 2), mogą one pracować z różnymi typami danych, od strukturalnych po niestrukturalne, umożliwiając przeprowadzanie bardziej złożonych analiz. Ta wszechstronność pozwala na głębsze zrozumienie i wykorzystanie danych, które byłyby inaczej niedostępne w tradycyjnych systemach.

Zastosowanie uczenia maszynowego w Jeziorach Danych umożliwia głębszą analizę i efektywniejsze przetwarzanie dzięki zaawansowanym narzędziom i strategiom inżynierii danych. Pozwala to organizacjom transformować ogromne ilości surowych danych w użyteczne i wartościowe informacje. Jest to istotne dla zwiększenia ich efektywności operacyjnej i strategicznej. Ponadto, wykorzystanie uczenia maszynowego wspomaga interpretację zgromadzonych danych i przyczynia się do bardziej świadomego podejmowania decyzji biznesowych. W efekcie, firmy mogą dynamiczniej dostosowywać się do rynkowych wymogów i innowacyjnie tworzyć strategie oparte na danych. 

Jezioro danych

rys. 2 – Jezioro Danych

Podstawy uczenia maszynowego oraz kluczowe techniki i ich zastosowania  

Uczenie maszynowe, będące integralną częścią tzw. sztucznej inteligencji, umożliwia systemom informatycznym samodzielne uczenie się i doskonalenie na podstawie danych. W tej dziedzinie wyróżniamy typy uczenia takie jak uczenie nadzorowane, uczenie nienadzorowane i uczenie ze wzmocnieniem. W uczeniu nadzorowanym każdy przykład danych ma przypisaną etykietę lub wynik, który pozwala maszynom na naukę rozpoznawania wzorców i przewidywania. Stosowane jest to m.in. w klasyfikacji obrazów lub prognozowaniu finansowym. Z kolei uczenie nienadzorowane, pracujące na danych bez etykiet, skupia się na znajdowaniu ukrytych wzorców. Jest to użyteczne w zadaniach takich jak grupowanie elementów czy wykrywanie anomalii. Natomiast uczenie ze wzmocnieniem opiera się na systemie nagród i kar, pomagając maszynom optymalizować swoje działania w dynamicznie zmieniających się warunkach, jak np. w grach czy automatyce. [3]

Co jeśli chodzi o algorytmy? Sieci neuronowe są doskonałe do rozpoznawania wzorców skomplikowanych danych – jak obrazy czy dźwięk – i stanowią podstawę wielu zaawansowanych systemów AI. Drzewa decyzyjne są używane do klasyfikacji i analizy predykcyjnej, na przykład w systemach rekomendacji lub prognozowaniu sprzedaży. Każdy z tych algorytmów ma swoje unikalne zastosowania. Może być dostosowany do specyficznych potrzeb zadania lub problemu, co czyni uczenie maszynowe wszechstronnym narzędziem w świecie danych. 

Przykłady zastosowań uczenia maszynowego 

Zastosowanie uczenia maszynowego w Jeziorach Danych, otwiera szerokie spektrum możliwości, od detekcji anomalii po personalizację ofert i optymalizację łańcuchów dostaw. W sektorze finansowym algorytmy te skutecznie analizują wzorce transakcji, identyfikując nieprawidłowości i potencjalne oszustwa w czasie rzeczywistym, co ma kluczowe znaczenie w zapobieganiu oszustwom finansowym. W handlu detalicznym i marketingu, uczenie maszynowe pozwala na personalizację ofert dla klientów poprzez analizę zachowań zakupowych i preferencji, zwiększając satysfakcję klienta i efektywność sprzedaży. [4] W przemyśle, algorytmy te przyczyniają się do optymalizacji łańcuchów dostaw, analizując dane z różnych źródeł, jak prognozy pogody czy trendy rynkowe, co pomaga w przewidywaniu popytu i zarządzaniu zapasami oraz logistyką [5].

Można je też wykorzystać do wstępnego projektowania czy optymalizacji produktów. Innym, interesującym zastosowaniem uczenia maszynowego w Jeziorach Danych jest analiza obrazów. Algorytmy uczenia maszynowego są w stanie przetwarzać i analizować duże zbiory zdjęć czy obrazów, znajdując zastosowanie w takich dziedzinach jak diagnostyka medyczna, gdzie mogą pomagać w wykrywaniu i klasyfikowaniu zmian chorobowych na obrazach radiologicznych, czy w systemach bezpieczeństwa, gdzie analiza obrazu z kamer może służyć do identyfikacji i śledzenia obiektów lub osób.  

Podsumowanie

Artykuł ten zwraca uwagę na rozwój w obszarze analizy danych, podkreślając jak uczenie maszynowe, Jeziora Danych i inżynieria danych wpływają na sposób w jaki organizacje przetwarzają i wykorzystują informacje. Wprowadzenie tych technologii do biznesu ulepsza istniejące procesy oraz otwiera drogę do nowych możliwości. Data Engineering wprowadza modernizację w przetwarzaniu informacji, która charakteryzuje się większą precyzją, głębszymi wnioskami i bardziej dynamicznym podejmowaniem decyzji. To podkreśla rosnącą wartość inżynierii danych w nowoczesnym świecie biznesu, co jest ważnym czynnikiem w dostosowywaniu się do zmieniających się wymagań rynkowych i tworzeniu strategii opartych na danych. 

Bibliografia

[1] https://bfirst.tech/data-engineering/ 

[2] https://www.netsuite.com/portal/resource/articles/data-warehouse/data-lake.shtml 

[3] https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained 

[4] https://www.tableau.com/learn/articles/machine-learning-examples 

[5]https://neptune.ai/blog/use-cases-algorithms-tools-and-example-implementations-of-machine-learning-in-supply-chain 

Nowe rozwiązania w komputerach stacjonarnych

Współczesny rynek technologiczny prężnie rozwija się w zakresie komputerów stacjonarnych. Firmy technologiczne próbują wyróżniać swoje produkty poprzez wprowadzanie do nich innowacyjnych rozwiązań. W ostatnim czasie duży rozgłos zyskał Mac M1 Ultra.

Nowy komputer od Apple, odznacza się przede wszystkim swoją wielkością i mobilnością. Zaprezentowany na początku marca produkt jest pełnoprawnym desktopem zamkniętym w obudowie o wymiarach 197 x 197 x 95 mm. Porównując to do kart graficznych Nvidii z serii RTX, np. Gigabyte GeForce RTX 3090 Ti 24GB GDDR6X, gdzie samo GPU ma wymiary 331 x 150 x 70 mm, okazuje się, że otrzymujemy cały komputer o rozmiarach karty graficznej. [4]

Apple M1 Ultra  - przedni panel
Rys. 1 – Apple M1 Ultra  – przedni panel [5]

Różnica w budowie

Rdzenie to fizyczne elementy procesora w których zachodzą procesy i obliczenia, im więcej rdzeni tym szybciej pracować będzie komputer. Proces technologiczny wyrażony w nm oznacza wielkość bramki tranzystora i przekłada się na zapotrzebowanie energii oraz ciepło generowane przez procesor. Zatem im mniejsza wartość jest wyrażona w nm, tym wydajniejszy jest procesor.

Procesor M1 Ultra ma 20 rdzeni i tyle samo wątków, a wykonany jest w technologii 5nm. [4][6] Dla porównania AMD oferuje maksymalnie 16 rdzeni i 32 wątki w technologii 7nm [7] (nowe procesory AMD z serii ZEN4 mają mieć technologię 5nm, jednak na  ten moment nie znamy dokładnej specyfikacji [3]) a Intel 16 rdzeni i 32 wątki w technologii 14nm [8]. Wobec powyższego, w teorii produkt od Apple ma znaczną przewagę nad konkurencją w kwestiach wydajności pojedynczego wątku. [Rys. 2]

Wydajność nowego komputera Apple

Według zapewnień producenta, GPU od Apple miało przewyższać najlepszą, na tamten moment, dostępną kartę graficzną – RTX 3090.

Wykres  wydajności procesora od ilości zużytego prądu
Rys. 2 – Wykres  wydajności procesora od ilości zużytego prądu [9] . Wykres pokazany przez Apple podczas prezentacji nowego produktu

Zintegrowana karta graficzna miała zapewniać lepszą wydajność przy zużyciu ponad 200W mniej mocy. [Rys. 3] Po premierze, użytkownicy sprawdzili jednak szybko zapewnienia producenta i okazało się, że RTX znacznie przewyższa w testach benchmarkowych produkt Apple.

Wykres wydajności karty graficznej od ilości zużytego prądu
Rys. 3 – Wykres wydajności karty graficznej od ilości zużytego prądu [9]. Wykres pokazany przez Apple podczas prezentacji nowego produktu. Porównany z RTX 3090

Problemem jest to, że te benchmarki w większości wykorzystują programy niezoptymalizowane pod Mac OS, przez co produkt Apple nie wykorzystuje całości swojej mocy. W testach wykorzystujących całą moc GPU M1 Ultra wypada bardzo podobnie do swojego dedykowanego rywala. Niestety nie wszystkie aplikacje są napisane pod system operacyjny Apple, co mocno ogranicza zastosowania, w których wykorzystamy pełną moc komputera.[10]

Na poniższym wykresie zostało przedstawione porównanie liczby klatek na sekundę w “Shadow of the Tomb Raider” z 2018 roku. [Rys. 4] Im więcej klatek tym płynniejszy jest obraz. [2]

Liczba klatek na sekundę w grze z serii Tomb Raider
Rys. 4 – Liczba klatek na sekundę w grze z serii Tomb Raider (im więcej tym lepiej)[2]

Pobór energii nowego Mac Studio M1 Ultra w porównaniu do standardowych PC

Pomimo dużej mocy obliczeniowej, nowy produkt Apple jest bardzo energooszczędny. Producent podaje, że jego maksymalny ciągły pobór mocy wynosi 370W. Standardowe PC na współczesnych podzespołach nie schodzą poniżej 500W a rekomendowana moc dla sprzętu z najlepszymi częściami wynosi 1000W [Tab. 1] ( Nvidia GeForce RTX 3090 Ti + AMD R7/9 lub Intel i7/9 ).  

Intel i5
AMD R5
Intel i7
AMD R7
Intel i9 K
AMD R9
NVIDIA RTX 3090 Ti850W1000W1000W
NVIDIA RTX 3090 750W850W850W
NVIDIA RTX 3080 Ti750W850W850W
NVIDIA RTX 3080 750W850W850W
NVIDIA RTX 3070 Ti750W850W850W
NVIDIA RTX 3070 650W750W750W
Lower graphic cards650W650W650W
Tab. 1 – Tabela rekomendowanej mocy zasilacza zależnie od użytego procesora i karty graficznej. W kolumnach procesory AMD i Intel, w wierszach karty graficzne NVIDIA z serii RTX. [1]

Oznacza to znacznie mniejsze koszty utrzymania takiego komputera. Zakładając, że nasz komputer pracuje 8h dziennie i średni koszt kWh na poziomie 0,77 PLN, otrzymujemy oszczędność na poziomie 1500 zł rocznie. W krajach, które nie są zasilane zieloną energią oznacza to również mniejszą ilość zanieczyszczeń.

Problemy produktu od Apple

Produkty od Apple mają dedykowany software, co oznacza lepszą kompatybilność z hardware i przekłada się na lepszą wydajność, ale oznacza też, że dużo programów nie napisanych pod Mac OS nie jest w stanie całkowicie wykorzystać potencjału M1 Ultra. Produkt nie pozwala na korzystanie z dwóch systemów operacyjnych lub samodzielne zainstalowanie Windowsa/Linuxa. Okazuje się więc, że to co pozwala M1 Ultra osiągnąć tak dobre wyniki w niektórych warunkach, jest też powodem przez który nie jest w stanie konkurować wydajnością w innych programach. [10]

Podsumowanie

Apple M1 Ultra jest silnym komputerem w małej obudowie. Technologia 5nm zapewnia najlepszą energooszczędność wśród produktów aktualnie dostępnych na rynku. Jednak przez swoją niską kompatybilność i wysoką cenę nie zastąpi standardowych komputerów. Aby uzyskać maksymalną wydajność potrzebne są programy dedykowane pod system operacyjny Apple. Decydując się na ten komputer trzeba to mieć na myśli. Z tego powodu, pomimo wielu zalet jest to raczej produkt przeznaczony dla profesjonalnych grafików, muzyków lub edytorów wideo.

Bibliografia

[1] https://www.msi.com/blog/we-suggest-80-plus-gold-1000w-and-above-psus-for-nvidia-geforce-rtx-3090-Ti

[2] https://nano.komputronik.pl/n/apple-m1-ultra/

[3] https://www.tomshardware.com/news/amd-zen-4-ryzen-7000-release-date-specifications-pricing-benchmarks-all-we-know-specs

[4] https://www.x-kom.pl/p/730594-nettop-mini-pc-apple-mac-studio-m1-ultra-128gb-2tb-mac-os.html

[5] https://dailyweb.pl/apple-prezentuje-kosmicznie-wydajny-mac-studio-z-nowym-procesorem-m1-ultra/

[6] https://geex.x-kom.pl/wiadomosci/apple-m1-ultra-specyfikacja-wydajnosc/

[7] https://www.amd.com/pl/partner/ryzen-5000-series-desktop

[8] https://www.cpu-monkey.com/en/

[9] https://www.apple.com/pl/newsroom/2022/03/apple-unveils-m1-ultra-the-worlds-most-powerful-chip-for-a-personal-computer/

[10] https://youtu.be/kVZKWjlquAU?t=301

ANC – finansowe aspekty

Dzisiejsze realia w coraz większym stopniu angażują ludzi do rozmowy o finansach. Zarówno, jeżeli chodzi o nasze prywatne domowe budżety, jak i o wielkie inwestycje na szczeblu globalnym. Nie sposób nie zauważyć faktu, że dbałość o finanse zaowocowała wypracowaniem nowatorskich metod ich analizy. Począwszy od prostych aplikacji, które pozwalają nam monitorować codzienne wydatki, kończąc na olbrzymich systemach rachunkowo księgowych, które obsługują globalne korporacje. Rozmowy o pieniądzach dotyczą również szeroko pojętych inwestycji. Bardzo często związane są one z wdrożeniami nowoczesnych technologii, które w domyśle mają przynosić jeszcze większe korzyści, z finalnym efektem w postaci większego zysku. W jaki sposób możemy zdefiniować zysk? I czy rzeczywiście jest on najważniejszym czynnikiem w dzisiejszym postrzeganiu biznesu? Jak aktywna redukcja hałasu może wpłynąć na wydajność i zysk?

Co to jest zysk?

Sięgając do literatury czytamy, że „zysk stanowi nadwyżkę przychodów nad kosztami” [1]. Innymi słowy zysk stanowi dodatni wynik finansowy. Potocznie rzecz biorąc jest to stan, w którym więcej sprzedajemy niż wydajemy. I oczywiście jest to zjawisko zdecydowanie pożądane, bowiem w zamyśle firma powinna przynosić zysk. Stanowi on podstawę do kolejnych inwestycji, aby w dalszym ciągu mieć możliwość zaspokajać potrzeby klientów. Mówiąc o zysku możemy wyróżnić kilka jego rodzajów [2]:

  1. Zysk brutto, czyli różnicę pomiędzy przychodami netto ze sprzedaży a kosztami sprzedanych produktów. Dzięki niemu możemy zobaczyć jak jednostka naszego wyrobu przekłada się na wynik finansowy. Ma to szczególne znaczenie dla przedsiębiorstw produkcyjnych, które często poszukują takich usprawnień, które w efekcie pozwolą im na zachowanie efektu skali.
  2. Zysk netto, czyli nadwyżkę, która zostaje po odjęciu wszystkich kosztów. W bilansowym ujęciu jest to różnica między kosztami całkowitymi a przychodem ze sprzedaży. W dzisiejszym świecie bardzo często pojmowany jako czynnik, który świadczy o dobrej kondycji finansowej przedsiębiorstwa.
  3. Zysk operacyjny, czyli specyficzny rodzaj zysku, który skupia się tylko i wyłącznie na wyniku w obszarze podstawowej działalności firmy. Bardzo często odzwierciedlony w rachunku zysków i strat w postaci EBIT-u.

Zysk a wydajność

Wydajność w takim rozumieniu wiąże się z zagwarantowaniem w długim okresie czasu, że praca nie zaszkodzi życiu lub zdrowiu pracowników. Ogólna klasyfikacja Centralnego Instytutu Ochrony Pracy wymienia czynniki takie jak [3]:

  • hałas i drgania mechaniczne,
  • czynniki mechaniczne,
  • czynniki chemiczne i pyły,
  • obciążenia mięśniowo – szkieletowe,
  • stres,
  • oświetlenie,
  • promieniowanie optyczne,
  • prąd elektryczny.

Klasyfikacja wymienia również obciążenia termiczne, pole elektromagnetyczne, czynniki biologiczne oraz zagrożenia wybuchem i pożarem. Najczęstszym jednak problemem jest kwestia hałasu przemysłowego i drgań, których często nawet ludzkie ucho nie jest w stanie wychwycić. Bardzo często w wyniku przebywania w środowisku wiecznie hałaśliwym koncentracja i poziom senności wzrastały. Stąd możemy wywnioskować, że nawet coś tak niepozornego jak hałas i drgania generują dla przedsiębiorcy spore koszty, zwłaszcza jeśli chodzi o koszty jednostkowe (przy masowej produkcji), dlatego istotnym jest podjęcie działań w kierunku redukcji hałasu. Jeśli chcesz dowiedzieć się więcej na temat tego jak walczyć z hałasem zapisz się na szkolenie tutaj.

Jak zapobiec generowaniu kosztów?

Dzisiejsze firmy z branży R&D, inżynierowie i specjaliści wnikliwie badają i usprawniają systemy produkcyjne, oferując im rozwiązania, które eliminują nawet te najtrudniejsze do rozwiązania problemy, dotyczące efektywności pracy człowieka. Świadomość lepszej opieki nad pracownikiem pogłębia się z roku na rok. Stąd też przysłowiowy „boom” na rozwiązania z zakresu sztucznej inteligencji oraz systemów, które będą ułatwiały pracę człowiekowi. Rozwiązania tego typu to jednak spora inwestycja, stąd starania inżynierów finansowych do optymalizacji kosztów takich rozwiązań.

Krok 1 – Zapoznanie się z charakterystyką wydajności systemu produkcyjnego fabryki w ujęciu produkcyjnym oraz ekonomicznym.

Każdy z procesów produkcyjnych ma swoją wydajność i charakterystykę, która w określonym stopniu przekłada się na wyniki produkcji. Aby te procesy były mierzalne, należy wcześniej je za pomocą mierników. Na bazie wiedzy o procesie oraz danych, które określone są przy użyciu wspomnianych mierników warto określić poziom wydajności procesu w dwóch ujęciach, produkcyjnym oraz ekonomicznym. Pierwsze z nich określi poziom wydajności pracy zespołu człowiek – maszyna, drugie natomiast spojrzy na problem wydajności w perspektywie zysków lub strat. Bardzo często na tym etapie wyłapywane są tzw. wąskie gardła produkcji, które stanowią o wydajności danego procesu. Warto w tym momencie sporządzić raporty, dotyczące stanu wydajności produkcji.

Krok 2 – Określenie założeń techniczno – ekonomicznych

Podstawą do określenia założeń będzie raport z charakterystyki wydajności procesu. Dzięki niemu będziemy w stanie określić najmniej i najbardziej wydajny proces. Określenie założeń ma na celu sporządzenie aktualnych celów dla zarządzających konkretnymi procesami. W obszarze technicznym założenia dotyczą najczęściej optymalizacji produkcji w wąskich gardłach, natomiast w obszarze ekonomicznym swoją uwagę warto skupić na optymalizacji kosztowej, wynikającej z prowadzonych rachunków kosztów w ramach rachunkowości zarządczej. Założenia techniczno-ekonomiczne są podstawą do wdrożenia innowacyjnych rozwiązań, dają bowiem zielone światło dla zmian, które należy przeprowadzić, aby proces był rentowny.

Krok 3 – Prognozy wartości dochodów i nakładów inwestycyjnych a aktywna redukcja hałasu

Następnie przystępujemy do badania prognostycznego. Ma ono na celu zbadać jaki rozkład w czasie będą miały dochody oraz nakłady inwestycyjne, poniesione zarówno na wdrożenie i późniejsze działanie systemu w warunkach przemysłowych.

Nakład z aktywnej redukcji hałasu jest wyższy na przestrzeni lat od zwykłego nakładu
Rys. 1 Prognozowane nakłady na lata 2017-2027
Dochód z aktywnej redukcji hałasu utrzymuje się na podobnym poziomie, a dochód bez anc jest niestabilny
Rys. 2 Prognozowany dochód na lata 2017-2027

Wdrożenie systemu aktywnej redukcji hałasu jest w stanie, z punktu widzenia ekonomicznego, uspokoić wahania dochodów w czasie.  Trend na podstawie analizy poprzednich okresów wyraźnie pokazuje cykliczność i tendencję liniową do zarówno wzrostów jak i spadków. Stabilizacja koreluje z wdrożeniem opisywanego systemu. Może się to wiązać ze stałym dodatkowym wzrostem mocy produkcyjnych związanych z implementacją systemu do procesu produkcyjnego. Stąd też wniosek, że poprawa wydajności produkcyjnej przynosi w rezultacie stabilizację dochodów w czasie. Z drugiej strony poziom nakładów jest wyższy w przypadku wdrożenia systemu. Mimo tego faktu poziom ten ma tendencje spadkowe z roku na rok.

Na podstawie tych danych jesteśmy w stanie obliczyć podstawowe mierniki opłacalności inwestycji. W tym momencie również przeprowadzamy obliczenia wprowadzające, mające na celu sprowadzenie dochodów oraz nakładów do jednego momentu w czasie. Zabieg ten pozwoli na obliczenia stopy dyskonta oraz pozwoli zaprognozować przyszłe okresy inwestycji [1].

Krok 4 – Ocena efektywności inwestycji metodami statycznymi

Mierniki opłacalności inwestycji liczymy, chcąc sprawdzić, czy to, w co chcemy włożyć nasz kapitał, przyniesie nam odpowiednie i satysfakcjonujące zyski. Inwestowanie w takie rozwiązania jest konieczne, przy znaczącej konkurencji. Oczywiście podejmowane decyzje mogą przechylić szalę w dwojaki sposób. Zwiększenie zysków, obniżenie kosztów czy też mocniejsza pozycja na rynku to jedne, z wielu pozytywnych aspektów inwestowania. Istnieje też druga strona medalu. Złe decyzje, opierane najczęściej na nieprzygotowanych analizach, lub nawet braku takich analiz, wiążą się niejednokrotnie z utraconymi zyskami, często ponosimy koszty alternatywne. Jeszcze częściej nieprzemyślane ruchy inwestycyjne powodują obniżanie się wartości firmy. W ujęciu statycznym mówimy o następujących wskaźnikach:

  • Roczna stopa zwrotu,
  • Księgowa stopa zwrotu,
  • Prosty okres zwrotu.

W omawianym przypadku, czyli wdrożeniu systemu aktywnej redukcji hałasu, mówimy o rocznej oraz księgowej stopie zwrotu na poziomie ok. 200% wartości. Okres zwrotu oscyluje na poziomie niecałego roku. Jest to związane z dużą dysproporcją pomiędzy nakładami poniesionymi na wdrożenie systemu, a korzyściami jego implementacji. Jednak aby mieć stuprocentową pewność wdrożenia, należy policzyć jeszcze przede wszystkim zaktualizowaną wartość netto (NPV) oraz wewnętrzną stopę zwrotu (IRR). Określą one wydajność inwestycji na przestrzeni kolejnych badanych okresów.

Krok 5 – Ocena efektywności metodami dynamicznymi

W tej części należy zastanowić się jak efektywna jest inwestycja i jaki przez to ma wpływ na jej wartość przyszłą. Dlatego obliczone zostaną wskaźniki takie jak:

  • Zaktualizowana wartość netto (NPV),
  • Zdyskontowana stopa zysku (NPVR),
  • Wewnętrzna stopa zwrotu (IRR),

Realizując politykę wprowadzania innowacyjności w spółkach przemysłowych firmy stoją przed wyzwaniem maksymalizacji wskaźników efektywności. Widząc zatem korelację pomiędzy możliwościami zastosowania metod aktywnej redukcji hałasu, które poprawiają jakość warunków pracy – wpływając na realizację zadań przez pracowników, można stwierdzić, że poprawa wydajności pracy odbija się na wynikach finansowych co ma bezpośredni wpływ na ocenę efektywności realizacji takiego projektu. Mimo wysokich nakładów początkowych korzyści mają charakter długoterminowy, wpływając na poprawę stabilizacji produkcji.

Czy warto prowadzić wstępne kalkulacje zyskowności inwestycji?

Odpowiedź jest krótka, warto. Pomagają one w procesach decyzyjnych. Stanowią dla decydentów pierwsze przetarcie, wstępną selekcję inwestycji opłacalnych oraz nieopłacalnych. W tym momencie zarząd jest w stanie ustalić prognozowaną zyskowność, którą są w stanie kreować już na pułapie operacyjnym działalności. Reagując na ubytki wydajności szefowie są w stanie wychwycić uciekające źródła dochodów oraz wcześniej zareagować na potencjalne nowinki technologiczne. Wstępna ocena opłacalności jest pomocnym narzędziem w podejmowaniu trafnych i obiektywnych decyzji.

Bibliografia

[1] D.Begg, G.Vernasca, S.Fischer „Mikroekonomia” PWE Warszawa 2011
[2] mfiles.pl/pl/index.php/Zysk

[3] Felis P., 2005: Metody i procedury oceny efektywności inwestycji rzeczowych przedsiębiorstw. Wydawnictwo Wyższej Szkoły Ekonomiczno-Informatycznej. Warszawa.

Cyfrowe przetwarzanie obrazów

Przetwarzanie sygnałów towarzyszy każdemu człowiekowi codziennie. Wszystkie bodźce (sygnały) odbierane z otaczającego nas świata, tj. dźwięk, światło, temperatura są przetwarzane w impulsy elektryczne, przesyłane następnie do mózgu. Tam następuje analiza i interpretacja odebranych sygnałów, w wyniku której otrzymujemy informacje płynące z danego rodzaju sygnału (np. rozpoznajemy kształt przedmiotu, odczuwamy ciepło itp.).

W podobny sposób działa Cyfrowe Przetwarzanie Sygnałów (CPS). W tym przypadku sygnał analogowy konwertuje się na sygnał cyfrowy przez przetwornik analogowo-cyfrowy. Następnie przy użyciu komputera przetwarzane są dostarczone sygnały. W systemach CPS wykorzystuje się również komputerowe urządzenia peryferyjne, wyposażone w procesory sygnałowe, dzięki którym możliwe jest przetwarzanie sygnałów w czasie rzeczywistym. Niekiedy potrzebna jest ponowna konwersja sygnału do postaci analogowej (np. do sterowania jakiegoś urządzenia). W tym celu wykorzystuje się przetworniki cyfrowo-analogowe.

Cyfrowe przetwarzanie sygnałów ma bardzo szerokie zastosowanie. Może być wykorzystywane m.in. do przetwarzania dźwięku, rozpoznawania i przetwarzania mowy, czy do przetwarzania obrazów. To ostatnie zagadnienie będzie przedmiotem tego artykułu, a konkretnie omówimy w nim podstawową operację wykonywaną w procesie cyfrowego przetwarzania obrazów, tj. filtrację splotową.

Czym jest przetwarzanie obrazów?

Mówiąc w najprostszy sposób, przetwarzanie obrazów polega na przekształceniu obrazu wejściowego w obraz wyjściowy. Celem tego procesu jest selekcja informacji – wybranie najistotniejszych (np. kształtu) oraz wyeliminowanie zbędnych (np. szumów). Proces cyfrowego przetwarzania obrazów obejmuje szereg różnorodnych operacji, m.in.:

  • filtrację,
  • binaryzację,
  • segmentację,
  • transformację geometryczną,
  • kodowanie,
  • kompresję.

Jak już wspominaliśmy, w tym artykule omówimy szerzej operację filtracji obrazów.

Filtracja splotowa

Zarówno w domenie jednowymiarowej, przykładowo dla sygnałów audio, tak również dla dwóch wymiarów istnieją odpowiednie narzędzia służące przeprowadzeniu operacji na sygnałach, w tym przypadku na obrazach. Jednym z takich narzędzi jest filtracja. Polega ona na wykonaniu na pikselach obrazu wejściowego pewnych operacji matematycznych, w wyniku których otrzymywany jest nowy obraz. Najczęściej filtrację wykorzystuje się w celu poprawy jakości obrazu lub wydobycia z niego istotnych cech.

Podstawową operacją w metodzie filtracji jest operacja splotu 2D. Pozwala ona na aplikowanie przekształceń obrazu z użyciem odpowiednio przygotowanych do tego filtrów w postaci macierzy współczynników. Wykorzystanie filtrów polega na obliczeniu nowej wartości punktu na podstawie wartości punktów znajdujących się w jego otoczeniu. Do obliczeń wykorzystuje się tzw. maski, zawierające wagi pikseli z otoczenia danego piksela. Najczęściej spotykane rozmiary masek to 3×3, 5×5 i 7×7. Poniżej przybliżono proces przeprowadzenia konwolucji obrazu oraz filtra.

Przyjmując, że obraz reprezentowany jest przez macierz o wymiarach 5×5, zawierającą wartości kolorów, a filtr reprezentowany macierzą 3×3, przeprowadzono modyfikację obrazu poprzez splecenie jednej z nich z drugą.

Pierwsze, co należy wykonać to zamiana wierszy, a następnie kolumn w macierzy filtra (wiersz/kolumna pierwsza → wiersz/kolumna ostatnia – i na odwrót). Należy również przyjąć, że środek jądra filtracji h(0,0) znajduje się w środku macierzy, tak jak to pokazano na poniższym rysunku. W związku z taką konwencją indeksy (m,n) oznaczające wiersze i kolumny macierzy filtra będą ujemne i dodatnie.

Przetwarzanie obrazów - schemat filtracji obrazu
Rys. 1 Schemat filtracji obrazu

Uznając macierz filtra (kolor niebieski) za odwróconą w pionie i poziomie, możemy przeprowadzić operację filtracji. Dokonujemy tego umieszczając element h(0,0) → h(m,n) macierzy niebieskiej w elemencie s(-2,-2) → s(i,j) macierzy obrazu (kolor żółty). Następnie wymnażamy nachodzące na siebie wartości obu macierzy i sumujemy. W ten sposób otrzymaliśmy wynik splotu dla komórki o(-2,2) obrazu wyjściowego.

Kolejne etapy procesu są analogiczne, przesuwamy środek macierzy niebieskiej do elementu s(-2,-1), wymnażamy nachodzące na siebie wartości, sumujemy, otrzymując wynik wyjściowy. Pola, które wykraczają poza obszar macierzy s(i,j) uznajemy za niezdefiniowane, w związku z tym wartości w tych miejscach nie istnieją, a więc nie dokonujemy mnożenia.

Zastosowanie filtracji splotowej

W zależności od rodzaju filtra wyróżnia się różne zastosowania filtracji splotowej. Filtry dolnoprzepustowe wykorzystywane są do usuwania szumów w obrazach, natomiast filtry górnoprzepustowe stosowane są do wyostrzania lub podkreślenia krawędzi.

W celu zobrazowania działania poszczególnych rodzajów filtrów spróbujmy zastosować praktyczny przypadek konwolucji na rzeczywistym obrazie. Poniższy obraz w formacie „.jpg” został wczytany jako macierz MxNx3 pikseli. Na jego przykładzie pokażemy podstawowe efekty możliwe do uzyskania, dzięki zastosowaniu filtracji splotowej.

Oryginalny obraz wejściowy
Rys. 2. Oryginalny obraz wejściowy

Rozmycie Gaussowskie

Aby dokonać rozmycia obrazu należy zastosować funkcję splotu, jak również odpowiednio przygotowany kernel – filtr. Jednym z najczęściej wykorzystywanych do tego filtrów dolnoprzepustowych jest filtr Gaussowski. Pozwala on na zmniejszenie ostrości obrazu, jak również stosuje się go przy redukcji szumu obecnego w obrazie.

W prezentowanym przypadku wykorzystano macierz o wymiarach 29×29, wygenerowaną na podstawie funkcji Gaussowskiej o odchyleniu standardowym równym 5. Rozkład normalny nadaje wagi otaczającym pikselom w procesie konwolucji. Działanie filtra dolnoprzepustowego polega na tłumieniu elementów obrazu charakteryzujących się wysoką częstotliwością i przepuszczaniu tych elementów, których częstotliwość jest mała. W rezultacie następuje redukcja szumów oraz rozmycie obrazu, a otrzymany obraz jest mniej wyraźny niż pierwotny.

Rozmyty obraz wejściowy
Rys. 3 Rozmyty obraz wejściowy

Wyostrzanie

Analogicznie jak przy rozmyciu Gaussowskim można sprawić, że obraz zostanie wyostrzony. W tym celu należy zastosować odpowiedni filtr górnoprzepustowy. Jego działanie polega na przepuszczaniu oraz wzmacnianiu elementów obrazu, które odznaczają się dużą częstotliwością, np. szumów czy krawędzi. Natomiast elementy o małej częstotliwości filtr wytłumia. W wyniku zastosowania filtru następuje wyostrzenie pierwotnego obrazu, co można łatwo zauważyć na przykład w okolicach ramienia.

Wyostrzony obraz wejściowy
Rys. 4 Wyostrzony obraz wejściowy

Detekcja krawędzi

Kolejnym zabiegiem możliwym do przeprowadzenia przy użyciu filtracji splotowej jest detekcja krawędzi. Do przeprowadzenia operacji wykrywania krawędzi wykorzystuje się filtry przesuwania i odejmowania. Ich działanie polega na przesunięciu obrazu i odjęciu obrazu pierwotnego od jego kopii. W wyniku tej operacji następuje detekcja krawędzi.

Detekcja krawędzi
Rys. 5 Detekcja krawędzi

BFirst.Tech a przetwarzanie obrazów

Jako firma posiadamy wykwalifikowaną kadrę, a także doświadczenie w dziedzinie cyfrowego przetwarzania obrazów.

Projektem, do realizacji którego wykorzystano przetwarzanie obrazów, jest platforma Webowa Virdiamed. Została ona stworzona we współpracy z firmą Rehasport Clinic. Platforma polega na rekonstrukcji 3D danych pochodzących z tomografu komputerowego, a także z rezonansu magnetycznego. Umożliwia ona podgląd danych 3D w przeglądarce internetowej. Więcej informacji o naszych projektach znajdziesz tutaj.

Cyfrowe przetwarzanie sygnałów, w tym także przetwarzanie obrazów, jest dziedziną techniki o szerokich możliwościach stosowania, a jej popularność ciągle rośnie. Nieustający postęp technologiczny sprawia, że również ta dziedzina cały czas się rozwija. Wiele technologii stosowanych na co dzień działa w oparciu o przetwarzanie sygnałów, dlatego też pewnym jest, że w przyszłości znaczenie CPS będzie ciągle rosnąć.

Bibliografia

[1] Leonowicz Z.: „Praktyczna realizacja systemów DSP”

[2] http://www.algorytm.org/przetwarzanie-obrazow/filtrowanie-obrazow.html

Smart Manufacturing

Nowe technologie znajdują zastosowanie w wielu dziedzinach życia. Jedną z nich jest przemysł, w którym zaawansowane technologie wykorzystywane są już od lat i przynoszą fabrykom wiele korzyści. Znaczący wpływ na rozwój technologiczny i poprawę innowacyjności przedsiębiorstw produkcyjnych miało wdrożenie do nich inteligentnych rozwiązań, opartych na zaawansowanych technologiach z zakresu IT. Jednym z nich jest Smart Manufacturing, który pomaga w optymalizacji przemysłowej poprzez czerpanie wiedzy z danych, generowanych w procesach produkcyjnych.

Czym jest Smart Manufacturing?

Smart Manufacturing to koncepcja obejmująca pełną integrację systemów wraz ze współpracującymi z nimi jednostkami produkcyjnymi, które są w stanie reagować w czasie rzeczywistym i adaptować się do zmiennych warunków środowiskowych, co umożliwia to spełnienie założonych wymagań w całym łańcuchu dostaw. Wdrożenie systemu inteligentnej produkcji wspomaga proces optymalizacji procesów produkcyjnych, przyczyniając się tym samym do zwiększenia zysków przedsiębiorstw przemysłowych.

Koncepcja Smart Manufacturing wiąże się ściśle z takimi pojęciami jak sztuczna inteligencja (AI), Przemysłowy Internet Rzeczy (IIoT) czy chmura obliczeniowa (cloud computing). To co łączy te trzy pojęcia to dane – idea inteligentnej produkcji zakłada, że informacje w nich zawarte są dostępne zawsze, gdy są potrzebne i w postaci, w której są najbardziej przydatne. To właśnie analiza danych ma największy wpływ na optymalizację procesów produkcyjnych i czyni je bardziej wydajnymi.

IIoT a optymalizacja przemysłowa

Przemysłowy Internet Rzeczy jest niczym innym, jak wykorzystaniem potencjału IoT w branży przemysłowej. W inteligentnym modelu produkcji ludzie, maszyny i procesy są ze sobą połączone za pomocą systemów informatycznych. Każda maszyna wyposażona jest w czujniki, które zbierają istotne dane o jej działaniu. System przesyła dane do chmury obliczeniowej, gdzie poddaje je dogłębnej analizie. Dzięki uzyskanym z nich informacjom pracownicy mają wgląd w dokładny przebieg procesu, dzięki czemu są w stanie przewidzieć awarie i wcześniej im zapobiec, unikając ewentualnych przestojów. Dodatkowo firmy mogą badać tendencje w danych, czy przeprowadzać na ich podstawie różne symulacje. Integracja wszystkich elementów procesu produkcyjnego pozwala również na zdalne monitorowanie jego przebiegu w czasie rzeczywistym, a także reagowanie na ewentualnie nieprawidłowości. Wszystkie te działania nie byłyby możliwe, gdyby nie zastosowanie technologii IIoT.

Wzrost znaczenia sztucznej inteligencji

Kolejnym z nowoczesnych rozwiązań technologicznych, które jest wykorzystywane w systemie inteligentnej produkcji jest sztuczna inteligencja. Na przestrzeni ostatnich kilku lat można było obserwować znaczny wzrost implementacji rozwiązań sztucznej inteligencji w produkcji. Stało się to możliwe, właśnie dzięki wdrożeniu do niej urządzeń IIoT, które dostarczają ogromne ilości danych, wykorzystywanych przez AI. Algorytmy sztucznej inteligencji analizują uzyskane dane i wyszukują w nich nieprawidłowości. Ponadto umożliwiają one automatyczne podejmowanie decyzji w oparciu o zebrane dane. Co więcej sztuczna inteligencja jest w stanie przewidzieć problemy zanim one wystąpią, a także podjąć odpowiednie kroki w celu złagodzenia ich skutków.

Korzyści dla przedsiębiorstwa

Wdrożenie w fabrykach technologii Smart Manufacturing może przynieść szereg korzyści, przede wszystkim w sferze optymalizacji procesów produkcyjnych. Inteligentna produkcja umożliwia znaczną poprawę efektywności. Poprzez dostęp do danych o całym procesie można szybko reagować na ewentualne nieprawidłowości czy dostosowywać proces do aktualnych potrzeb (większa elastyczność). Dzięki temu firmy mogą uniknąć wielu niepożądanych zdarzeń, jak na przykład awarie. To natomiast korzystnie wpływa na optymalizację kosztów, a tym samym poprawia rentowność przedsiębiorstwa. Kolejną zaletą jest lepsze wykorzystanie maszyn i urządzeń. Poprzez ich bieżące monitorowanie firmy mogą kontrolować stopień ich zużycia, przewidywać awarie lub bardziej efektywnie planować przestoje. To z kolei wpływa na poprawę produktywności, a nawet jakości wytwarzanych produktów.

Wykorzystanie SM umożliwia również wizualizację danych w czasie rzeczywistym, co pozwala na zdalne zarządzanie procesem, a także monitorowanie jego przebiegu. Ponadto wirtualne odzwierciedlenie procesu dostarcza wielu informacji kontekstowych, które są niezbędne do jego doskonalenia. Na bazie zebranych danych firmy mogą również dokonywać różnego rodzaju symulacji. Czy też przewidywać trendy lub potencjalne problemy, co znacznie usprawnia prognozowanie. Warto również wspomnieć, że wdrażanie w przedsiębiorstwie nowoczesnych rozwiązań, takich jak Smart Manufacturing zwiększa ich innowacyjność. Tym samym firmy stają się bardziej konkurencyjne, a pracownicy postrzegają je jako bardziej atrakcyjne miejsce pracy.

Czy automatyzacja pozbawi ludzi pracy?

Wraz z rozwojem technologicznym i coraz większą automatyzacją procesów wzrosły także obawy dotyczące likwidacji miejsc pracy. Nic bardziej mylnego – w koncepcji inteligentnej produkcji człowiek nadal odgrywa kluczową rolę. Bez zmian pozostanie zatem odpowiedzialność pracowników w zakresie kontroli procesów czy podejmowania krytycznych decyzji. Współpraca człowieka z maszyną umożliwi tym samym zwiększenie efektywności operacyjnej inteligentnego przedsiębiorstwa.

Rozwój technologiczny nie ma zatem na celu eliminacji człowieka, a raczej stanowi dla niego wsparcie. Co więcej, połączenie doświadczenia i kreatywności człowieka z coraz większymi możliwościami maszyn umożliwia realizację innowacyjnych pomysłów, które mogą mieć realny wpływ na poprawę efektywności produkcji. Tym samym na rynku pracy zacznie wzrastać zapotrzebowanie na nowych specjalistów, co sprawi, że branża produkcyjna nie zaprzestanie zatrudniania ludzi.

Inteligenta produkcja jest nieodłączną częścią czwartej rewolucji przemysłowej, która dzieje się na naszych oczach. Połączenie maszyn i systemów informatycznych otworzyło nowe możliwości optymalizacji przemysłowej. Dzięki temu firmy mogę realnie zwiększyć wydajność swoich procesów, przyczyniając się tym samym do poprawy ich rentowności. BFirst.tech oferuje usługę Optymalizacja Przemysłowa, która pozwala na analizowanie i przekazywanie w czasie rzeczywistym do wszystkich zainteresowanych danych, w których zawarte informacje wspomagają podejmowanie krytycznych decyzji i skutkują w ciągłym ulepszaniu procesów.

Bibliografia

[1] https://blog.marketresearch.com/the-top-7-things-to-know-about-smart-manufacturing

[2] https://przemyslprzyszlosci.gov.pl/7-krokow-do-zaawansowanej-produkcji-w-fabryce-przyszlosci/?gclid=EAIaIQobChMIl7rb1dnD7QIVFbd3Ch21kwojEAAYASAAEgKVcfD_BwE

[3] https://www.comarch.pl/erp/nowoczesne-zarzadzanie/numery-archiwalne/inteligentna-produkcja-jutra-zaczyna-sie-juz-dzis/

[4] https://elektrotechnikautomatyk.pl/artykuly/smart-factory-czyli-fabryka-przyszlosci

[5] https://www.thalesgroup.com/en/markets/digital-identity-and-security/iot/inspired/smart-manufacturing

[6] https://www.techtarget.com/iotagenda/definition/smart-manufacturing-SM

Górnictwo kosmiczne

Górnictwo towarzyszy ludzkości od zarania dziejów. W ciągu najbliższych lat będziemy mieć szansę zobaczyć kolejny milowy krok jego rozwoju: górnictwo kosmiczne.

Wizje a rzeczywistość

Górnictwo kosmiczne rozpala wyobraźnię pisarzy i scenarzystów. Roztaczane są wizje walki o zasoby między państwami, korporacjami i kulturami zamieszkującymi inne rejony wszechświata. Mowa jest także o zagrożeniach dla ludzkości wynikających ze spotkania z innymi organizmami żywymi. Pojawia się również wątek niezwykle cennych, nierzadko nieznanych na Ziemi, minerałów i innych substancji możliwych do pozyskania w kosmosie.

Jednak w chwili obecnej daleko do urzeczywistnienia tych wizji. Jesteśmy na etapie katalogowania zasobów kosmicznych, np. sporządzane są mapy geologiczne Księżyca[1] oraz obserwowane są asteroidy[2]. Z ciekawostek wiadomo, że na Księżycu znajdują się złoża helu-3, który w przyszłości może posłużyć jako paliwo przy reakcjach fuzji jądrowej. Na asteroidach spodziewamy się znaleźć złoża wielu cennych minerałów, np. niklu, żelaza, kobaltu, wody, azotu, wodoru i amoniaku na asteroidzie Ryugu. Nasza wiedza o zasobach mineralnych opiera się głównie na obserwacjach astronomicznych. Znacznie rzadziej polega na bezpośredniej analizie próbek skał z powierzchni, a incydentalnie na analizie skał podpowierzchniowych. Jedynie w pełni możemy analizować obiekty, które upadły na powierzchnię Ziemi. Spodziewać się zatem należy, że przed nami jeszcze wiele niespodzianek.

Pierwsze kroki w górnictwie kosmicznym

Jak jednak będą wyglądać początki? Górnictwo jako działalność związana ściśle z ekonomią zacznie się rozwijać by zaspakajać potrzeby rynku. Wbrew temu, do czego jesteśmy przyzwyczajeni na Ziemi, w kosmosie problemem może być dostęp nawet do takich podstawowych substancji jak woda.

Woda

Woda może być ona wykorzystywana bezpośrednio przez ludzi jak i, po hydrolizie, jako paliwo. Zatem realizacja planów NASA wyprawy załogowej na Marsa poprzedzonej obecnością ludzi na Księżycu[3] wygeneruje zapotrzebowanie na wodę na Księżycu jak i w jego pobliżu. Innym znaczącym rynkiem zbytu kosmicznej wody mogą być satelity (potrzebują energii choćby do okresowej korekty trajektorii). Tym bardziej, że według szacunków bardziej będzie się opłacało sprowadzać wodę z Księżyca nawet na niską orbitę okołoziemską (Low Earth Orbit LEO) niż z Ziemi.

Z tych powodów przemysłowe pozyskiwanie wody na Księżycu ma szansę być pierwszym przejawem górnictwa kosmicznego. Jak to może wyglądać w praktyce? Ze względu na intensywne promieniowanie ultrafioletowe jakikolwiek lód na powierzchni Księżyca musiałby zostać rozłożony na tlen i wodór. Natomiast brak atmosfery spowodowałby ulecenie tych pierwiastków w przestrzeń kosmiczną. Dlatego lód spodziewany jest w miejscach wiecznie zacienionych, np. na dnie kraterów uderzeniowych na biegunach. Jedną z metod jego pozyskania może być odparowywanie w szczelnym i przezroczystym namiocie. Energia mogłaby pochodzić ze Słońca: wystarczy odbić promienie słoneczne od luster znajdujących się na szczytach krawędzi kraterów. Na biegunie północnym można znaleźć miejsca, gdzie praktycznie cały czas świeci Słońce.

Regolit

Jedną z pierwszych skał pozyskiwaną na Księżycu ma szansę zostać regolit (pył pokrywający powierzchnię Księżyca). Niewykluczone, że zawiera śladowe ilości wody. Ale przede wszystkim daje nadzieję na przerobienie go na toner do drukarek 3D. To zaś pozwoliłoby na szybkie i tanie konstruowanie budynków planowanej bazy księżycowej[4]. Budynki takiej bazy będą musiały chronić przed szkodliwym promieniowaniem kosmicznym. I choć regolit, w porównaniu do innych materiałów, nie jest bardzo wydajny w ekranowaniu promieniowania (potrzeba jego grubej warstwy), to ma tę przewagę, że nie trzeba go dostarczać z Ziemi. Generalnie, możliwość jak najszerszego wykorzystywania miejscowych surowców jest ważnym czynnikiem decydującym o powodzeniu projektów powstania trwałych habitatów pozaziemskich, dlatego optymalizacja tych procesów jest kluczowa (jeśli chcesz dowiedzieć się więcej o możliwościach optymalizacji w przemyśle, kliknij tutaj).

Asteroidy

Innym kierunkiem rozwoju górnictwa kosmicznego mogą być asteroidy[5]. Naukowcy biorą pod uwagę łowienie mniejszych asteroid i sprowadzanie ich na Ziemię. Można też sprowadzić mniejszą lub większą asteroidę na orbitę okołoziemską lub okołoksiężycową i tutaj dopiero ją eksploatować. Można też eksploatować asteroidy bez ich przemieszczania i dopiero urobek, być może po wstępnym przetworzeniu, dostarczać na Ziemię.

Bariery prawne

Zwykle nie pamięta się, że oprócz oczywistych ograniczeń technologicznych i finansowych istotną barierą mogą okazać się kwestie prawne związane z komercyjną eksploatacją kosmosu[6]. W chwili obecnej najważniejsze cztery międzynarodowe regulacje prawne dotyczące przestrzeni kosmicznej to[7]:

  • Traktat o przestrzeni kosmicznej z 1967 r.,
  • Umowa o ratowaniu astronautów z 1968 r.
  • Konwencja o odpowiedzialności międzynarodowej za szkody wyrządzone przez obiekty kosmiczne z 1972 r. oraz
  • Konwencja o rejestracji obiektów wypuszczonych w przestrzeń kosmiczną z 1975 r.

Formułują one zasadę wolności i niewyłączności przestrzeni kosmicznej, traktowania kosmonautów jako wysłanników ludzkości oraz przypisania każdemu obiektowi wysłanemu w kosmos przynależności państwowej. Ponadto regulują kwestie odpowiedzialności za szkody wyrządzone przez obiekty wysłane w kosmos. Nie regulują jednak kwestii ekonomicznych związanych z eksploatacją kosmosu. Tę lukę częściowo stara się wypełnić Układ księżycowy z 1979 roku. Mimo że niewiele państw (18) go ratyfikuje, to aspiruje on do tworzenia ważnych norm zwyczajowych w zakresie objęcia prawem przestrzeni kosmicznej. Stanowi m. in. że zasoby naturalne Księżyca stanowią wspólne dziedzictwo ludzkości oraz, że powierzchnia ani zasoby Księżyca nie mogą stać się niczyją własnością[8]. Do tych postanowień Układu księżycowego bogate państwa odnoszą się niechętnie. W szczególności USA oficjalnie zapowiedziały, że nie zamierzają się do układu stosować. Czyżby górnictwo kosmiczne miało być elementem kosmicznej odmiany kolonializmu?

Bibliografia

[1] https://store.usgs.gov/filter-products?sort=relevance&scale=1%3A5%2C000%2C000&lq=moon

[2] http://www.asterank.com

[3] https://www.nasa.gov/topics/moon-to-mars

[4] https://all3dp.com/mit-autonomous-construction-rig-could-make-3d-printed-homes/

[5] http://space.alglobus.net/presentations/

[6] http://naukawpolsce.pap.pl/aktualnosci/news%2C81117%2Cdr-pawel-chyc-prawo-w-kosmosie-szczegolne-wyzwanie.html

[7] http://www.unoosa.org/oosa/en/ourwork/spacelaw/index.html

[8] https://kosmonauta.net/2011/09/uklad-ksiezycowy/

Generative Adversarial Networks GAN

GANy, czyli Generative Adversarial Networks pierwszy raz zostały zaproponowane przez studentów University of Montreal Iana Goodfelllow oraz innych (m. in. Yoshua Bengio) w 2014 roku. W 2016 roku dyrektor ds. badań nad AI w Facebook oraz profesor na New York University Yann LeCun nazwał je najbardziej interesującym pomysłem ostatnich 10 lat uczenia maszynowego.

Aby zrozumieć czym są GANy, należy je porównać z algorytmami dyskryminującymi, którymi mogą być chociażby zwykłe głębokie sieci neuronowe DNN. Wprowadzenie do sieci neuronowych przeczytasz w tym artykule, a więcej informacji o konwolucyjnych sieci neuronowych znajdziesz tutaj).

Dla przykładu skorzystajmy z problemu przewidzenia tego czy dany e-mail to spam czy nie. Słowa składające się na treść e-maila są zmiennymi, które wskazują na jedną z etykiet: spam, nie spam. Algorytm dyskryminujący na podstawie wektora danych wejściowych (słowa występujące w danej wiadomości są przekształcane na reprezentacje matematyczną) uczy się przewidywać jak bardzo dany e-mail jest spamem, tzn. wyjściem dyskryminatora jest prawdopodobieństwo jak bardzo dane wejściowe są spamem, zatem uczy się relacji pomiędzy wejściem a wyjściem.

GANy działają dokładnie na odwrót. Zamiast przewidywać co reprezentują dane wejściowe próbują przewidywać dane mając etykietę. Dokładniej próbują one odpowiedzieć na pytanie: Zakładając, że ten e-mail to spam, jak prawdopodobne są te dane?

Wyrażając się bardziej precyzyjnie, zadaniem Generative Adversarial Networks jest rozwiązanie problemu modelowania generatywnego (z ang. generative modeling), który można zrobić na 2 sposoby (zawsze potrzebujemy danych o dużej rozdzielczości, np. obrazy lub dźwięk). Pierwszą możliwością jest estymacja gęstości – mając dużą ilość przykładów chcemy znaleźć funkcję prawdopodobieństwa gęstości, która je opisuje. Drugie podejście to stworzenie algorytmu, który nauczy się generować dane z tego samego zbioru danych treningowych (nie chodzi bynajmniej o tworzenie tych samych informacji a nowych, które mogłyby być nimi).

Jakie jest podejście GANów do modelowania generatywnego?

To podejście można porównać do gry, w którą gra dwóch agentów. Jeden z nich to generator, który próbuje tworzyć dane. Natomiast drugi to dyskryminator, który przewiduje czy te dane są prawdziwe czy nie. Celem generatora jest oszukanie drugiego gracza. Zatem z czasem, gdy obie stają się coraz lepsze w swoim zadaniu jest on zmuszony generować dane, które są jak najbardziej podobne do danych treningowych.

Jak wygląda proces uczenia?

Pierwszy agent – czyli dyskryminator (jest on jakąś różniczkowalną funkcją D, zazwyczaj siecią neuronową) dostaje na wejście jedną z danych treningowych (np. zdjęcie twarzy). Dalej nazywamy to zdjęcie (jest to po prostu nazwa wejścia do modelu) i jego celem jest, aby D(x) było jak najbliższe 1 – co znaczy, że x jest prawdziwym przykładem.

Drugi agent – czyli generator (który też musi być różniczkowalną funkcją G, również jest zazwyczaj siecią neuronową) otrzymuje na wejście biały szum (losowe wartości, które pozwalają mu na generowanie różnych, prawdopodobnych zdjęć). Następnie stosując funkcję do szumu z otrzymujemy x (innymi słowy G(z) = x). Liczymy na to, że próbka x będzie dość podobna do oryginalnych danych treningowych, jednak ma pewnego rodzaju problemy jak np. zauważalne zaszumienie, co może pozwolić na rozpoznanie tej próbki jako fałszywy przykład przez dyskryminator. Kolejnym krokiem jest zastosowanie funkcji dyskryminującej D do fałszywej próbki x z generatora. Teraz celem D jest sprawienie, żeby D(G(z)) było jak najbliżej zera, natomiast celem G jest aby D(G(z)) było blisko jedynki.

Można to porównać do przykładu fałszerzy pieniędzy oraz policji. Policjanci chcą, aby społeczeństwo mogło posługiwać się prawdziwymi banknotami bez możliwości bycia oszukanymi oraz wykryć te fałszywe, a następnie usunąć je z obiegu i ukarać przestępców. W tym samym czasie fałszerze chcą oszukać policję i używać stworzone przez siebie pieniądze. Co za tym idzie – obydwa środowiska, policjantów oraz złodziei, uczą się wykonywać swoje zadanie coraz lepiej.

Zakładając, że przykładowe możliwości policjantów i fałszerzy, czyli dyskryminatora i generatora są nieograniczone to punkt równowagi tej gry jest następujący: generator nauczył się tworzyć idealne dane, których nie da się rozróżnić, co za tym idzie wynik dyskryminatora to zawsze 0.5 – to znaczy nie potrafi on powiedzieć czy dana próbka jest prawdziwa czy nie.

Jakie są zastosowania GANów?

Sieci te przede wszystkim są szeroko wykorzystywane do operacji nad obrazami. Nie jest to ich jedyne zastosowanie, ponieważ równie dobrze można ich używać do jakiegokolwiek rodzaju danych.

Style Transfer w wykonaniu CycleGAN
Rys. 1 Style Transfer w wykonaniu CycleGAN

Na przykład sieć DiscoGAN potrafi przetransferować styl lub wzór z jednej dziedziny (np. torebki) do innej (np. buta). Również umie ze szkicu przedmiotu wygenerować prawdopodobny obraz (jest wiele sieci, które to też potrafią, jedną z nich jest Pix2Pix). Jest to jedno z częstszych zastosowań GANów, tzw. Style Transfer. Innymi przykładami tego zastosowania jest np. sieć CycleGAN, która zwykłe zdjęcie potrafi przemienić w obraz Van Gogha, Moneta, itd. Pozwalają one także na generowanie zdjęć z opisu (sieć StackGAN) oraz potrafią zwiększać rozdzielczość obrazów (sieć SRGAN).

Przydatne materiały

[1] Goodfellow I., Improved Techniques for Training GANs, https://arxiv.org/abs/1606.03498
2016, https://arxiv.org/pdf/1609.04468.pdf

[2] Chintala S., How to train a GAN, https://github.com/soumith/ganhacks

[3] White T., Sampling Generative Networks, School of Design, Victoria University of Wellington, Wellington

[4] LeCun Y., Mathieu M., Zhao J., Energy-based Generative Adversarial Networks, Department of Computer Science, New York University, Facebook Artificial Intelligence Research, 2016, https://arxiv.org/pdf/1609.03126v2.pdf

Bibliografia

[1] Goodfellow I., Tutorial: Generative Adversarial Networks [online], „NIPS”, 2016, https://arxiv.org/pdf/1701.00160.pdf
[2] Skymind, A Beginner’s Guide to Generative Adversarial Networks (GANs) [online], San Francisco, Skymind, dostęp: 31.05.2019
[3] Goodfellow, Ian, Pouget-Abadie, Jean, Mirza, Mehdi, Xu, Bing, Warde-Farley, David, Ozair, Sherjil, Courville,Aaron, and Bengio, Yoshua. Generative adversarial nets. InAdvances in Neural Information Processing Systems, pp. 2672–2680, 2014
[4] LeCun, Y., What are some recent and potentially upcoming breakthroughs in deep learning?, „Quora”, 2016, dostęp: 31.05.2019, https://www.quora.com/What-are-some-recent-and-potentially-upcoming-breakthroughs-in-deep-learning
[5] Kim T., DiscoGAN in PyTorch, dostęp: 31.05.2019, https://github.com/carpedm20/DiscoGAN-pytorch

Konwolucyjne sieci neuronowe

Sztuczna inteligencja w coraz większym tempie przybliża możliwości maszyn do ludzkich. Duże zainteresowanie zagadnieniem sprawia, że w ostatnich latach wiele dziedzin nauki zaliczyło duży skok rozwojowy.

Jednym z celów sztucznej inteligencji jest umożliwienie maszynom obserwowania otaczającego je świata w sposób podobny do ludzkiego. Jest to możliwe poprzez zastosowanie sieci neuronowych. Sieci neuronowe to matematyczne struktury, które w swojej podstawie inspirują się naturalnymi neuronami znajdującymi się w nerwach i mózgu człowieka.

Z pewnością wielokrotnie doświadczyłeś obecności sieci neuronowych w życiu codziennym, przykładowo w:

  • wykrywaniu i rozpoznawaniu twarzy na zdjęciach w smartfonie,
  • rozpoznawaniu komend głosowych przez wirtualnego asystenta,
  • autonomicznych samochodach.

Potencjał sieci neuronowych jest ogromny. Wymienione wyżej przykłady stanowią zaledwie ułamek obecnych zastosowań. Są one jednak związane ze szczególną klasą sieci neuronowych, zwanych konwolucyjnymi, CNN, bądź ConvNet (Convolutional Neural Networks).

Przetwarzanie obrazu a sieci neuronowe

Aby przybliżyć zagadnienie konwolucyjnych sieci neuronowych, skoncentrujemy się na ich najczęstszym zastosowaniu, czyli przetwarzaniu obrazu. CNN to algorytm, który może pobrać obraz wejściowy i sklasyfikować go wedle predefiniowanych kategorii (np. rasy psa). Jest to możliwe dzięki przypisaniu wag różnym kształtom, strukturom, obiektom.

Sieci konwolucyjne poprzez trening są w stanie nauczyć się, jakie cechy szczególne obrazu pomagają w jego klasyfikacji. Ich przewagą nad standardowymi sieciami głębokimi jest większa skuteczność w wykrywaniu zawiłych zależności w obrazach. Jest to możliwe dzięki zastosowaniu filtrów badających zależności pomiędzy sąsiednimi pikselami.

Macierze wartości obrazu RGB
Rys. 1 Ogólny schemat rozmiaru obrazu RGB

Każdy obraz jest macierzą wartości, których liczba jest proporcjonalna do jego szerokości i wysokości w pikselach. W przypadku obrazów RGB obraz cechują trzy kolory podstawowe, więc każdy piksel reprezentują trzy wartości. Zadaniem ConvNet jest redukcja rozmiaru obrazu do lżejszej formy bez utraty wartościowych cech, czyli tych, które niosą informacje kluczowe dla klasyfikacji.

CNN złożona jest z dwóch kluczowych warstw. Pierwszą z nich jest warstwa konwolucyjna.

Warstwa konwolucyjna

Animacja filtracji obrazu RGB filtrem 3x3x3
Rys. 2 Animacja filtracji obrazu RGB filtrem 3x3x3

Powyższa animacja przedstawia obraz RGB oraz poruszający się po nim filtr o rozmiarze 3x3x3 i zdefiniowanym kroku. Krok to wartość w pikselach, o którą przesuwa się filtr. Może zostać zastosowany „zero padding”, czyli wypełnienie zerami (białe kwadraty). Taki zabieg pozwala na zachowanie większej ilości informacji, kosztem wydajności.

Kolejne wartości macierzy wyjściowej obliczane są w następujący sposób:

  • mnożenie wartości w danym fragmencie obrazu przez filtr (po elementach),
  • sumowanie obliczonych wartości dla danego kanału,
  • sumowanie wartości dla każdego kanału z uwzględnieniem biasu (w tym przypadku równego 1).

Warto zwrócić uwagę, że wartości filtru dla danego kanału mogą się od siebie różnić. Zadaniem warstwy konwolucyjnej, w przypadku pierwszej warstwy, jest wyodrębnienie cech, takich jak krawędzie, kolory, gradienty. Kolejne warstwy sieci – korzystając z tego, co wyznaczyły poprzednie warstwy – mogą wykrywać coraz bardziej skomplikowane kształty. Analogicznie do warstw zwykłej sieci, po warstwie konwolucyjnej występuje warstwa aktywacyjna (najczęściej funkcja ReLU), wprowadzająca nieliniowość do sieci.

Wynik konwolucji z każdym z filtrów możemy interpretować jako obraz, a wiele takich obrazów powstałych poprzez konwolucję z wieloma filtrami to obraz o wielu kanałach. Obraz RGB to coś analogicznego – składa się z 3 kanałów, po jednym dla każdego z kolorów. Wyjście warstwy konwolucyjnej to nie są jednak kolory, lecz pewne „koloro-kształty”, które każdy z filtrów sobą reprezentuje. Odpowiada również za redukcję szumu. Najpopularniejszą metodą jest „max pooling”.

Zazwyczaj stosuje się wiele filtrów, przez co warstwa konwolucyjna, zwiększa głębokość, czyli liczbę kanałów obrazu.

Warstwa łącząca

Kolejna warstwa, nazywana łączącą ma za zadanie zmniejszenie pozostałych wymiarów obrazu (szerokości i wysokości), przy zachowaniu kluczowych informacji potrzebnych np. do klasyfikacji obrazu.

Schemat operacji łączenia
Rys. 3 Schemat operacji łączenia

Operacja łączenia przebiega w sposób zbliżony do stosowanego w warstwie konwolucyjnej. Definiowany jest filtr oraz krok. Kolejne wartości macierzy wyjściowej są maksymalną wartością objętą filtrem.

Wymienione warstwy stanowią razem jedną warstwę sieci konwolucyjnej. Po zastosowaniu wybranej ilości warstw otrzymana macierz zostaje „spłaszczona” do jednego wymiaru – wymiary szerokość i wysokość są stopniowo zastępowane przez wymiar głębokości. Wynik warstw konwolucyjnych stanowi wejście do kolejnych warstw sieci, zazwyczaj takich standardowych, w pełni połączonych (ang. Dense Layers). Pozwala to na nauczenie algorytmu nieliniowych zależności pomiędzy cechami wyznaczonymi przez warstwy konwolucyjne.

Ostatnią warstwą sieci jest warstwa Soft-Max, pozwalająca na uzyskanie wartości prawdopodobieństw przynależności do poszczególnych klas (na przykład prawdopodobieństwo, że na obrazie znajduje się kot). W trakcie treningu są one porównywane z pożądanym wynikiem klasyfikacji w zastosowanej funkcji kosztu, a następnie poprzez algorytm wstecznej propagacji sieć dostosowuje swoje wagi w celu zminimalizowania błędu.

Konwolucyjne sieci neuronowe są ważnym elementem rozwoju uczenia maszynowego. Przyczyniają się do postępu automatyzacji i pozwalają rozszerzyć ludzkie zdolności percepcji. Ich możliwości będą stale rosnąć wraz z mocą obliczeniową komputerów i ilością dostępnych danych.

Bibliografia

[1] https://medium.com/@raycad.seedotech/convolutional-neural-network-cnn-8d1908c010ab

[2] https://medium.com/@RaghavPrabhu/understanding-of-convolutional-neural-network-cnn-deep-learning-99760835f148

[3] https://towardsdatascience.com/a-comprehensive-guide-to-convolutional-neural-networks-the-eli5-way-3bd2b1164a53

Innowacyjność w firmie

Współczesny świat charakteryzuje nieustanny postęp technologiczny. Niemal codziennie można usłyszeć o nowych produktach, usługach, metodach itp. Bardzo często używa się w stosunku do nich określenia „innowacyjny”. Słowo „innowacyjny” można odnieść również w stosunku do przedsiębiorstw, które coraz częściej określają się tym mianem. Co oznacza innowacyjność w przedsiębiorstwie i jak ją kreować, o tym więcej w dzisiejszym artykule.

Czym jest innowacyjność?

Pod pojęciem innowacyjności kryje się „zbiór kompetencji organizacji do nieustannego odkrywania źródeł innowacji, absorbcji innowacji z zewnątrz i generowania własnych innowacji, ich implementacji i dyfuzji (in. upowszechnienia). Mówiąc prościej, jest to umiejętność generowania nowych pomysłów, chęć ulepszania, tworzenia czegoś nowego, a następnie wdrażanie tych nowości i ich komercjalizacja. Innowacyjność przejawia się w nieszablonowym myśleniu, szukaniu rozwiązań i wyjściu poza ramy codziennej rutyny.

Zapewne każdy zna firmy takie jak Apple, Google czy Microsoft. Niewątpliwie są to firmy, które dzięki swojej innowacyjności odniosły ogromny, światowy sukces. Świadczy to o tym, że świat jest otwarty na innowacje, a zapotrzebowanie na nie jest coraz większe. Oznacza to również, że przedsiębiorstwa, które nie będą podążać drogą innowacji, mogą stracić swoją konkurencyjność, co w konsekwencji może doprowadzić do tego, że za kilka lat przestaną istnieć. Czy zatem firmy, które nie mają tak charyzmatycznego lidera jak Steve Jobs lub nie posiadają kapitału równego kapitałowi Google’a mają szansę stać się innowacyjnymi? Odpowiedź na to pytanie brzmi: TAK! Innowacyjność nie jest bowiem cechą wybrańców. Innowacyjność to postawa, którą każdy może w sobie ukształtować.

Podstawa to postawa

Niektórzy ludzie są urodzonymi innowatorami. Wymyślanie nowych pomysłów przychodzi im z niezwykłą łatwością. Co jednak z osobami, które spędzają godziny nad wymyśleniem czegoś nowego, podczas gdy efekty wciąż są niezadowalające? Dla takich osób mamy jedną radę: grunt to nastawienie! Innowacyjność bowiem to przede wszystkim postawa, którą można w sobie wypracować. Najważniejsze w byciu innowacyjnym to otwartość. To ona jest motorem do tworzenia innowacji. Nie wymyślimy bowiem nic nowego powtarzając codziennie te same czynności, zamykając się na jakikolwiek kontakt z otoczeniem.

Tu pojawia się kolejny ważny element w kreowaniu innowacyjności, mianowicie kontakt. Wiele pomysłów pochodzi z zewnątrz, są konsekwencją rozmów z innymi ludźmi. Dlatego tak ważne jest by spędzać z nimi czas, rozmawiać, poznawać ich opinie na różne tematy. W ten sposób możemy wyzwolić w sobie coś, co może skutkować nowymi pomysłami i rozwiązaniami. Dlatego też, chcąc kreować innowacyjność w przedsiębiorstwie, należy zacząć od zmiany swojego nastawienia.

„Architekci innowacyjności”

Kluczową rolę w kreowaniu innowacyjności w przedsiębiorstwie pełnią liderzy – nazwani „architektami innowacyjności” w książce o tym samym tytule autorstwa Thomasa Wedell-Wedellsborga i Paddy’ego Millera. Według autorów głównym zadaniem lidera jest stworzenie w przedsiębiorstwie kultury innowacyjności, tj. warunków, w których kreatywność będzie nieodłącznym elementem pracy każdego pracownika, niezależnie od zajmowanego stanowiska. Autorzy wskazują tu na popełniany często błąd, jakim jest chwilowa chęć stworzenia czegoś innowacyjnego. Organizuje się wówczas „burze mózgów”, wysyła pracowników na warsztaty, które zaowocować mają nowymi pomysłami. Często jednak efekty są zupełnie inne. Pracownicy wracają do pracy, w której codziennie wykonują to samo, przez co ich kreatywność jest zabijana. Dlatego też tak ważne jest wypracowanie kultury innowacyjności, która na co dzień będzie sprzyjała tworzeniu innowacji. Może się ona przejawiać w sposobie organizacji pracy, wyrobieniu nowych nawyków, praktyk i rytuałów, które będą pomocne w wyzwalaniu nowych pomysłów.

Kolejnym zadaniem, jakie stoi przed kadrą zarządzającą jest umiejętność motywowania i wspierania swoich pracowników. Lider powinien być dla swojego zespołu przewodnikiem, który potrafi wzbudzić w nim kreatywność i zmobilizować go do generowania nowych pomysłów. W tym celu autorzy książki stworzyli „kanon pięciu podstawowych zachowań innowacyjnych”, do których należą: koncentracja, kontakt, modyfikacja, selekcja oraz dyplomacja. Wszystkie te zachowania powinny być wspierane przez wytrwałość we wprowadzaniu innowacyjności na co dzień. Wprowadzenie w firmie tzw. „modelu 5+1” wpływa znacząco na ukształtowanie wśród pracowników postawy innowacyjności. Dzięki niemu tworzenie nowych pomysłów nie będzie jednorazowym działaniem, ale na stałe wpisze się w system firmy.

Zarządzanie innowacyjnością

Innowacje nabierają coraz większego znaczenia. W wielu przedsiębiorstwach tworzone są osobne działy zajmujące się działaniami innowacyjnymi firmy. Dlatego też ważnym aspektem w kreowaniu innowacyjnego przedsiębiorstwa jest wprowadzenie w nim procesu zarządzania innowacyjnością.

Poniższy rysunek prezentuje cztery filary, z których powinien składać się proces zarządzania innowacyjnością według Instytutu Innowacyjności Polska.

Innowacyjność zarządzanie. Zarządzanie innowacyjnością składa się z czterech elementów: Diagnostyka innowacji, Zarządzanie innowacją, Wdrażanie innowacji, Finansowanie innowacji
Rys. 1 Filary procesu zarządzania innowacyjnością wg. Instytutu Innowacyjności Polska

Pierwszym i najważniejszym filarem w zarządzaniu innowacyjnością jest diagnoza. Przez diagnozę rozumie się określenie dotychczasowego poziomu innowacyjności firmy, a także analizę jej środowiska pod względem zdolności do tworzenia innowacji. Diagnozę można przeprowadzić samemu, bądź zlecić firmie zewnętrznej tzw. audyt innowacyjności.

W drugim kroku należy stworzyć strukturę organizacyjną oraz procesy, które umożliwią wdrożenie w firmie procesu tworzenia innowacyjnych pomysłów.

Kolejnym krokiem jest generowanie nowych pomysłów, a także zarządzanie procesem realizacji danych projektów.

Ostatni filar zarządzania innowacyjnością stanowi określenie sposobu finansowania innowacji. Źródła finansowania mogą pochodzić zarówno ze źródeł wewnętrznych, jak i zewnętrznych (dotacje, inwestorzy itp.).

Proces zarządzania innowacyjnością jest konieczny, jeśli przedsiębiorstwo chce skutecznie realizować innowacje. Umożliwia on efektywne nadzorowanie realizacji innowacji, pozwala mierzyć stopień innowacyjności firmy, czy też kontrolować wydatki ponoszone w tym obszarze. Wprowadzenie w firmie tego procesu pokazuje, jak wysoką rangę stanowią w niej innowacje.

Podsumowanie

Bez wątpienia innowacje to temat, który nabiera coraz większego znaczenia. Wysoki poziom informatyzacji i postępu technologicznego sprawia, że zapotrzebowanie na innowacje jest coraz większe. Dlatego też, aby utrzymać się na rynku, firmy powinny podążać drogą innowacyjności i kształtować w sobie tę cechę. Istotną rolę w tym procesie odgrywa lider, który jako „architekt innowacyjności” ma za zadanie stworzyć w przedsiębiorstwie system, który na co dzień będzie wyzwalał w pracownikach kreatywne pomysły. Dodatkowo powinien on być swego rodzaju przewodnikiem, który motywuje swój zespół do twórczego działania. Kreowanie innowacyjności w przedsiębiorstwie jest zatem nieustannym procesem realizowanym każdego dnia. Istnieją jednak rozwiązania, które wspierają zarządzanie procesami, takie jak produkt Data Engineering. Wykorzystuje on nowoczesne technologie IoT do zbierania i analizowania informacji w konsekwencji umożliwiając podejmowanie szybkich i trafnych decyzji w firmie.

Bibliografia

[1] https://www.instytutinnowacyjnosci.pl/

[2] http://it-manager.pl/kultura-innowacyjnosci/

[3] Miller P., Wedell-Wedellsborg T., „Architekci Innowacyjności”

Sieci neuronowe – wprowadzenie

W ostatnich latach temat sieci neuronowych w obszarze IT oraz zagadnienia sztucznej inteligencji stał się bardzo popularny. Sieci neuronowe nie są nowym pojęciem, ponieważ wykorzystywano je już w latach 60-tych XX. Ich prawdziwy rozwój nastąpił jednak już w XXI wieku ze względu na ogromny postęp w świecie technologii oraz zakres stosowanych innowacji w wielu obszarach życia człowieka. Sieci neuronowe są jednym z obszarów, z których składa się sztuczna inteligencja (AI). Zainteresowanie sieciami neuronowymi stale rośnie niejako wymuszając dzięki temu ich ciągły rozwój i udoskonalanie.

Charakterystyka

Chcąc opisać sposób działania sieci neuronowych warto odwołać się (w pewnym uproszczeniu) do sposobu działania systemu nerwowego człowieka. Pomimo ogromnego postępu i stosowania innowacyjnych rozwiązań dzisiejsze sieci nie są w stanie działać na równi tak jak ludzki mózg. Natomiast można prognozować, że w mniej lub bardziej odległej przyszłości taki poziom zaawansowania będą w stanie osiągnąć. Sieci neuronowe opierają się strukturach matematycznych, które za pomocą dedykowanych algorytmów oraz elementów przetwarzających (sztuczne neurony) wykonują przedstawione przed nimi operacje.

Budowa sieci neuronowych i sposób działania

Sieć neuronowa składa się z określonej liczby neuronów. Najprostszą siecią neuronową jest percepton, który składa się wyłącznie z jednego sztucznego neuronu. Do takiego perceptonu dociera pewna liczba danych wejściowych. Dane te mają przypisane wagi, które określają jak duży wpływ na końcowy wynik ma konkretny parametr. Tak przygotowany zestaw danych jest następnie sumowany, a suma jest wprowadzana na wejście funkcji aktywacji. Taki algorytm odpowiada (przyjmując oczywiście pewne uproszczenia) działaniu neuronu ludzkiego, gdzie „wejścia” neuronu są z różną wagą „sumowane”. Funkcja aktywacji natomiast odwzorowuje tę właściwość ludzkiego neuronu, że „uaktywnia” się on tylko wtedy, gdy suma przekroczy pewną wartość.

Poglądowy schemat działania perceptronu
Rys. 1 Poglądowy schemat działania perceptronu. Każdy z 4 elementów wejścia (input) przemnażany jest przez odpowiadające mu wagi (weights). Iloczyny są sumowane (summation block), a suma jest przekazywana do funkcji aktywacji (activation block), której wyjście jest zarazem wyjściem perceptronu.

Zastosowanie sieci neuronowych

Wraz z rozwojem zagadnienia sztucznej inteligencji rozwijają się także same sieci neuronowe. Niewątpliwą zaletą sieci jest to, że mają szerokie pole do zastosowania, a także posiadają nieograniczone możliwości do dalszego rozwoju. Kolejnym atutem sieci neuronowych jest to, że doskonale radzą sobie w pracy z ogromnymi zbiorami danych, gdzie człowiek nie radzi sobie w sposób efektywny. Mało tego, są w stanie dostosować się do pojawiających się nowych zmiennych, z którymi zwykłe programy dostępne na rynku sobie nie radzą. Polem do rozwoju jest umiejętność pracy sieci na podstawie danych uszkodzonych lub dostępnych we fragmentach. Sieci neuronowe wykorzystuje się w coraz większej liczbie obszarów życia, a przede wszystkim w finansach, medycynie czy technologii. Sieci neuronowe będą się pojawiać sukcesywnie w obszarach, które wymagają działań związanych z przewidywaniem, klasyfikowaniem oraz sterowaniem. Znajdą swoje zastosowanie wszędzie tam gdzie potrzebne są rozwiązania oparte na tworzeniu scenariuszy lub podejmowaniu decyzji na bazie wielu zmiennych.

Więcej o sieciach neuronowych przeczytasz w tym artykule.

Bibliografia

[1] http://businessinsider.com.pl/technologie/czym-sa-sieci-neuronowe/pwtfrsy

[2] http://pclab.pl/art71255-2.html