Smart City

Wraz z wzrastającą urbanizacją na świecie oraz coraz ważniejszymi społecznie problemami takimi jak zanieczyszczenie powietrza, zaśmiecanie miast, walka ze zmianami klimatycznymi czy zbyt duże poleganie na transporcie samochodowym pojawia się potrzeba efektywniejszego zarządzania miastami. W osiągnięciu tego celu mogą zostać wykorzystane nowoczesne technologie. Idea inteligentnych miast (ang. Smart Cities) polega na wykorzystaniu technologii komunikacyjnych w celu stworzenia bardziej interaktywnej i wydajnej infrastruktury miejskiej, a także podniesienia świadomości mieszkańców na temat jej działania [1]. Smart City stanowi więc szeroki zakres rozwiązań, które w połączeniu poprawiają życie mieszkańców i pomagają w walce z problemami dzisiejszego świata. W poniższym artykule przedstawimy niektóre z rozwiązań Smart City. Omówiona zostanie rola zbierania danych w Smart City, technologie Smart City dla transportu, inteligentnego zarządzania energią, a także dla walki z zanieczyszczeniami środowiskowymi i hałasowymi. 

Zbieranie i analiza danych w Smart City 

Podstawową rolę w funkcjonowaniu Smart City jest zbieranie danych za pomocą wszelakich narzędzi pomiarowych, takich jak sensory, czujniki i kamery. Zbieranie rzeczywistych i aktualnych danych na temat działania miasta jest kluczowe dla odpowiedniego funkcjonowania rozwiązań Smart City, ponieważ ich analiza pozwala na podejmowanie decyzji w czasie rzeczywistym, znacząco redukując zużycie zasobów, nie pogarszając przy tym standardu życia mieszkańców [2]. Odpowiedne zbieranie i analiza ogromu danych potrzebnych do prawidłowego działania systemów Smart City jest ogromnym wyzwaniem. 

BFirst.Tech specjalizuje się w implementacji technologii IoT, dostarczając zaawansowane rozwiązania w zakresie inteligentnego monitoringu, analizy danych i optymalizacji infrastruktury miejskiej. Jako członek United Nations Global Compact Network Poland i współtwórca Rekomendacji dla miast Rady Biznesowej przy World Urban Forum 11, firma aktywnie wspiera rozwój zrównoważonych technologii, koncentrując się na innowacyjnych systemach diagnostyki, akustyki środowiskowej i inżynierii danych.  

Smart City w transporcie 

Jednym z głównych obszarów wykorzystania rozwiązań Smart City jest transport. Współczesne miasta są w stanie zbierać zdecydowanie więcej danych na temat transportu przy zastosowaniu inteligentnych narzędzi w pojazdach transportu publicznego, w ważnych miejscach na drogach, takich jak skrzyżowania, czy też za pomocą monitoringu publicznego.  

Zgromadzone w ten sposób dane mogą zostać następnie odpowiednio przetworzone i użyte do poprawy wydajności systemu transportowego miasta.  Zebrane informacje mogą być użyte do wyświetlania informacji na temat rozkładu jazdy i obecnej pozycji pojazdów transportu publicznego z przewidywanym czasem dojazdu do przystanku, sprawiając, że transport zbiorowy staje się bardzo atrakcyjną alternatywą dla samochodu. 

Rys. 1. Wykorzystanie Smart City w Transporcie. Źródło: https://www.digi.com/blog/post/introduction-to-smart-transportation-benefits

Dane spływające na bieżąco do systemów zarządzania ruchem pozwalają na optymalizację ruchu miejskiego w czasie rzeczywistym, co pozwoli na zwiększenie bezpieczeństwa i zmniejszenie emisji spalin. Systemy inteligentnego parkowania wykorzystują dane na temat miejsc parkingowych, monitorując je i informując kierowców o ich dostępności oraz umożliwiają pobranie płatności za parkowanie, poprawiając komfort kierowców, a także zmniejszając zanieczyszczenia poprzez skrócenie czasu wykorzystanego na znalezienie miejsca parkingowego [3]. 

Rozwiązania Smart City pomagają również rozwiązać tzw. problem pierwszego i ostatniego kilometra – pierwszy i ostatni fragment podróży w mieście, przeważnie będący zdecydowanie krótszy od samego przejazdu komunikacją miejską, mogący jednocześnie zajmować podobną ilość czasu. Systemy Smart City mogą pozwolić na połączenie sieci komunikacji miejskiej z wykorzystaniem lekkich środków transportu krótkodystansowego, takimi jak rowery lub hulajnogi elektryczne. Odpowiednio umieszczone huby takiego transportu w połączeniu z łatwością korzystania mogą znacząco ułatwić podróżowanie w mieście, a nawet zachęcić część kierowców do korzystania z transportu publicznego [4]. 

Inteligentne zarządzanie energią 

Wraz z coraz większym zapotrzebowaniem na energię elektryczną, wynikającym między innymi z potrzeby jak największej dekarbonizacji gospodarki, coraz większy nacisk kładzie się nie tylko na zwiększenie produkcji energii ze źródeł odnawialnych, ale także na jej efektywniejsze wykorzystywanie. Zastosowanie inteligentnych rozwiązań zarządzania energią prowadzi do mniejszego zużycia energii, a co za tym idzie mniejszej jej produkcji, co może mieć duży wpływ na ochronę środowiska. 

Rys. 2. Zielona energia w mieście. Źródło: https://leadersinternational.org/sme4smartcities-insights/revolutionising-urban-life-how-smart-technologies-and-sustainable-energy-are-creating-the-cities-of-the-future/ 

Wśród systemów Smart City wspierających lepsze zarządzanie należy wymienić inteligentne sieci przesyłowe monitorujące dystrybucję i konsumpcję energii, wydajne systemy przechowywania tanio wyprodukowanej energii w szczytowych momentach produkcji, a także inteligentne czujniki będące w stanie regulować wykorzystywanie oświetlenia w zależności od ilości światła naturalnego. Te wszystkie rozwiązania w połączeniu ze sobą umożliwiają również stworzenie programów optymalizujących, kiedy wykorzystywana jest energia, używając jej głównie w okresach najniższych kosztów jej produkcji, co znajduje zastosowanie między innymi w ładowaniu pojazdów elektrycznych [5]. 

Oprócz wymienionych sposobów efektywniejszego wykorzystania energii elektrycznej, na mniejsze zużycie energii wpływać może również rozwój techniczny i nowe regulacje dotyczące budowy i remontów budynków, tak aby wykorzystywały jak najmniej energii. Dokonać tego można między innymi poprzez używanie efektywnych i ekologicznych materiałów, projektowanie budynków w sposób minimalizujący utratę ciepła przy jednoczesnym jak największym dostępie do światła naturalnego, czy też poprzez użycie inteligentnych systemów optymalizujących zużycie ogrzewania i oświetlenia. 

Efektywne zarządzanie energią jest jednym z kluczowych aspektów transformacji energetycznej i walki z postępującymi zmianami klimatycznymi. Przemiana miast w miasta inteligentne będzie wymagała dużych nakładów energii elektrycznej, która musi być wydajnie produkowana, aby przyczynić się do lepszej ochrony środowiska [6]. 

BFirst.Tech zostało członkiem Rady Biznesowej przy PRECOP29, która opracowała “Białą Księgę” zawierającą polskie spojrzenie na kwestie klimatyczne, w tym także zarządzenie energią przed Konferencją Narodów Zjednoczonych w sprawie zmian klimatu 2024. BFirst.Tech oferuje kompleksowe rozwiązania monitoringu, diagnostyki i zarządzania dużymi ilościami danych, także tymi dotyczącymi energii. Aby dowiedzieć się więcej, poznaj nasze rozwiązania w poniższym linku

Smart City w walce z zanieczyszczeniami i hałasem 

Jednym z największych problemów z jakimi zmagają się współczesne miasta jest zanieczyszczenie powietrza, wynikające z wielu czynników, takich jak spalanie paliw stałych w piecach czy planowanie przestrzenne miast. Wysokie poziomy zanieczyszczenia wpływają na zdrowie mieszkańców miast, zmniejszając ich produktywność, zajmując surowce służby zdrowia i zmniejszając atrakcyjność dla biznesu i turystów. 

Aby efektywnie walczyć z zanieczyszczeniem powietrza, konieczne jest posiadanie dokładnych informacji na temat ich poziomu i rozkładu przestrzennego dostarczanych przez dużą liczbę czujników na przestrzeni miasta.  Zebrane w ten sposób informacje pomagają w odpowiednim podejmowaniu decyzji na temat działań mających za zadanie poprawę stanu powietrza. Dodatkowo, odpowiednio zaprezentowane mieszkańcom informacje na temat stanu powietrza mogą wzmocnić świadomość społeczną na temat problemu i zwiększyć presję na znalezienie odpowiednich rozwiązań w walce z zanieczyszczeniami [7]. 

Oprócz zanieczyszczeń powietrza coraz częściej mówi się również o problemie hałasu miejskiego. Korki, remonty, budowy nowych budynków i inne źródła hałasu w miastach mogą niekiedy stanowić poważne zagrożenie dla zdrowia ludzkiego [8], pogarszając dodatkowo poziomy koncentracji i skupienia, obniżając standard życia mieszkańców. 

Rys. 3. Źródła hałasu dla mieszkańców miast. Źródło: https://www.hseblog.com/noise-pollution/ 

W walce z tym problemem mogą zostać użyte inteligentne czujniki, które są w stanie oszacować nie tylko poziom zarejestrowanego hałasu, ale także źródło jego pochodzenia. Dane te mogą zostać następnie przetworzone i użyte przez ekspertów w celu przygotowania planu zniwelowania poziomów hałasu, poprawiając tym samym życie mieszkańców [9]. 

BFirst.Tech jest firmą posiadającą wieloletnie doświadczenie eksperckie w implementacji rozwiązań mających na celu walkę z zanieczyszczeniami hałasem. BFirst.Tech oferuje nowoczesne i zaawansowane podejście w dziedzinie redukcji hałasu, wpisujące się w potrzeby nie tylko inteligentnych miast, ale także nowoczesnego przemysłu. Poznaj nasze produkty i rozwiązania pod poniższym linkiem

Podsumowanie

Smart City wykorzystują współczesne zawansowane techniki pozyskiwania, przetwarzania i przechowywania danych. Dzięki ich wykorzystaniu, nasze miasta zyskują nowe narzędzia i techniki w walce z coraz bardziej palącymi problemami współczesnego świata. Technologie te mogą pomóc nie tylko z wymienionymi w artykule problemami związanymi z transportem zbiorowym, zanieczyszczeniami powietrza, hałasem i zarządzaniem energią, ale także z wieloma innymi, wśród których można wymienić lepszą prewencję i zarządzanie kryzysowe, bezpieczeństwo publiczne czy zarządzanie odpadami. To, które miasta najlepiej je wykorzystają, może być kluczowym czynnikiem w ich dalszym rozwoju i kluczem do lepszego zaspokojenia potrzeb swoich mieszkańców. 

Bibliografia

[1] https://uclg-digitalcities.org/en/smart-cities-study/2012-edition/ 

[2] https://www.oecd.org/en/publications/smart-city-data-governance_e57ce301-en.html 

[3] https://www.teraz-srodowisko.pl/aktualnosci/przyszlosc-transport-smart-city-forum-11962.html 

[4] https://smartride.pl/przyszlosc-transportu-w-smart-city-komfort-podrozy-i-czyste-powietrze/ 

[5] https://energy-floors.com/10-smart-city-energy-solutions-kinetic-floors/ 

[6] https://www.teraz-srodowisko.pl/aktualnosci/inteligentne-technologie-zarzadzanie-energia-miasta-efektywnosc-energetyczna-13055.html 

[7] https://www.innovationnewsnetwork.com/the-development-of-the-smart-city-waste-management-and-air-quality-monitoring/39990/ 

[8] https://pmc.ncbi.nlm.nih.gov/articles/PMC6878772/ 

[9] https://newsroom.axis.com/blog/noise-pollution-smart-cities 

Efekt technologicznych złudzeń na postrzeganie rzeczywistości przez ludzi

Rozpoczęta w latach 90. XX wieku komputeryzacja wprowadziła ludzkość w epokę, w której praca i codzienne obcowanie z technologią jest powszechne i naturalne. Sztuczna Inteligencja odpowiada na nasze pytania, a Internet postrzegany jest jako nieskończone źródło informacji. Choć można pomyśleć, że rozwój technologii pomaga nam w zrozumieniu otaczającego świata, istnieją zjawiska pokazujące, jak często nasze intuicje zawodzą. Technologie, na pierwszy rzut oka proste i oczywiste, potrafią skrywać paradoksy i złudzenia, których dostrzeżenie, jak i zrozumienie, może być trudniejsze niż się wydaje. Artykuł ten przybliży trzy ciekawe zjawiska: efekt Elizy, paradoks Moraveca oraz efekt Streisand. Każde z nich pokazuje, w jaki sposób technologia może zmieniać naszą percepcję rzeczywistości, wpływając na to jak widzimy maszyny, dane i informacje. Poznanie tych zjawisk pozwoli spojrzeć z innej strony na rozwój technologii oraz pomoże bardziej świadomie z niej korzystać. 

Efekt Elizy

W latach 60-tych XX wieku Joseph Weizenbaum w Massachusetts Institute of Technology napisał program ELIZA [1]. Program ten był jednym z pierwszych chatbotów – w naturalny sposób naśladował zwykłą konwersację. Mimo prostoty algorytmu, który na podstawie wprowadzanych słów kluczowych tworzył odpowiedzi działając zgodnie z ustalonymi z góry schematami, wielu użytkowników programu zgłaszało, iż odnoszą wrażenie, że Eliza naprawdę ich rozumie. Dzięki sprytnemu doborowi odpowiedzi, użytkownicy potrafili być mocno zaangażowani w rozmowę, zadowoleni faktem, iż rozmówca rozumie i słucha. Sam twórca był zaskoczony, jak bardzo ludzie byli przekonani, że Eliza jest człowiekiem, nie maszyną.  

Właśnie od tego chatbota wziął swoją nazwę efekt Elizy – zjawisko skłonności do przypisywania przez człowieka maszynom, programom (w tym Sztucznej Inteligencji) zdolności do rozumienia, empatii i inteligencji, czyli ich antropomorfizacji [2]. Wśród przykładów tego zjawiska można wymienić wyświetlanie komunikatów “witaj” czy “dziękuję” przez bankomaty i kasy samoobsługowe, które są predefiniowanymi tekstami do wyświetlenia, a nie wyrazem wdzięczności maszyny; czy komunikacja z asystentami głosowymi – dziękowanie im, mówienie “ona” o asystencie Alexa, która mimo używania żeńskiego głosu w dalszym ciągu pozostaje bezpłciowym algorytmem. Podstaw tego efektu można doszukiwać się w naszej naturze – to co ludzkie wydaje się znajome, bliższe, mniej straszne, co widać chociażby w sposobie przedstawiania dawnych bóstw i porównywaniu ich do ludzi i zwierząt, przypisywaniu im zjawisk pogodowych czy żywiołów [3].  

Takie spoufalanie się z – nieraz bardzo skomplikowanymi – technologiami pozwala na przełamanie obaw przed nowościami, zachęca do interakcji i buduje przywiązanie do używanego produktu. Jednocześnie efekt ten może powodować przecenienie zdolności danego algorytmu (ze względu na założenie, że maszyna wie i rozumie więcej niż w rzeczywistości), nadmierną ufność w otrzymywane informacje, czy niezdrowe do granic traktowanie tworu jak ludzkiej istoty, np. przez traktowanie chatbota jak terapeuty czy zawieranie ślubów z AI [4]. 

Paradoks Moraveca

Kolejne interesujące zjawisko wzięło swoją nazwę od nazwiska kanadyjskiego naukowca, Hansa Moraveca, autora prac w dziedzinie technologii, futurologii i transhumanizmu. We współpracy z Rodney’em Brooksem oraz Marvinem Minskym w 1988 roku sformułował stwierdzenie: „Stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności” [5]. Oznacza ono, że zadania uważane za trudne, wymagające wiedzy, inteligencji i logicznego myślenia, są stosunkowo proste do rozwiązania z wykorzystaniem Sztucznej Inteligencji, natomiast te czynności, które uważamy za proste i naturalne – chodzenie, rozpoznawanie twarzy i przedmiotów czy koordynacja ruchowa – są bardzo problematyczne i trudne do zaimplementowania w maszynach.  

Naukowcy doszukują się wyjaśnienia tego paradoksu w procesie ewolucji człowieka. Zdolności motoryczne człowieka rozwijały się przez miliony lat, były niezbędne do przetrwania oraz powoli, lecz ciągle poprawiane za sprawą selekcji naturalnej. Ludzki mózg miał dużo czasu na przyswojenie i zaadaptowanie się do czynności takich jak chwytanie narzędzi, rozpoznawanie twarzy i emocji, chodzenie czy koordynacja ruchowa, dlatego są one zautomatyzowane na głębokim poziomie, wykonujemy je bez świadomego wysiłku. Z kolei abstrakcyjne myślenie, matematyka, logika to zdolności stosunkowo nowe, nie zakorzenione tak głęboko i wymagające świadomego wysiłku intelektualnego. Z racji tego, że te zdolności nie są zakorzenione w ludziach tak głęboko, łatwiej jest zastosować w ich przypadku inżynierię wsteczną i zaimplementować je w postaci programu. Ponadto komputery są najbardziej skuteczne w odwzorowywaniu procesów logicznych, schematycznych, z określonymi krokami. Z tych powodów mamy już programy wybitne, w porównaniu do ludzi, jeśli chodzi o złożone obliczenia, szachy, symulacje, jednak, jeśli chodzi o mobilność, koordynację, rozpoznawanie obiektów i twarzy, czy inne “podstawowe” czynności, które uznajemy za naturalne i proste już dla kilkuletniego dziecka – tutaj rozwój następuje bardzo powoli. Dopiero od niedawna ilość danych i technologia pozwala na stopniowy rozwój w tym obszarze, co pokazuje chociażby przykład firmy Boston Dynamics, zajmującej się robotyką [6].

Efekt Streisand

Kolejne zjawisko, na którym się skupimy to efekt Streisand. Głosi ono, iż im bardziej staramy się usunąć bądź ocenzurować jakąś informację w Internecie, tym większy zyskuje ona rozgłos i zainteresowanie. Efekt ten zawdzięcza swoją nazwę Barbrze Streisand i sytuacji z 2003 roku, gdy fotograf Kenneth Adelman wykonywał zdjęcia wybrzeża Kalifornii, w celu udokumentowania postępującej erozji [7]. Fotografie te zostały upublicznione na stronie poświęconej tematowi erozji wybrzeża. Zbiegiem okoliczności na jednym ze zdjęć widoczna była rezydencja Barbry Streisand. Pozwała ona fotografa za naruszenie prywatności, żądając odszkodowania i usunięcia fotografii, gdyż nie chciała, by ktokolwiek ją zobaczył. Sytuacja potoczyła się jednak całkiem nie po jej myśli – przegrała proces sądowy i musiała zwrócić fotografowi koszty, zaś fotografia nie tylko nie została usunięta, lecz zyskała jeszcze większy rozgłos i o wiele więcej wyświetleń niż przed całym zamieszaniem.  

Efekt ten można tłumaczyć na kilka sposobów, opierających się w głównej mierze na ludzkiej psychologii, roli mediów społecznościowych oraz ogólnym mechanizmom obiegu informacji w sieci. Ludzie bardzo niechętnie znoszą wszelkie ograniczenia narzucone na ich wolność, również w zakresie dostępu do informacji. Często w sytuacjach wymuszonej cenzury ludzie celowo działają na przekór – chcą zdobyć jak najwięcej wiadomości na temat “zakazanej” informacji, chętnie się nią dzielą i udostępniają dalej. Podobnie działa mechanika “zakazanego owocu” – przez próbę ukrycia informacja wydaje się jeszcze ciekawsza i bardziej intrygująca, mimo że bez owej próby wiadomość prawdopodobnie przeszłaby bez echa. W dzisiejszych czasach, z racji łatwości dostępu do informacji i mnogości różnych mediów, wiadomości są powszechne i szybko mogą stać się viralem, przyciągając ogromne ilości odbiorców. Internet również zmienił nieco odbiór różnych treści. Fakt, iż każdy użytkownik może treść zapisać, udostępnić, w teorii uniemożliwia usunięcie czegoś z sieci, gdy już raz tam trafiło. Dodając do tego fakt, jak szybko media wychwytują i nagłaśniają przypadki cenzury, staje się dość oczywiste, dlaczego próba ukrycia czy zamaskowania czegoś kończy się zazwyczaj odwrotnym skutkiem. 

Istnieje wiele przykładów efektu Streisand. W 2013 roku po występie na Super Bowl zespół do spraw wizerunku wokalistki Beyonce uznał jedno ze zdjęć za szczególnie niekorzystne i podjął próby usunięcia go z sieci. Efekt był dokładnie przeciwny, fotografia stała się dużo bardziej rozchwytywana niż pierwotnie, zaczęła służyć również jako szablon do internetowych memów. Nie brak też przypadków ze świata technologii. W 2007 roku jeden z użytkowników internetowego serwisu Digg ujawnił, iż system ochrony praw autorskich Advanced Access Content System (AACS) używany w odtwarzaczach HD DVD może być złamany ciągiem znanym jako 09 F9. Przedstawiciele przemysłu wykorzystującego to zabezpieczenie zażądali usunięcia wpisu na Digg i grozili konsekwencjami prawnymi. W efekcie w Internecie rozgorzały wielkie dyskusje, a informacja o kodzie (który przez chwilę był nazywany “najbardziej znanym numerem w Internecie”) mocno się rozprzestrzeniła i była powielana w postaci filmów, nadruków na koszulkach czy nawet piosenek [8]. 

Podsumowanie

Omówione w artykule zjawiska pokazują, że chociaż technologie, takie jak Sztuczna Inteligencja i Internet są potężnymi narzędziami, to mogą zniekształcać ludzką percepcję i tworzyć mylne wrażenia. Łatwo jest wpaść w rozmaite pułapki związane z technologią, dlatego świadomość wspomnianych zjawisk jest ważna, gdyż pozwala na bardziej krytyczne podejście do interakcji z technologią i informacją, lepsze wykorzystanie ich potencjału oraz zdrowe i rozsądne korzystanie z nich.

Bibliografia

[1] https://web.stanford.edu/class/cs124/p36-weizenabaum.pdf 

[2] https://modelthinkers.com/mental-model/eliza-effect 

[3] https://builtin.com/artificial-intelligence/eliza-effect 

[4] https://www.humanprotocol.org/blog/what-is-the-eliza-effect-or-the-art-of-falling-in-love-with-an-ai  

[5] https://www.researchgate.net/publication/286355147_Moravec%27s_Paradox_Consideration_in_the_Context_of_Two_Brain_Hemisphere_Functions  

[6] https://www.scienceabc.com/innovation/what-is-moravecs-paradox-definition.html  

[7] https://www.forbes.com/2007/05/10/streisand-digg-web-tech-cx_ag_0511streisand.html  

[8] https://web.archive.org/web/20081211105021/http://www.nytimes.com/2007/05/03/technology/03code.html 

Efekt Proteusza – jak awatar wpływa na odbiorcę

Relacja człowieka z technologią jest jednym z obiektów zainteresowania filozofii od pewnego czasu. Na przestrzeni lat powstało wiele teorii, które próbowałyby wytłumaczyć wzajemny wpływ człowieka na technologię i technologii na człowieka, czy całe społeczeństwa. Choć spory deterministów (twierdzących, że to technologia kształtuje człowieka) oraz konstruktywistów (twierdzących, że to człowiek kształtuje technologię) prawdopodobnie nigdy nie zostaną rozstrzygnięte, w tym artykule opisano efekt Proteusza, który może być bliższy jednemu z wymienionych nurtów. 

Czym jest efekt Proteusza? 

Efekt Proteusza jest zjawiskiem, które jako pierwsi opisali Yee oraz Bailenson w 2007 roku. Został on tak nazwany ze względu na mit o bogu Proteuszu, który mógł zmieniać swój wygląd w dowolny sposób. Miał on wykorzystywać swoją moc, aby skrywać swoją wiedzę o wydarzeniach, które miały miejsce oraz o tych, które dopiero miały się stać. Yee i Bailenson zauważyli, że osoby posługujące się wirtualnymi awatarami zmieniają swoje zachowanie na podstawie obserwowanych cech tych postaci, grając nimi w wirtualnym świecie. Para badaczy twierdzi, że gracze wnioskują na podstawie wyglądu i cech awatarów, w jaki sposób powinni dopasować swoje zachowanie oraz ogólne nastawienie, aby sprostać oczekiwaniom, które stawia ich wirtualna reprezentacja. Stwierdzono również, że istnieją podstawy do tego, aby sądzić, iż efekt ten może przedostawać się poza ramy światów cyfrowych i oddziaływać na zachowanie oraz nastawienie osób w świecie rzeczywistym [1].

Efekt Proteusza – przykład występowania

Aby zobrazować na czym polega efekt na realnym przykładzie, posłużę się badaniem, w którym autorzy sprawdzają występowanie efektu Proteusza w trakcie rozgrywania meczy różnymi postaciami w popularnej grze MOBA, Lidze Legend (ang. League of Legends). Uczestnicy rozgrywki są rozdzielani przez grę na dwa zespoły po pięciu graczy, którzy następnie toczą walkę na mapie. Zanim jednak się jej podejmą, każdy z nich musi dokonać wyboru tzw. bohatera (ang. champion). Liga Legend pozwala na rozegranie meczu jednym z ponad 140 bohaterów [2], z których każdy charakteryzuje się innym wyglądem i umiejętnościami. Autorzy tego badania poddali analizie sposób w jaki gracze komunikują się ze sobą, biorąc pod uwagę to, którym bohaterem grają.

Występowanie efektu Proteusza zmierzono wykorzystując czat gry. Na jego podstawie badacze ustanowili wskaźniki takie jak: wokalność („acting more vocal”), zachowania toksyczne („acting more toxic”) i pozytywną lub negatywną wartościowość („valence”). Wartościowość jest formą analizy sentymentu mającą na celu zobrazowanie stanu emocjonalnego gracza. Wyniki analizy potwierdziły występowanie efektu Proteusza, ale nie dla każdego bohatera lub jego typu. Obecność efektu zaobserwowano głównie poprzez wartościowość i toksyczność wypowiedzi. Najważniejszym odkryciem tego badania było dowiedzenie, że sposób komunikacji graczy przez czat rzeczywiście zmieniał się razem z bohaterem, którego wybierali gracze. W zależności od obranej postaci gracz nie wypowiadał się mniej lub więcej, ale mógł być bardziej toksyczny i w gorszym humorze [3].

Efekt Proteusza i jego wykorzystanie

Efekt Proteusza jest fenomenem, który szczególnie zwraca naszą uwagę na relację ludzi z wirtualnymi światami. Dzięki niemu możemy jasno stwierdzić, że w ten, czy inny sposób, technologia wywiera na nas bezpośredni wpływ, nawet zmieniając nasze zachowanie. Niektórzy naukowcy starali się sprawdzić czy można go wykorzystać praktycznie, np. w przypadku wykonywania niektórych zawodów. Zagłębmy się w przeprowadzone przez nich badania.

Wpływ na siłę 

Piątka niemieckich badaczy postawiła hipotezę, według której wykorzystanie odpowiednio dopasowanego awatara sprawi, że osoba sterująca nim będzie wykonywać odpowiednie zadania lepiej, niż gdyby ucieleśniała inną, niewyróżniającą się postać lub siebie samą. W tym przypadku naukowcy zdecydowali się sprawdzić, czy osoba, której wirtualny wygląd sugeruje, że jest silniejsza od badanego, sprawi, że będzie podejmować się większego wysiłku w ćwiczeniach fizycznych. Oprócz śledzenia ruchów badanych ubranych w sprzęt VR, mierzeniu poddano również siłę chwytu.

W trakcie badania uczestnicy byli przydzielani do awatarów zgodnie ze swoją płcią. Badani zostali poddani serii zadań ćwiczeniowych, w których m.in. podnosili ciężarki o różnej ciężkości, czy musieli przez pięć sekund jak najsilniej ściskać dłoń. Zgodnie z rezultatami, autorzy uznają, że badania nie można jednak uznać za reprezentacyjne. W przypadku kobiet nie stwierdzono zwiększonej siły chwytu. U mężczyzn, aczkolwiek, takie wyniki są widoczne. Można zatem cząstkowo wnioskować, że bardziej muskularny awatar może mieć wpływ na siłę mężczyzn [4].

Stymulant kreatywności

W poniższym badaniu sprawdzano, czy awatar jako reprezentacja jednostki w świecie wirtualnym stymuluje kreatywność. W ramach badania organizowano sesje kreatywne, podczas których uczestnicy przeprowadzali burzę mózgów ucieleśniając daną postać. Przed umówieniem sesji badacze wyłonili kilka awatarów, które były postrzegane jako kreatywne i neutralne. Uczestników podzielono na trzy grupy: kontrolną (brainstorming w świecie rzeczywistym), wykorzystującą awatary neutralne oraz wykorzystującą awatary kreatywne, określonych jako wynalazców. Wszystkie grupy odbywały sesje kreatywne w tych samych pomieszczeniach – grupa kontrolna zbierała się wokół okrągłego stołu, a pozostałe korzystały ze sprzętu w tym samym pokoju w oddzielnych kubikach. Następnie w wirtualnej rzeczywistości siadały przy okrągłym stole w odtworzonej przestrzeni. 

W lewej części znajduje się pomieszczenie z okrągłym stołem i krzesłami wokół niego w przestrzeni wirtualnej. W prawej części widnieje pierwowzór w świecie rzeczywistym.
Rysunek 1. Po lewej pomieszczenie z okrągłym stołem i stanowiskami odtworzone w przestrzeni wirtualnej. Po prawej jej pierwowzór w świecie rzeczywistym. [5]

Badacze uniknęli jakiegokolwiek kontaktu badanych z grup awatarowych między sobą, przed oraz po odbyciu się głównej części sesji burzy mózgów; badani nigdy się ze sobą nie spotkali poza eksperymentem. Pierwszym ważnym wynikiem, szczególnie istotnym dla przyszłości zdalnej współpracy, jest fakt, że grupy korzystające z niekreatywnych awatarów osiągały takie same wyniki, jak te które siedziały przy stole w świecie rzeczywistym. Jednakże najważniejszym rezultatem jest dowiedzenie, że osoby, które ucieleśniały awatar wynalazcy odznaczały się konsekwentnie lepszymi wynikami dla każdego ze wskaźników mierzących poziom kreatywności wykorzystywanych w eksperymencie [5].

Pomoc w poprawie komunikacji 

Kolejne badanie zostało przeprowadzone, aby zbadać możliwości szkolenia umiejętności skutecznej komunikacji lekarzy na etapie przedoperacyjnym. Komunikacja z pacjentem może być nieskuteczna m.in. przez to, że lekarze przenoszą zwroty ze środowiska zawodowego. W ramach tego badania wykorzystano dwa doświadczenia w rzeczywistości wirtualnej. W trakcie doświadczenia uczestnicy wcielali się w rolę pacjenta. Na ich podstawie udało się opisać rozwój i wrażenia, które towarzyszyły badanym.

W trakcie eksperymentu uczestnicy przeżywali negatywny lub pozytywny styl komunikacji w sytuacji, w której za niedługo mieliby być poddani operacji. Dzięki przeprowadzonym wywiadom na następnym etapie badawczym wynikło, że uczestnicy uznali istotność znaczenia dobrych umiejętności komunikacyjnych. Ogólnie rzecz biorąc, uczestnicy nauczyli się i dostosowali swój styl komunikacji w późniejszej pracy. Rzeczywistość wirtualna, w której uczestnicy ucieleśniali pacjenta w jednym z dwóch doświadczeń, okazała się skuteczna w zapewnianiu w pełni immersyjnego doświadczenia. Jak twierdzą uczestnicy – czuli się, jakby byli pacjentem. Można zatem dalej wyciągnąć z tego badania, że efekt Proteusza przydaje się również w celach edukacyjnych, poprawy komunikacji i zwiększaniu empatii wobec drugiego człowieka [6].

Podsumowanie

W obliczu nieustannego rozwoju technologii ciągle odkrywamy nowe zjawiska, które mogą następnie kształtować nasze podejście do niej w przyszłości. Efekt Proteusza pokazuje nam, że jej wpływ potrafi być znacznie bardziej bezpośredni niż możemy przypuszczać na co dzień. Choć ten fenomenom jest w dużej mierze nieszkodliwy, wskazuje na to jak dajemy się porwać naszej reprezentacji w świecie wirtualnym. Człowiek już rozpoczął poszukiwanie zastosowania jego właściwości w zróżnicowanych środowiskach – jako mentalne odblokowanie swojej siły, wspomaganie procesów kreatywnych, czy edukacja skutecznej komunikacji. Jednakże, aby móc odpowiedzieć na pytanie, czy efekt Proteusza zadomowi się na dobre w naszej codzienności, musimy jeszcze poczekać. Dodatkowo, warto wiedzieć, iż firma Microsoft rozpoczęła prace nad organizowaniem konferencji międzynarodowych w świecie wirtualnym, z wykorzystaniem awatarów. Z kolei polski startupowiec Gryń – były właściciel firmy Codewise – założył firmę w Londynie, aby skanować ludzi do tego typu przeznaczeń. W BFirst.Tech, dzięki wykorzystaniu jednego z obszarów firmy, czyli Data Architecture & Management (a konkretnie produktu Artificial Intelligence Adaptations) zrealizowany został projekt dla sieci klinik Rehasport, który pozwala na przeprowadzanie operacji w tzw. rzeczywistości rozszerzonej (AR).

Bibliografia

[1] The Proteus Effect: The Effect of Transformed Self‐Representation on Behavior: https://academic.oup.com/hcr/article-abstract/33/3/271/4210718?redirectedFrom=fulltext&login=false 

[2] Liczba na podstawie opisu na stronie: https://www.leagueoflegends.com/en-us/champions/ (dostęp: 23.06.2024) 

[3] Do players communicate differently depending on the champion played? Exploring the Proteus effect in League of Legends: https://www.sciencedirect.com/science/article/abs/pii/S0040162522000889

[4] Flexing Muscles in Virtual Reality: Effects of Avatars’ Muscular Appearance on Physical Performance: https://www.academia.edu/77237473/Flexing_Muscles_in_Virtual_Reality_Effects_of_Avatars_Muscular_Appearance_on_Physical_Performance 

[5] Avatar-mediated creativity: When embodying inventors makes engineers more creative: https://www.sciencedirect.com/science/article/pii/S0747563216301856 

[6] Patient-embodied virtual reality as a learning tool for therapeutic communication skills among anaesthesiologists: A phenomenological study: https://www.sciencedirect.com/science/article/pii/S0738399123001696 

Jezioro Danych – zastosowanie uczenia maszynowego

W erze cyfryzacji rośnie zapotrzebowanie na zaawansowane technologie nie tylko do gromadzenia, ale przede wszystkim analizy danych. Przedsiębiorstwa akumulują coraz większe ilości różnorodnych informacji, które mogą zwiększać ich efektywność i innowacyjność. Produkt Data Engineering oferowany przez firmę BFirst.Tech może odgrywać kluczową rolą w procesie wykorzystywania tych danych dla dobra firmy.  Jest to jedna z najnowocześniejszych technologii do efektywnego zarządzania i przetwarzania informacji. W niniejszym artykule przedstawimy jedną z możliwości oferowanych przez Jezioro Danych.

Data Engineering – najnowsza technologia do zbierania i analizowania informacji 

Inżynieria danych to proces projektowania oraz wdrażania systemów do efektywnego zbierania, przechowywania i przetwarzania obszernych zbiorów danych. Wspiera to akumulację informacji, takich jak analiza ruchu na stronach internetowych, dane z czujników IoT, czy trendy zakupowe konsumentów. Zadaniem inżynierii danych jest zapewnienie, że informacje są zręcznie gromadzone i magazynowane oraz łatwo dostępne i gotowe do analizy. Dane mogą być efektywnie przechowywane w jeziorach, hurtowniach czy składnicach danych, a tak zintegrowane źródła danych mogą służyć do tworzenia analiz lub zasilania silników sztucznej inteligencji. Zapewnia to wszechstronne wykorzystanie zgromadzonych informacji (patrz szczegółowy opis produktu Data Engineering (rys. 1)).

Data Engineering, sustainable data management

rys. 1 – Data Engineering

Jezioro Danych w przechowywaniu zbiorów informacji  

Jezioro Danych pozwala na przechowywanie ogromnych ilości surowych danych w ich pierwotnym, nieprzetworzonym formacie. Dzięki możliwościom, jakie oferuje Data Engineering, Jezioro Danych jest zdolne do przyjmowania i integracji danych z różnorodnych źródeł. Mogą to być dokumenty tekstowe, ale także obrazy, aż po dane pochodzące z czujników IoT. To umożliwia analizę i wykorzystanie złożonych zbiorów informacji w jednym miejscu. Elastyczność Jezior Danych oraz ich zdolność do integracji różnorodnych typów danych sprawiają, że stają się one niezwykle cenne dla organizacji, które stoją przed wyzwaniem zarządzania i analizowania dynamicznie zmieniających się zbiorów danych. W przeciwieństwie do hurtowni danych, Jezioro Danych oferuje większą wszechstronność w obsłudze różnorodnych typów danych. Jest to możliwe dzięki zaawansowanym technikom przetwarzania i zarządzania danymi stosowanym w inżynierii danych. Jednakże, ta wszechstronność rodzi również wyzwania w zakresie przechowywania i zarządzania tymi złożonymi zbiorami danych, wymagając od inżynierów danych ciągłego dostosowywania i innowacyjnych podejść. [1, 2] 

Jezioro Danych a przetwarzanie informacji i wykorzystanie uczenia maszynowego

Rosnąca ilość przechowywanych danych oraz ich różnorodność stanowią wyzwanie w zakresie efektywnego przetwarzania i analizy. Tradycyjne metody często nie nadążają za tą rosnącą złożonością, prowadząc do opóźnień i ograniczeń w dostępie do kluczowych informacji. Uczenie maszynowe, wsparte przez innowacje w dziedzinie inżynierii danych, może znacząco usprawnić te procesy. Wykorzystując obszerne zbiory danych, algorytmy uczenia maszynowego identyfikują wzorce, przewidują wyniki i automatyzują decyzje. Dzięki integracji z Jeziorami Danych (rys. 2), mogą one pracować z różnymi typami danych, od strukturalnych po niestrukturalne, umożliwiając przeprowadzanie bardziej złożonych analiz. Ta wszechstronność pozwala na głębsze zrozumienie i wykorzystanie danych, które byłyby inaczej niedostępne w tradycyjnych systemach.

Zastosowanie uczenia maszynowego w Jeziorach Danych umożliwia głębszą analizę i efektywniejsze przetwarzanie dzięki zaawansowanym narzędziom i strategiom inżynierii danych. Pozwala to organizacjom transformować ogromne ilości surowych danych w użyteczne i wartościowe informacje. Jest to istotne dla zwiększenia ich efektywności operacyjnej i strategicznej. Ponadto, wykorzystanie uczenia maszynowego wspomaga interpretację zgromadzonych danych i przyczynia się do bardziej świadomego podejmowania decyzji biznesowych. W efekcie, firmy mogą dynamiczniej dostosowywać się do rynkowych wymogów i innowacyjnie tworzyć strategie oparte na danych. 

Jezioro danych

rys. 2 – Jezioro Danych

Podstawy uczenia maszynowego oraz kluczowe techniki i ich zastosowania  

Uczenie maszynowe, będące integralną częścią tzw. sztucznej inteligencji, umożliwia systemom informatycznym samodzielne uczenie się i doskonalenie na podstawie danych. W tej dziedzinie wyróżniamy typy uczenia takie jak uczenie nadzorowane, uczenie nienadzorowane i uczenie ze wzmocnieniem. W uczeniu nadzorowanym każdy przykład danych ma przypisaną etykietę lub wynik, który pozwala maszynom na naukę rozpoznawania wzorców i przewidywania. Stosowane jest to m.in. w klasyfikacji obrazów lub prognozowaniu finansowym. Z kolei uczenie nienadzorowane, pracujące na danych bez etykiet, skupia się na znajdowaniu ukrytych wzorców. Jest to użyteczne w zadaniach takich jak grupowanie elementów czy wykrywanie anomalii. Natomiast uczenie ze wzmocnieniem opiera się na systemie nagród i kar, pomagając maszynom optymalizować swoje działania w dynamicznie zmieniających się warunkach, jak np. w grach czy automatyce. [3]

Co jeśli chodzi o algorytmy? Sieci neuronowe są doskonałe do rozpoznawania wzorców skomplikowanych danych – jak obrazy czy dźwięk – i stanowią podstawę wielu zaawansowanych systemów AI. Drzewa decyzyjne są używane do klasyfikacji i analizy predykcyjnej, na przykład w systemach rekomendacji lub prognozowaniu sprzedaży. Każdy z tych algorytmów ma swoje unikalne zastosowania. Może być dostosowany do specyficznych potrzeb zadania lub problemu, co czyni uczenie maszynowe wszechstronnym narzędziem w świecie danych. 

Przykłady zastosowań uczenia maszynowego 

Zastosowanie uczenia maszynowego w Jeziorach Danych, otwiera szerokie spektrum możliwości, od detekcji anomalii po personalizację ofert i optymalizację łańcuchów dostaw. W sektorze finansowym algorytmy te skutecznie analizują wzorce transakcji, identyfikując nieprawidłowości i potencjalne oszustwa w czasie rzeczywistym, co ma kluczowe znaczenie w zapobieganiu oszustwom finansowym. W handlu detalicznym i marketingu, uczenie maszynowe pozwala na personalizację ofert dla klientów poprzez analizę zachowań zakupowych i preferencji, zwiększając satysfakcję klienta i efektywność sprzedaży. [4] W przemyśle, algorytmy te przyczyniają się do optymalizacji łańcuchów dostaw, analizując dane z różnych źródeł, jak prognozy pogody czy trendy rynkowe, co pomaga w przewidywaniu popytu i zarządzaniu zapasami oraz logistyką [5].

Można je też wykorzystać do wstępnego projektowania czy optymalizacji produktów. Innym, interesującym zastosowaniem uczenia maszynowego w Jeziorach Danych jest analiza obrazów. Algorytmy uczenia maszynowego są w stanie przetwarzać i analizować duże zbiory zdjęć czy obrazów, znajdując zastosowanie w takich dziedzinach jak diagnostyka medyczna, gdzie mogą pomagać w wykrywaniu i klasyfikowaniu zmian chorobowych na obrazach radiologicznych, czy w systemach bezpieczeństwa, gdzie analiza obrazu z kamer może służyć do identyfikacji i śledzenia obiektów lub osób.  

Podsumowanie

Artykuł ten zwraca uwagę na rozwój w obszarze analizy danych, podkreślając jak uczenie maszynowe, Jeziora Danych i inżynieria danych wpływają na sposób w jaki organizacje przetwarzają i wykorzystują informacje. Wprowadzenie tych technologii do biznesu ulepsza istniejące procesy oraz otwiera drogę do nowych możliwości. Data Engineering wprowadza modernizację w przetwarzaniu informacji, która charakteryzuje się większą precyzją, głębszymi wnioskami i bardziej dynamicznym podejmowaniem decyzji. To podkreśla rosnącą wartość inżynierii danych w nowoczesnym świecie biznesu, co jest ważnym czynnikiem w dostosowywaniu się do zmieniających się wymagań rynkowych i tworzeniu strategii opartych na danych. 

Bibliografia

[1] https://bfirst.tech/data-engineering/ 

[2] https://www.netsuite.com/portal/resource/articles/data-warehouse/data-lake.shtml 

[3] https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained 

[4] https://www.tableau.com/learn/articles/machine-learning-examples 

[5]https://neptune.ai/blog/use-cases-algorithms-tools-and-example-implementations-of-machine-learning-in-supply-chain 

Nowe rozwiązania w komputerach stacjonarnych

Współczesny rynek technologiczny prężnie rozwija się w zakresie komputerów stacjonarnych. Firmy technologiczne próbują wyróżniać swoje produkty poprzez wprowadzanie do nich innowacyjnych rozwiązań. W ostatnim czasie duży rozgłos zyskał Mac M1 Ultra.

Nowy komputer od Apple, odznacza się przede wszystkim swoją wielkością i mobilnością. Zaprezentowany na początku marca produkt jest pełnoprawnym desktopem zamkniętym w obudowie o wymiarach 197 x 197 x 95 mm. Porównując to do kart graficznych Nvidii z serii RTX, np. Gigabyte GeForce RTX 3090 Ti 24GB GDDR6X, gdzie samo GPU ma wymiary 331 x 150 x 70 mm, okazuje się, że otrzymujemy cały komputer o rozmiarach karty graficznej. [4]

Apple M1 Ultra  - przedni panel
Rys. 1 – Apple M1 Ultra  – przedni panel [5]

Różnica w budowie

Rdzenie to fizyczne elementy procesora w których zachodzą procesy i obliczenia, im więcej rdzeni tym szybciej pracować będzie komputer. Proces technologiczny wyrażony w nm oznacza wielkość bramki tranzystora i przekłada się na zapotrzebowanie energii oraz ciepło generowane przez procesor. Zatem im mniejsza wartość jest wyrażona w nm, tym wydajniejszy jest procesor.

Procesor M1 Ultra ma 20 rdzeni i tyle samo wątków, a wykonany jest w technologii 5nm. [4][6] Dla porównania AMD oferuje maksymalnie 16 rdzeni i 32 wątki w technologii 7nm [7] (nowe procesory AMD z serii ZEN4 mają mieć technologię 5nm, jednak na  ten moment nie znamy dokładnej specyfikacji [3]) a Intel 16 rdzeni i 32 wątki w technologii 14nm [8]. Wobec powyższego, w teorii produkt od Apple ma znaczną przewagę nad konkurencją w kwestiach wydajności pojedynczego wątku. [Rys. 2]

Wydajność nowego komputera Apple

Według zapewnień producenta, GPU od Apple miało przewyższać najlepszą, na tamten moment, dostępną kartę graficzną – RTX 3090.

Wykres  wydajności procesora od ilości zużytego prądu
Rys. 2 – Wykres  wydajności procesora od ilości zużytego prądu [9] . Wykres pokazany przez Apple podczas prezentacji nowego produktu

Zintegrowana karta graficzna miała zapewniać lepszą wydajność przy zużyciu ponad 200W mniej mocy. [Rys. 3] Po premierze, użytkownicy sprawdzili jednak szybko zapewnienia producenta i okazało się, że RTX znacznie przewyższa w testach benchmarkowych produkt Apple.

Wykres wydajności karty graficznej od ilości zużytego prądu
Rys. 3 – Wykres wydajności karty graficznej od ilości zużytego prądu [9]. Wykres pokazany przez Apple podczas prezentacji nowego produktu. Porównany z RTX 3090

Problemem jest to, że te benchmarki w większości wykorzystują programy niezoptymalizowane pod Mac OS, przez co produkt Apple nie wykorzystuje całości swojej mocy. W testach wykorzystujących całą moc GPU M1 Ultra wypada bardzo podobnie do swojego dedykowanego rywala. Niestety nie wszystkie aplikacje są napisane pod system operacyjny Apple, co mocno ogranicza zastosowania, w których wykorzystamy pełną moc komputera.[10]

Na poniższym wykresie zostało przedstawione porównanie liczby klatek na sekundę w “Shadow of the Tomb Raider” z 2018 roku. [Rys. 4] Im więcej klatek tym płynniejszy jest obraz. [2]

Liczba klatek na sekundę w grze z serii Tomb Raider
Rys. 4 – Liczba klatek na sekundę w grze z serii Tomb Raider (im więcej tym lepiej)[2]

Pobór energii nowego Mac Studio M1 Ultra w porównaniu do standardowych PC

Pomimo dużej mocy obliczeniowej, nowy produkt Apple jest bardzo energooszczędny. Producent podaje, że jego maksymalny ciągły pobór mocy wynosi 370W. Standardowe PC na współczesnych podzespołach nie schodzą poniżej 500W a rekomendowana moc dla sprzętu z najlepszymi częściami wynosi 1000W [Tab. 1] ( Nvidia GeForce RTX 3090 Ti + AMD R7/9 lub Intel i7/9 ).  

Intel i5
AMD R5
Intel i7
AMD R7
Intel i9 K
AMD R9
NVIDIA RTX 3090 Ti850W1000W1000W
NVIDIA RTX 3090 750W850W850W
NVIDIA RTX 3080 Ti750W850W850W
NVIDIA RTX 3080 750W850W850W
NVIDIA RTX 3070 Ti750W850W850W
NVIDIA RTX 3070 650W750W750W
Lower graphic cards650W650W650W
Tab. 1 – Tabela rekomendowanej mocy zasilacza zależnie od użytego procesora i karty graficznej. W kolumnach procesory AMD i Intel, w wierszach karty graficzne NVIDIA z serii RTX. [1]

Oznacza to znacznie mniejsze koszty utrzymania takiego komputera. Zakładając, że nasz komputer pracuje 8h dziennie i średni koszt kWh na poziomie 0,77 PLN, otrzymujemy oszczędność na poziomie 1500 zł rocznie. W krajach, które nie są zasilane zieloną energią oznacza to również mniejszą ilość zanieczyszczeń.

Problemy produktu od Apple

Produkty od Apple mają dedykowany software, co oznacza lepszą kompatybilność z hardware i przekłada się na lepszą wydajność, ale oznacza też, że dużo programów nie napisanych pod Mac OS nie jest w stanie całkowicie wykorzystać potencjału M1 Ultra. Produkt nie pozwala na korzystanie z dwóch systemów operacyjnych lub samodzielne zainstalowanie Windowsa/Linuxa. Okazuje się więc, że to co pozwala M1 Ultra osiągnąć tak dobre wyniki w niektórych warunkach, jest też powodem przez który nie jest w stanie konkurować wydajnością w innych programach. [10]

Podsumowanie

Apple M1 Ultra jest silnym komputerem w małej obudowie. Technologia 5nm zapewnia najlepszą energooszczędność wśród produktów aktualnie dostępnych na rynku. Jednak przez swoją niską kompatybilność i wysoką cenę nie zastąpi standardowych komputerów. Aby uzyskać maksymalną wydajność potrzebne są programy dedykowane pod system operacyjny Apple. Decydując się na ten komputer trzeba to mieć na myśli. Z tego powodu, pomimo wielu zalet jest to raczej produkt przeznaczony dla profesjonalnych grafików, muzyków lub edytorów wideo.

Bibliografia

[1] https://www.msi.com/blog/we-suggest-80-plus-gold-1000w-and-above-psus-for-nvidia-geforce-rtx-3090-Ti

[2] https://nano.komputronik.pl/n/apple-m1-ultra/

[3] https://www.tomshardware.com/news/amd-zen-4-ryzen-7000-release-date-specifications-pricing-benchmarks-all-we-know-specs

[4] https://www.x-kom.pl/p/730594-nettop-mini-pc-apple-mac-studio-m1-ultra-128gb-2tb-mac-os.html

[5] https://dailyweb.pl/apple-prezentuje-kosmicznie-wydajny-mac-studio-z-nowym-procesorem-m1-ultra/

[6] https://geex.x-kom.pl/wiadomosci/apple-m1-ultra-specyfikacja-wydajnosc/

[7] https://www.amd.com/pl/partner/ryzen-5000-series-desktop

[8] https://www.cpu-monkey.com/en/

[9] https://www.apple.com/pl/newsroom/2022/03/apple-unveils-m1-ultra-the-worlds-most-powerful-chip-for-a-personal-computer/

[10] https://youtu.be/kVZKWjlquAU?t=301

ANC – finansowe aspekty

Dzisiejsze realia w coraz większym stopniu angażują ludzi do rozmowy o finansach. Zarówno, jeżeli chodzi o nasze prywatne domowe budżety, jak i o wielkie inwestycje na szczeblu globalnym. Nie sposób nie zauważyć faktu, że dbałość o finanse zaowocowała wypracowaniem nowatorskich metod ich analizy. Począwszy od prostych aplikacji, które pozwalają nam monitorować codzienne wydatki, kończąc na olbrzymich systemach rachunkowo księgowych, które obsługują globalne korporacje. Rozmowy o pieniądzach dotyczą również szeroko pojętych inwestycji. Bardzo często związane są one z wdrożeniami nowoczesnych technologii, które w domyśle mają przynosić jeszcze większe korzyści, z finalnym efektem w postaci większego zysku. W jaki sposób możemy zdefiniować zysk? I czy rzeczywiście jest on najważniejszym czynnikiem w dzisiejszym postrzeganiu biznesu? Jak aktywna redukcja hałasu może wpłynąć na wydajność i zysk?

Co to jest zysk?

Sięgając do literatury czytamy, że „zysk stanowi nadwyżkę przychodów nad kosztami” [1]. Innymi słowy zysk stanowi dodatni wynik finansowy. Potocznie rzecz biorąc jest to stan, w którym więcej sprzedajemy niż wydajemy. I oczywiście jest to zjawisko zdecydowanie pożądane, bowiem w zamyśle firma powinna przynosić zysk. Stanowi on podstawę do kolejnych inwestycji, aby w dalszym ciągu mieć możliwość zaspokajać potrzeby klientów. Mówiąc o zysku możemy wyróżnić kilka jego rodzajów [2]:

  1. Zysk brutto, czyli różnicę pomiędzy przychodami netto ze sprzedaży a kosztami sprzedanych produktów. Dzięki niemu możemy zobaczyć jak jednostka naszego wyrobu przekłada się na wynik finansowy. Ma to szczególne znaczenie dla przedsiębiorstw produkcyjnych, które często poszukują takich usprawnień, które w efekcie pozwolą im na zachowanie efektu skali.
  2. Zysk netto, czyli nadwyżkę, która zostaje po odjęciu wszystkich kosztów. W bilansowym ujęciu jest to różnica między kosztami całkowitymi a przychodem ze sprzedaży. W dzisiejszym świecie bardzo często pojmowany jako czynnik, który świadczy o dobrej kondycji finansowej przedsiębiorstwa.
  3. Zysk operacyjny, czyli specyficzny rodzaj zysku, który skupia się tylko i wyłącznie na wyniku w obszarze podstawowej działalności firmy. Bardzo często odzwierciedlony w rachunku zysków i strat w postaci EBIT-u.

Zysk a wydajność

Wydajność w takim rozumieniu wiąże się z zagwarantowaniem w długim okresie czasu, że praca nie zaszkodzi życiu lub zdrowiu pracowników. Ogólna klasyfikacja Centralnego Instytutu Ochrony Pracy wymienia czynniki takie jak [3]:

  • hałas i drgania mechaniczne,
  • czynniki mechaniczne,
  • czynniki chemiczne i pyły,
  • obciążenia mięśniowo – szkieletowe,
  • stres,
  • oświetlenie,
  • promieniowanie optyczne,
  • prąd elektryczny.

Klasyfikacja wymienia również obciążenia termiczne, pole elektromagnetyczne, czynniki biologiczne oraz zagrożenia wybuchem i pożarem. Najczęstszym jednak problemem jest kwestia hałasu przemysłowego i drgań, których często nawet ludzkie ucho nie jest w stanie wychwycić. Bardzo często w wyniku przebywania w środowisku wiecznie hałaśliwym koncentracja i poziom senności wzrastały. Stąd możemy wywnioskować, że nawet coś tak niepozornego jak hałas i drgania generują dla przedsiębiorcy spore koszty, zwłaszcza jeśli chodzi o koszty jednostkowe (przy masowej produkcji), dlatego istotnym jest podjęcie działań w kierunku redukcji hałasu. Jeśli chcesz dowiedzieć się więcej na temat tego jak walczyć z hałasem zapisz się na szkolenie tutaj.

Jak zapobiec generowaniu kosztów?

Dzisiejsze firmy z branży R&D, inżynierowie i specjaliści wnikliwie badają i usprawniają systemy produkcyjne, oferując im rozwiązania, które eliminują nawet te najtrudniejsze do rozwiązania problemy, dotyczące efektywności pracy człowieka. Świadomość lepszej opieki nad pracownikiem pogłębia się z roku na rok. Stąd też przysłowiowy „boom” na rozwiązania z zakresu sztucznej inteligencji oraz systemów, które będą ułatwiały pracę człowiekowi. Rozwiązania tego typu to jednak spora inwestycja, stąd starania inżynierów finansowych do optymalizacji kosztów takich rozwiązań.

Krok 1 – Zapoznanie się z charakterystyką wydajności systemu produkcyjnego fabryki w ujęciu produkcyjnym oraz ekonomicznym.

Każdy z procesów produkcyjnych ma swoją wydajność i charakterystykę, która w określonym stopniu przekłada się na wyniki produkcji. Aby te procesy były mierzalne, należy wcześniej je za pomocą mierników. Na bazie wiedzy o procesie oraz danych, które określone są przy użyciu wspomnianych mierników warto określić poziom wydajności procesu w dwóch ujęciach, produkcyjnym oraz ekonomicznym. Pierwsze z nich określi poziom wydajności pracy zespołu człowiek – maszyna, drugie natomiast spojrzy na problem wydajności w perspektywie zysków lub strat. Bardzo często na tym etapie wyłapywane są tzw. wąskie gardła produkcji, które stanowią o wydajności danego procesu. Warto w tym momencie sporządzić raporty, dotyczące stanu wydajności produkcji.

Krok 2 – Określenie założeń techniczno – ekonomicznych

Podstawą do określenia założeń będzie raport z charakterystyki wydajności procesu. Dzięki niemu będziemy w stanie określić najmniej i najbardziej wydajny proces. Określenie założeń ma na celu sporządzenie aktualnych celów dla zarządzających konkretnymi procesami. W obszarze technicznym założenia dotyczą najczęściej optymalizacji produkcji w wąskich gardłach, natomiast w obszarze ekonomicznym swoją uwagę warto skupić na optymalizacji kosztowej, wynikającej z prowadzonych rachunków kosztów w ramach rachunkowości zarządczej. Założenia techniczno-ekonomiczne są podstawą do wdrożenia innowacyjnych rozwiązań, dają bowiem zielone światło dla zmian, które należy przeprowadzić, aby proces był rentowny.

Krok 3 – Prognozy wartości dochodów i nakładów inwestycyjnych a aktywna redukcja hałasu

Następnie przystępujemy do badania prognostycznego. Ma ono na celu zbadać jaki rozkład w czasie będą miały dochody oraz nakłady inwestycyjne, poniesione zarówno na wdrożenie i późniejsze działanie systemu w warunkach przemysłowych.

Nakład z aktywnej redukcji hałasu jest wyższy na przestrzeni lat od zwykłego nakładu
Rys. 1 Prognozowane nakłady na lata 2017-2027
Dochód z aktywnej redukcji hałasu utrzymuje się na podobnym poziomie, a dochód bez anc jest niestabilny
Rys. 2 Prognozowany dochód na lata 2017-2027

Wdrożenie systemu aktywnej redukcji hałasu jest w stanie, z punktu widzenia ekonomicznego, uspokoić wahania dochodów w czasie.  Trend na podstawie analizy poprzednich okresów wyraźnie pokazuje cykliczność i tendencję liniową do zarówno wzrostów jak i spadków. Stabilizacja koreluje z wdrożeniem opisywanego systemu. Może się to wiązać ze stałym dodatkowym wzrostem mocy produkcyjnych związanych z implementacją systemu do procesu produkcyjnego. Stąd też wniosek, że poprawa wydajności produkcyjnej przynosi w rezultacie stabilizację dochodów w czasie. Z drugiej strony poziom nakładów jest wyższy w przypadku wdrożenia systemu. Mimo tego faktu poziom ten ma tendencje spadkowe z roku na rok.

Na podstawie tych danych jesteśmy w stanie obliczyć podstawowe mierniki opłacalności inwestycji. W tym momencie również przeprowadzamy obliczenia wprowadzające, mające na celu sprowadzenie dochodów oraz nakładów do jednego momentu w czasie. Zabieg ten pozwoli na obliczenia stopy dyskonta oraz pozwoli zaprognozować przyszłe okresy inwestycji [1].

Krok 4 – Ocena efektywności inwestycji metodami statycznymi

Mierniki opłacalności inwestycji liczymy, chcąc sprawdzić, czy to, w co chcemy włożyć nasz kapitał, przyniesie nam odpowiednie i satysfakcjonujące zyski. Inwestowanie w takie rozwiązania jest konieczne, przy znaczącej konkurencji. Oczywiście podejmowane decyzje mogą przechylić szalę w dwojaki sposób. Zwiększenie zysków, obniżenie kosztów czy też mocniejsza pozycja na rynku to jedne, z wielu pozytywnych aspektów inwestowania. Istnieje też druga strona medalu. Złe decyzje, opierane najczęściej na nieprzygotowanych analizach, lub nawet braku takich analiz, wiążą się niejednokrotnie z utraconymi zyskami, często ponosimy koszty alternatywne. Jeszcze częściej nieprzemyślane ruchy inwestycyjne powodują obniżanie się wartości firmy. W ujęciu statycznym mówimy o następujących wskaźnikach:

  • Roczna stopa zwrotu,
  • Księgowa stopa zwrotu,
  • Prosty okres zwrotu.

W omawianym przypadku, czyli wdrożeniu systemu aktywnej redukcji hałasu, mówimy o rocznej oraz księgowej stopie zwrotu na poziomie ok. 200% wartości. Okres zwrotu oscyluje na poziomie niecałego roku. Jest to związane z dużą dysproporcją pomiędzy nakładami poniesionymi na wdrożenie systemu, a korzyściami jego implementacji. Jednak aby mieć stuprocentową pewność wdrożenia, należy policzyć jeszcze przede wszystkim zaktualizowaną wartość netto (NPV) oraz wewnętrzną stopę zwrotu (IRR). Określą one wydajność inwestycji na przestrzeni kolejnych badanych okresów.

Krok 5 – Ocena efektywności metodami dynamicznymi

W tej części należy zastanowić się jak efektywna jest inwestycja i jaki przez to ma wpływ na jej wartość przyszłą. Dlatego obliczone zostaną wskaźniki takie jak:

  • Zaktualizowana wartość netto (NPV),
  • Zdyskontowana stopa zysku (NPVR),
  • Wewnętrzna stopa zwrotu (IRR),

Realizując politykę wprowadzania innowacyjności w spółkach przemysłowych firmy stoją przed wyzwaniem maksymalizacji wskaźników efektywności. Widząc zatem korelację pomiędzy możliwościami zastosowania metod aktywnej redukcji hałasu, które poprawiają jakość warunków pracy – wpływając na realizację zadań przez pracowników, można stwierdzić, że poprawa wydajności pracy odbija się na wynikach finansowych co ma bezpośredni wpływ na ocenę efektywności realizacji takiego projektu. Mimo wysokich nakładów początkowych korzyści mają charakter długoterminowy, wpływając na poprawę stabilizacji produkcji.

Czy warto prowadzić wstępne kalkulacje zyskowności inwestycji?

Odpowiedź jest krótka, warto. Pomagają one w procesach decyzyjnych. Stanowią dla decydentów pierwsze przetarcie, wstępną selekcję inwestycji opłacalnych oraz nieopłacalnych. W tym momencie zarząd jest w stanie ustalić prognozowaną zyskowność, którą są w stanie kreować już na pułapie operacyjnym działalności. Reagując na ubytki wydajności szefowie są w stanie wychwycić uciekające źródła dochodów oraz wcześniej zareagować na potencjalne nowinki technologiczne. Wstępna ocena opłacalności jest pomocnym narzędziem w podejmowaniu trafnych i obiektywnych decyzji.

Bibliografia

[1] D.Begg, G.Vernasca, S.Fischer „Mikroekonomia” PWE Warszawa 2011
[2] mfiles.pl/pl/index.php/Zysk

[3] Felis P., 2005: Metody i procedury oceny efektywności inwestycji rzeczowych przedsiębiorstw. Wydawnictwo Wyższej Szkoły Ekonomiczno-Informatycznej. Warszawa.

Cyfrowe przetwarzanie obrazów

Przetwarzanie sygnałów towarzyszy każdemu człowiekowi codziennie. Wszystkie bodźce (sygnały) odbierane z otaczającego nas świata, tj. dźwięk, światło, temperatura są przetwarzane w impulsy elektryczne, przesyłane następnie do mózgu. Tam następuje analiza i interpretacja odebranych sygnałów, w wyniku której otrzymujemy informacje płynące z danego rodzaju sygnału (np. rozpoznajemy kształt przedmiotu, odczuwamy ciepło itp.).

W podobny sposób działa Cyfrowe Przetwarzanie Sygnałów (CPS). W tym przypadku sygnał analogowy konwertuje się na sygnał cyfrowy przez przetwornik analogowo-cyfrowy. Następnie przy użyciu komputera przetwarzane są dostarczone sygnały. W systemach CPS wykorzystuje się również komputerowe urządzenia peryferyjne, wyposażone w procesory sygnałowe, dzięki którym możliwe jest przetwarzanie sygnałów w czasie rzeczywistym. Niekiedy potrzebna jest ponowna konwersja sygnału do postaci analogowej (np. do sterowania jakiegoś urządzenia). W tym celu wykorzystuje się przetworniki cyfrowo-analogowe.

Cyfrowe przetwarzanie sygnałów ma bardzo szerokie zastosowanie. Może być wykorzystywane m.in. do przetwarzania dźwięku, rozpoznawania i przetwarzania mowy, czy do przetwarzania obrazów. To ostatnie zagadnienie będzie przedmiotem tego artykułu, a konkretnie omówimy w nim podstawową operację wykonywaną w procesie cyfrowego przetwarzania obrazów, tj. filtrację splotową.

Czym jest przetwarzanie obrazów?

Mówiąc w najprostszy sposób, przetwarzanie obrazów polega na przekształceniu obrazu wejściowego w obraz wyjściowy. Celem tego procesu jest selekcja informacji – wybranie najistotniejszych (np. kształtu) oraz wyeliminowanie zbędnych (np. szumów). Proces cyfrowego przetwarzania obrazów obejmuje szereg różnorodnych operacji, m.in.:

  • filtrację,
  • binaryzację,
  • segmentację,
  • transformację geometryczną,
  • kodowanie,
  • kompresję.

Jak już wspominaliśmy, w tym artykule omówimy szerzej operację filtracji obrazów.

Filtracja splotowa

Zarówno w domenie jednowymiarowej, przykładowo dla sygnałów audio, tak również dla dwóch wymiarów istnieją odpowiednie narzędzia służące przeprowadzeniu operacji na sygnałach, w tym przypadku na obrazach. Jednym z takich narzędzi jest filtracja. Polega ona na wykonaniu na pikselach obrazu wejściowego pewnych operacji matematycznych, w wyniku których otrzymywany jest nowy obraz. Najczęściej filtrację wykorzystuje się w celu poprawy jakości obrazu lub wydobycia z niego istotnych cech.

Podstawową operacją w metodzie filtracji jest operacja splotu 2D. Pozwala ona na aplikowanie przekształceń obrazu z użyciem odpowiednio przygotowanych do tego filtrów w postaci macierzy współczynników. Wykorzystanie filtrów polega na obliczeniu nowej wartości punktu na podstawie wartości punktów znajdujących się w jego otoczeniu. Do obliczeń wykorzystuje się tzw. maski, zawierające wagi pikseli z otoczenia danego piksela. Najczęściej spotykane rozmiary masek to 3×3, 5×5 i 7×7. Poniżej przybliżono proces przeprowadzenia konwolucji obrazu oraz filtra.

Przyjmując, że obraz reprezentowany jest przez macierz o wymiarach 5×5, zawierającą wartości kolorów, a filtr reprezentowany macierzą 3×3, przeprowadzono modyfikację obrazu poprzez splecenie jednej z nich z drugą.

Pierwsze, co należy wykonać to zamiana wierszy, a następnie kolumn w macierzy filtra (wiersz/kolumna pierwsza → wiersz/kolumna ostatnia – i na odwrót). Należy również przyjąć, że środek jądra filtracji h(0,0) znajduje się w środku macierzy, tak jak to pokazano na poniższym rysunku. W związku z taką konwencją indeksy (m,n) oznaczające wiersze i kolumny macierzy filtra będą ujemne i dodatnie.

Przetwarzanie obrazów - schemat filtracji obrazu
Rys. 1 Schemat filtracji obrazu

Uznając macierz filtra (kolor niebieski) za odwróconą w pionie i poziomie, możemy przeprowadzić operację filtracji. Dokonujemy tego umieszczając element h(0,0) → h(m,n) macierzy niebieskiej w elemencie s(-2,-2) → s(i,j) macierzy obrazu (kolor żółty). Następnie wymnażamy nachodzące na siebie wartości obu macierzy i sumujemy. W ten sposób otrzymaliśmy wynik splotu dla komórki o(-2,2) obrazu wyjściowego.

Kolejne etapy procesu są analogiczne, przesuwamy środek macierzy niebieskiej do elementu s(-2,-1), wymnażamy nachodzące na siebie wartości, sumujemy, otrzymując wynik wyjściowy. Pola, które wykraczają poza obszar macierzy s(i,j) uznajemy za niezdefiniowane, w związku z tym wartości w tych miejscach nie istnieją, a więc nie dokonujemy mnożenia.

Zastosowanie filtracji splotowej

W zależności od rodzaju filtra wyróżnia się różne zastosowania filtracji splotowej. Filtry dolnoprzepustowe wykorzystywane są do usuwania szumów w obrazach, natomiast filtry górnoprzepustowe stosowane są do wyostrzania lub podkreślenia krawędzi.

W celu zobrazowania działania poszczególnych rodzajów filtrów spróbujmy zastosować praktyczny przypadek konwolucji na rzeczywistym obrazie. Poniższy obraz w formacie „.jpg” został wczytany jako macierz MxNx3 pikseli. Na jego przykładzie pokażemy podstawowe efekty możliwe do uzyskania, dzięki zastosowaniu filtracji splotowej.

Oryginalny obraz wejściowy
Rys. 2. Oryginalny obraz wejściowy

Rozmycie Gaussowskie

Aby dokonać rozmycia obrazu należy zastosować funkcję splotu, jak również odpowiednio przygotowany kernel – filtr. Jednym z najczęściej wykorzystywanych do tego filtrów dolnoprzepustowych jest filtr Gaussowski. Pozwala on na zmniejszenie ostrości obrazu, jak również stosuje się go przy redukcji szumu obecnego w obrazie.

W prezentowanym przypadku wykorzystano macierz o wymiarach 29×29, wygenerowaną na podstawie funkcji Gaussowskiej o odchyleniu standardowym równym 5. Rozkład normalny nadaje wagi otaczającym pikselom w procesie konwolucji. Działanie filtra dolnoprzepustowego polega na tłumieniu elementów obrazu charakteryzujących się wysoką częstotliwością i przepuszczaniu tych elementów, których częstotliwość jest mała. W rezultacie następuje redukcja szumów oraz rozmycie obrazu, a otrzymany obraz jest mniej wyraźny niż pierwotny.

Rozmyty obraz wejściowy
Rys. 3 Rozmyty obraz wejściowy

Wyostrzanie

Analogicznie jak przy rozmyciu Gaussowskim można sprawić, że obraz zostanie wyostrzony. W tym celu należy zastosować odpowiedni filtr górnoprzepustowy. Jego działanie polega na przepuszczaniu oraz wzmacnianiu elementów obrazu, które odznaczają się dużą częstotliwością, np. szumów czy krawędzi. Natomiast elementy o małej częstotliwości filtr wytłumia. W wyniku zastosowania filtru następuje wyostrzenie pierwotnego obrazu, co można łatwo zauważyć na przykład w okolicach ramienia.

Wyostrzony obraz wejściowy
Rys. 4 Wyostrzony obraz wejściowy

Detekcja krawędzi

Kolejnym zabiegiem możliwym do przeprowadzenia przy użyciu filtracji splotowej jest detekcja krawędzi. Do przeprowadzenia operacji wykrywania krawędzi wykorzystuje się filtry przesuwania i odejmowania. Ich działanie polega na przesunięciu obrazu i odjęciu obrazu pierwotnego od jego kopii. W wyniku tej operacji następuje detekcja krawędzi.

Detekcja krawędzi
Rys. 5 Detekcja krawędzi

BFirst.Tech a przetwarzanie obrazów

Jako firma posiadamy wykwalifikowaną kadrę, a także doświadczenie w dziedzinie cyfrowego przetwarzania obrazów.

Projektem, do realizacji którego wykorzystano przetwarzanie obrazów, jest platforma Webowa Virdiamed. Została ona stworzona we współpracy z firmą Rehasport Clinic. Platforma polega na rekonstrukcji 3D danych pochodzących z tomografu komputerowego, a także z rezonansu magnetycznego. Umożliwia ona podgląd danych 3D w przeglądarce internetowej. Więcej informacji o naszych projektach znajdziesz tutaj.

Cyfrowe przetwarzanie sygnałów, w tym także przetwarzanie obrazów, jest dziedziną techniki o szerokich możliwościach stosowania, a jej popularność ciągle rośnie. Nieustający postęp technologiczny sprawia, że również ta dziedzina cały czas się rozwija. Wiele technologii stosowanych na co dzień działa w oparciu o przetwarzanie sygnałów, dlatego też pewnym jest, że w przyszłości znaczenie CPS będzie ciągle rosnąć.

Bibliografia

[1] Leonowicz Z.: „Praktyczna realizacja systemów DSP”

[2] http://www.algorytm.org/przetwarzanie-obrazow/filtrowanie-obrazow.html

Smart Manufacturing

Nowe technologie znajdują zastosowanie w wielu dziedzinach życia. Jedną z nich jest przemysł, w którym zaawansowane technologie wykorzystywane są już od lat i przynoszą fabrykom wiele korzyści. Znaczący wpływ na rozwój technologiczny i poprawę innowacyjności przedsiębiorstw produkcyjnych miało wdrożenie do nich inteligentnych rozwiązań, opartych na zaawansowanych technologiach z zakresu IT. Jednym z nich jest Smart Manufacturing, który pomaga w optymalizacji przemysłowej poprzez czerpanie wiedzy z danych, generowanych w procesach produkcyjnych.

Czym jest Smart Manufacturing?

Smart Manufacturing to koncepcja obejmująca pełną integrację systemów wraz ze współpracującymi z nimi jednostkami produkcyjnymi, które są w stanie reagować w czasie rzeczywistym i adaptować się do zmiennych warunków środowiskowych, co umożliwia to spełnienie założonych wymagań w całym łańcuchu dostaw. Wdrożenie systemu inteligentnej produkcji wspomaga proces optymalizacji procesów produkcyjnych, przyczyniając się tym samym do zwiększenia zysków przedsiębiorstw przemysłowych.

Koncepcja Smart Manufacturing wiąże się ściśle z takimi pojęciami jak sztuczna inteligencja (AI), Przemysłowy Internet Rzeczy (IIoT) czy chmura obliczeniowa (cloud computing). To co łączy te trzy pojęcia to dane – idea inteligentnej produkcji zakłada, że informacje w nich zawarte są dostępne zawsze, gdy są potrzebne i w postaci, w której są najbardziej przydatne. To właśnie analiza danych ma największy wpływ na optymalizację procesów produkcyjnych i czyni je bardziej wydajnymi.

IIoT a optymalizacja przemysłowa

Przemysłowy Internet Rzeczy jest niczym innym, jak wykorzystaniem potencjału IoT w branży przemysłowej. W inteligentnym modelu produkcji ludzie, maszyny i procesy są ze sobą połączone za pomocą systemów informatycznych. Każda maszyna wyposażona jest w czujniki, które zbierają istotne dane o jej działaniu. System przesyła dane do chmury obliczeniowej, gdzie poddaje je dogłębnej analizie. Dzięki uzyskanym z nich informacjom pracownicy mają wgląd w dokładny przebieg procesu, dzięki czemu są w stanie przewidzieć awarie i wcześniej im zapobiec, unikając ewentualnych przestojów. Dodatkowo firmy mogą badać tendencje w danych, czy przeprowadzać na ich podstawie różne symulacje. Integracja wszystkich elementów procesu produkcyjnego pozwala również na zdalne monitorowanie jego przebiegu w czasie rzeczywistym, a także reagowanie na ewentualnie nieprawidłowości. Wszystkie te działania nie byłyby możliwe, gdyby nie zastosowanie technologii IIoT.

Wzrost znaczenia sztucznej inteligencji

Kolejnym z nowoczesnych rozwiązań technologicznych, które jest wykorzystywane w systemie inteligentnej produkcji jest sztuczna inteligencja. Na przestrzeni ostatnich kilku lat można było obserwować znaczny wzrost implementacji rozwiązań sztucznej inteligencji w produkcji. Stało się to możliwe, właśnie dzięki wdrożeniu do niej urządzeń IIoT, które dostarczają ogromne ilości danych, wykorzystywanych przez AI. Algorytmy sztucznej inteligencji analizują uzyskane dane i wyszukują w nich nieprawidłowości. Ponadto umożliwiają one automatyczne podejmowanie decyzji w oparciu o zebrane dane. Co więcej sztuczna inteligencja jest w stanie przewidzieć problemy zanim one wystąpią, a także podjąć odpowiednie kroki w celu złagodzenia ich skutków.

Korzyści dla przedsiębiorstwa

Wdrożenie w fabrykach technologii Smart Manufacturing może przynieść szereg korzyści, przede wszystkim w sferze optymalizacji procesów produkcyjnych. Inteligentna produkcja umożliwia znaczną poprawę efektywności. Poprzez dostęp do danych o całym procesie można szybko reagować na ewentualne nieprawidłowości czy dostosowywać proces do aktualnych potrzeb (większa elastyczność). Dzięki temu firmy mogą uniknąć wielu niepożądanych zdarzeń, jak na przykład awarie. To natomiast korzystnie wpływa na optymalizację kosztów, a tym samym poprawia rentowność przedsiębiorstwa. Kolejną zaletą jest lepsze wykorzystanie maszyn i urządzeń. Poprzez ich bieżące monitorowanie firmy mogą kontrolować stopień ich zużycia, przewidywać awarie lub bardziej efektywnie planować przestoje. To z kolei wpływa na poprawę produktywności, a nawet jakości wytwarzanych produktów.

Wykorzystanie SM umożliwia również wizualizację danych w czasie rzeczywistym, co pozwala na zdalne zarządzanie procesem, a także monitorowanie jego przebiegu. Ponadto wirtualne odzwierciedlenie procesu dostarcza wielu informacji kontekstowych, które są niezbędne do jego doskonalenia. Na bazie zebranych danych firmy mogą również dokonywać różnego rodzaju symulacji. Czy też przewidywać trendy lub potencjalne problemy, co znacznie usprawnia prognozowanie. Warto również wspomnieć, że wdrażanie w przedsiębiorstwie nowoczesnych rozwiązań, takich jak Smart Manufacturing zwiększa ich innowacyjność. Tym samym firmy stają się bardziej konkurencyjne, a pracownicy postrzegają je jako bardziej atrakcyjne miejsce pracy.

Czy automatyzacja pozbawi ludzi pracy?

Wraz z rozwojem technologicznym i coraz większą automatyzacją procesów wzrosły także obawy dotyczące likwidacji miejsc pracy. Nic bardziej mylnego – w koncepcji inteligentnej produkcji człowiek nadal odgrywa kluczową rolę. Bez zmian pozostanie zatem odpowiedzialność pracowników w zakresie kontroli procesów czy podejmowania krytycznych decyzji. Współpraca człowieka z maszyną umożliwi tym samym zwiększenie efektywności operacyjnej inteligentnego przedsiębiorstwa.

Rozwój technologiczny nie ma zatem na celu eliminacji człowieka, a raczej stanowi dla niego wsparcie. Co więcej, połączenie doświadczenia i kreatywności człowieka z coraz większymi możliwościami maszyn umożliwia realizację innowacyjnych pomysłów, które mogą mieć realny wpływ na poprawę efektywności produkcji. Tym samym na rynku pracy zacznie wzrastać zapotrzebowanie na nowych specjalistów, co sprawi, że branża produkcyjna nie zaprzestanie zatrudniania ludzi.

Inteligenta produkcja jest nieodłączną częścią czwartej rewolucji przemysłowej, która dzieje się na naszych oczach. Połączenie maszyn i systemów informatycznych otworzyło nowe możliwości optymalizacji przemysłowej. Dzięki temu firmy mogę realnie zwiększyć wydajność swoich procesów, przyczyniając się tym samym do poprawy ich rentowności. BFirst.tech oferuje usługę Optymalizacja Przemysłowa, która pozwala na analizowanie i przekazywanie w czasie rzeczywistym do wszystkich zainteresowanych danych, w których zawarte informacje wspomagają podejmowanie krytycznych decyzji i skutkują w ciągłym ulepszaniu procesów.

Bibliografia

[1] https://blog.marketresearch.com/the-top-7-things-to-know-about-smart-manufacturing

[2] https://przemyslprzyszlosci.gov.pl/7-krokow-do-zaawansowanej-produkcji-w-fabryce-przyszlosci/?gclid=EAIaIQobChMIl7rb1dnD7QIVFbd3Ch21kwojEAAYASAAEgKVcfD_BwE

[3] https://www.comarch.pl/erp/nowoczesne-zarzadzanie/numery-archiwalne/inteligentna-produkcja-jutra-zaczyna-sie-juz-dzis/

[4] https://elektrotechnikautomatyk.pl/artykuly/smart-factory-czyli-fabryka-przyszlosci

[5] https://www.thalesgroup.com/en/markets/digital-identity-and-security/iot/inspired/smart-manufacturing

[6] https://www.techtarget.com/iotagenda/definition/smart-manufacturing-SM

Górnictwo kosmiczne

Górnictwo towarzyszy ludzkości od zarania dziejów. W ciągu najbliższych lat będziemy mieć szansę zobaczyć kolejny milowy krok jego rozwoju: górnictwo kosmiczne.

Wizje a rzeczywistość

Górnictwo kosmiczne rozpala wyobraźnię pisarzy i scenarzystów. Roztaczane są wizje walki o zasoby między państwami, korporacjami i kulturami zamieszkującymi inne rejony wszechświata. Mowa jest także o zagrożeniach dla ludzkości wynikających ze spotkania z innymi organizmami żywymi. Pojawia się również wątek niezwykle cennych, nierzadko nieznanych na Ziemi, minerałów i innych substancji możliwych do pozyskania w kosmosie.

Jednak w chwili obecnej daleko do urzeczywistnienia tych wizji. Jesteśmy na etapie katalogowania zasobów kosmicznych, np. sporządzane są mapy geologiczne Księżyca[1] oraz obserwowane są asteroidy[2]. Z ciekawostek wiadomo, że na Księżycu znajdują się złoża helu-3, który w przyszłości może posłużyć jako paliwo przy reakcjach fuzji jądrowej. Na asteroidach spodziewamy się znaleźć złoża wielu cennych minerałów, np. niklu, żelaza, kobaltu, wody, azotu, wodoru i amoniaku na asteroidzie Ryugu. Nasza wiedza o zasobach mineralnych opiera się głównie na obserwacjach astronomicznych. Znacznie rzadziej polega na bezpośredniej analizie próbek skał z powierzchni, a incydentalnie na analizie skał podpowierzchniowych. Jedynie w pełni możemy analizować obiekty, które upadły na powierzchnię Ziemi. Spodziewać się zatem należy, że przed nami jeszcze wiele niespodzianek.

Pierwsze kroki w górnictwie kosmicznym

Jak jednak będą wyglądać początki? Górnictwo jako działalność związana ściśle z ekonomią zacznie się rozwijać by zaspakajać potrzeby rynku. Wbrew temu, do czego jesteśmy przyzwyczajeni na Ziemi, w kosmosie problemem może być dostęp nawet do takich podstawowych substancji jak woda.

Woda

Woda może być ona wykorzystywana bezpośrednio przez ludzi jak i, po hydrolizie, jako paliwo. Zatem realizacja planów NASA wyprawy załogowej na Marsa poprzedzonej obecnością ludzi na Księżycu[3] wygeneruje zapotrzebowanie na wodę na Księżycu jak i w jego pobliżu. Innym znaczącym rynkiem zbytu kosmicznej wody mogą być satelity (potrzebują energii choćby do okresowej korekty trajektorii). Tym bardziej, że według szacunków bardziej będzie się opłacało sprowadzać wodę z Księżyca nawet na niską orbitę okołoziemską (Low Earth Orbit LEO) niż z Ziemi.

Z tych powodów przemysłowe pozyskiwanie wody na Księżycu ma szansę być pierwszym przejawem górnictwa kosmicznego. Jak to może wyglądać w praktyce? Ze względu na intensywne promieniowanie ultrafioletowe jakikolwiek lód na powierzchni Księżyca musiałby zostać rozłożony na tlen i wodór. Natomiast brak atmosfery spowodowałby ulecenie tych pierwiastków w przestrzeń kosmiczną. Dlatego lód spodziewany jest w miejscach wiecznie zacienionych, np. na dnie kraterów uderzeniowych na biegunach. Jedną z metod jego pozyskania może być odparowywanie w szczelnym i przezroczystym namiocie. Energia mogłaby pochodzić ze Słońca: wystarczy odbić promienie słoneczne od luster znajdujących się na szczytach krawędzi kraterów. Na biegunie północnym można znaleźć miejsca, gdzie praktycznie cały czas świeci Słońce.

Regolit

Jedną z pierwszych skał pozyskiwaną na Księżycu ma szansę zostać regolit (pył pokrywający powierzchnię Księżyca). Niewykluczone, że zawiera śladowe ilości wody. Ale przede wszystkim daje nadzieję na przerobienie go na toner do drukarek 3D. To zaś pozwoliłoby na szybkie i tanie konstruowanie budynków planowanej bazy księżycowej[4]. Budynki takiej bazy będą musiały chronić przed szkodliwym promieniowaniem kosmicznym. I choć regolit, w porównaniu do innych materiałów, nie jest bardzo wydajny w ekranowaniu promieniowania (potrzeba jego grubej warstwy), to ma tę przewagę, że nie trzeba go dostarczać z Ziemi. Generalnie, możliwość jak najszerszego wykorzystywania miejscowych surowców jest ważnym czynnikiem decydującym o powodzeniu projektów powstania trwałych habitatów pozaziemskich, dlatego optymalizacja tych procesów jest kluczowa (jeśli chcesz dowiedzieć się więcej o możliwościach optymalizacji w przemyśle, kliknij tutaj).

Asteroidy

Innym kierunkiem rozwoju górnictwa kosmicznego mogą być asteroidy[5]. Naukowcy biorą pod uwagę łowienie mniejszych asteroid i sprowadzanie ich na Ziemię. Można też sprowadzić mniejszą lub większą asteroidę na orbitę okołoziemską lub okołoksiężycową i tutaj dopiero ją eksploatować. Można też eksploatować asteroidy bez ich przemieszczania i dopiero urobek, być może po wstępnym przetworzeniu, dostarczać na Ziemię.

Bariery prawne

Zwykle nie pamięta się, że oprócz oczywistych ograniczeń technologicznych i finansowych istotną barierą mogą okazać się kwestie prawne związane z komercyjną eksploatacją kosmosu[6]. W chwili obecnej najważniejsze cztery międzynarodowe regulacje prawne dotyczące przestrzeni kosmicznej to[7]:

  • Traktat o przestrzeni kosmicznej z 1967 r.,
  • Umowa o ratowaniu astronautów z 1968 r.
  • Konwencja o odpowiedzialności międzynarodowej za szkody wyrządzone przez obiekty kosmiczne z 1972 r. oraz
  • Konwencja o rejestracji obiektów wypuszczonych w przestrzeń kosmiczną z 1975 r.

Formułują one zasadę wolności i niewyłączności przestrzeni kosmicznej, traktowania kosmonautów jako wysłanników ludzkości oraz przypisania każdemu obiektowi wysłanemu w kosmos przynależności państwowej. Ponadto regulują kwestie odpowiedzialności za szkody wyrządzone przez obiekty wysłane w kosmos. Nie regulują jednak kwestii ekonomicznych związanych z eksploatacją kosmosu. Tę lukę częściowo stara się wypełnić Układ księżycowy z 1979 roku. Mimo że niewiele państw (18) go ratyfikuje, to aspiruje on do tworzenia ważnych norm zwyczajowych w zakresie objęcia prawem przestrzeni kosmicznej. Stanowi m. in. że zasoby naturalne Księżyca stanowią wspólne dziedzictwo ludzkości oraz, że powierzchnia ani zasoby Księżyca nie mogą stać się niczyją własnością[8]. Do tych postanowień Układu księżycowego bogate państwa odnoszą się niechętnie. W szczególności USA oficjalnie zapowiedziały, że nie zamierzają się do układu stosować. Czyżby górnictwo kosmiczne miało być elementem kosmicznej odmiany kolonializmu?

Bibliografia

[1] https://store.usgs.gov/filter-products?sort=relevance&scale=1%3A5%2C000%2C000&lq=moon

[2] http://www.asterank.com

[3] https://www.nasa.gov/topics/moon-to-mars

[4] https://all3dp.com/mit-autonomous-construction-rig-could-make-3d-printed-homes/

[5] http://space.alglobus.net/presentations/

[6] http://naukawpolsce.pap.pl/aktualnosci/news%2C81117%2Cdr-pawel-chyc-prawo-w-kosmosie-szczegolne-wyzwanie.html

[7] http://www.unoosa.org/oosa/en/ourwork/spacelaw/index.html

[8] https://kosmonauta.net/2011/09/uklad-ksiezycowy/

Generative Adversarial Networks GAN

GANy, czyli Generative Adversarial Networks pierwszy raz zostały zaproponowane przez studentów University of Montreal Iana Goodfelllow oraz innych (m. in. Yoshua Bengio) w 2014 roku. W 2016 roku dyrektor ds. badań nad AI w Facebook oraz profesor na New York University Yann LeCun nazwał je najbardziej interesującym pomysłem ostatnich 10 lat uczenia maszynowego.

Aby zrozumieć czym są GANy, należy je porównać z algorytmami dyskryminującymi, którymi mogą być chociażby zwykłe głębokie sieci neuronowe DNN. Wprowadzenie do sieci neuronowych przeczytasz w tym artykule, a więcej informacji o konwolucyjnych sieci neuronowych znajdziesz tutaj).

Dla przykładu skorzystajmy z problemu przewidzenia tego czy dany e-mail to spam czy nie. Słowa składające się na treść e-maila są zmiennymi, które wskazują na jedną z etykiet: spam, nie spam. Algorytm dyskryminujący na podstawie wektora danych wejściowych (słowa występujące w danej wiadomości są przekształcane na reprezentacje matematyczną) uczy się przewidywać jak bardzo dany e-mail jest spamem, tzn. wyjściem dyskryminatora jest prawdopodobieństwo jak bardzo dane wejściowe są spamem, zatem uczy się relacji pomiędzy wejściem a wyjściem.

GANy działają dokładnie na odwrót. Zamiast przewidywać co reprezentują dane wejściowe próbują przewidywać dane mając etykietę. Dokładniej próbują one odpowiedzieć na pytanie: Zakładając, że ten e-mail to spam, jak prawdopodobne są te dane?

Wyrażając się bardziej precyzyjnie, zadaniem Generative Adversarial Networks jest rozwiązanie problemu modelowania generatywnego (z ang. generative modeling), który można zrobić na 2 sposoby (zawsze potrzebujemy danych o dużej rozdzielczości, np. obrazy lub dźwięk). Pierwszą możliwością jest estymacja gęstości – mając dużą ilość przykładów chcemy znaleźć funkcję prawdopodobieństwa gęstości, która je opisuje. Drugie podejście to stworzenie algorytmu, który nauczy się generować dane z tego samego zbioru danych treningowych (nie chodzi bynajmniej o tworzenie tych samych informacji a nowych, które mogłyby być nimi).

Jakie jest podejście GANów do modelowania generatywnego?

To podejście można porównać do gry, w którą gra dwóch agentów. Jeden z nich to generator, który próbuje tworzyć dane. Natomiast drugi to dyskryminator, który przewiduje czy te dane są prawdziwe czy nie. Celem generatora jest oszukanie drugiego gracza. Zatem z czasem, gdy obie stają się coraz lepsze w swoim zadaniu jest on zmuszony generować dane, które są jak najbardziej podobne do danych treningowych.

Jak wygląda proces uczenia?

Pierwszy agent – czyli dyskryminator (jest on jakąś różniczkowalną funkcją D, zazwyczaj siecią neuronową) dostaje na wejście jedną z danych treningowych (np. zdjęcie twarzy). Dalej nazywamy to zdjęcie (jest to po prostu nazwa wejścia do modelu) i jego celem jest, aby D(x) było jak najbliższe 1 – co znaczy, że x jest prawdziwym przykładem.

Drugi agent – czyli generator (który też musi być różniczkowalną funkcją G, również jest zazwyczaj siecią neuronową) otrzymuje na wejście biały szum (losowe wartości, które pozwalają mu na generowanie różnych, prawdopodobnych zdjęć). Następnie stosując funkcję do szumu z otrzymujemy x (innymi słowy G(z) = x). Liczymy na to, że próbka x będzie dość podobna do oryginalnych danych treningowych, jednak ma pewnego rodzaju problemy jak np. zauważalne zaszumienie, co może pozwolić na rozpoznanie tej próbki jako fałszywy przykład przez dyskryminator. Kolejnym krokiem jest zastosowanie funkcji dyskryminującej D do fałszywej próbki x z generatora. Teraz celem D jest sprawienie, żeby D(G(z)) było jak najbliżej zera, natomiast celem G jest aby D(G(z)) było blisko jedynki.

Można to porównać do przykładu fałszerzy pieniędzy oraz policji. Policjanci chcą, aby społeczeństwo mogło posługiwać się prawdziwymi banknotami bez możliwości bycia oszukanymi oraz wykryć te fałszywe, a następnie usunąć je z obiegu i ukarać przestępców. W tym samym czasie fałszerze chcą oszukać policję i używać stworzone przez siebie pieniądze. Co za tym idzie – obydwa środowiska, policjantów oraz złodziei, uczą się wykonywać swoje zadanie coraz lepiej.

Zakładając, że przykładowe możliwości policjantów i fałszerzy, czyli dyskryminatora i generatora są nieograniczone to punkt równowagi tej gry jest następujący: generator nauczył się tworzyć idealne dane, których nie da się rozróżnić, co za tym idzie wynik dyskryminatora to zawsze 0.5 – to znaczy nie potrafi on powiedzieć czy dana próbka jest prawdziwa czy nie.

Jakie są zastosowania GANów?

Sieci te przede wszystkim są szeroko wykorzystywane do operacji nad obrazami. Nie jest to ich jedyne zastosowanie, ponieważ równie dobrze można ich używać do jakiegokolwiek rodzaju danych.

Style Transfer w wykonaniu CycleGAN
Rys. 1 Style Transfer w wykonaniu CycleGAN

Na przykład sieć DiscoGAN potrafi przetransferować styl lub wzór z jednej dziedziny (np. torebki) do innej (np. buta). Również umie ze szkicu przedmiotu wygenerować prawdopodobny obraz (jest wiele sieci, które to też potrafią, jedną z nich jest Pix2Pix). Jest to jedno z częstszych zastosowań GANów, tzw. Style Transfer. Innymi przykładami tego zastosowania jest np. sieć CycleGAN, która zwykłe zdjęcie potrafi przemienić w obraz Van Gogha, Moneta, itd. Pozwalają one także na generowanie zdjęć z opisu (sieć StackGAN) oraz potrafią zwiększać rozdzielczość obrazów (sieć SRGAN).

Przydatne materiały

[1] Goodfellow I., Improved Techniques for Training GANs, https://arxiv.org/abs/1606.03498
2016, https://arxiv.org/pdf/1609.04468.pdf

[2] Chintala S., How to train a GAN, https://github.com/soumith/ganhacks

[3] White T., Sampling Generative Networks, School of Design, Victoria University of Wellington, Wellington

[4] LeCun Y., Mathieu M., Zhao J., Energy-based Generative Adversarial Networks, Department of Computer Science, New York University, Facebook Artificial Intelligence Research, 2016, https://arxiv.org/pdf/1609.03126v2.pdf

Bibliografia

[1] Goodfellow I., Tutorial: Generative Adversarial Networks [online], „NIPS”, 2016, https://arxiv.org/pdf/1701.00160.pdf
[2] Skymind, A Beginner’s Guide to Generative Adversarial Networks (GANs) [online], San Francisco, Skymind, dostęp: 31.05.2019
[3] Goodfellow, Ian, Pouget-Abadie, Jean, Mirza, Mehdi, Xu, Bing, Warde-Farley, David, Ozair, Sherjil, Courville,Aaron, and Bengio, Yoshua. Generative adversarial nets. InAdvances in Neural Information Processing Systems, pp. 2672–2680, 2014
[4] LeCun, Y., What are some recent and potentially upcoming breakthroughs in deep learning?, „Quora”, 2016, dostęp: 31.05.2019, https://www.quora.com/What-are-some-recent-and-potentially-upcoming-breakthroughs-in-deep-learning
[5] Kim T., DiscoGAN in PyTorch, dostęp: 31.05.2019, https://github.com/carpedm20/DiscoGAN-pytorch