Sztuczna Inteligencja – narzędzie do bicia ludzkich rekordów

Go, wywodząca się z Chin gra z historią liczącą ponad 2500 lat oraz szachy, które wywodzą się z Indii od ok. 1500 lat, to najpopularniejsze strategiczne gry planszowe na świecie o znaczeniu nie tylko rozrywkowym, ale również kulturowym. Zasady są jasne i precyzyjne, przez co próg wejścia dla nowych graczy dla obu wspomnianych gier jest bardzo niski. Właśnie ta prostota jest źródłem wymyślania niebanalnych rozwiązań, taktyk, a przede wszystkim ogromnego ludzkiego wysiłku intelektualnego – wszystko po to, aby pokonać przeciwnika. 

Sztuczna Inteligencja to nie tylko temat poważnych zastosowań takich jak Inteligent Acoustics w przemyśle, Aritificial Intelligence Adaptation w badaniach rozwojowych czy Data Engineering. Te i inne algorytmy są wykorzystywane również w różnych dziedzinach rozrywki. Używa się ich do tworzenia modeli, sztucznych zawodników, którzy mają na celu pokonać ludzkich graczy w grach planszowych, a nawet w e-sporcie. 

Na przełomie XX i XXI wieku szachy i Go doczekały się swoich cyfrowych wersji. Pojawiły się także gry komputerowe, w których gracze walczą o pierwsze miejsce w tabeli i tytuły e-sportowych mistrzów. Równolegle z nimi powstało wiele modeli sztucznej inteligencji z odpowiednio zaimplementowanymi zasadami. Stało się to, aby wyszukiwać jeszcze lepsze zagrania oraz pokonywać ludzkich graczy. W niniejszym wpisie opisuję jak gry planszowe, komputerowe i sztuczna inteligencja wzajemnie się dopełniają i inspirują. Pokażę również, jak odpowiednio wytrenowany model sztucznej inteligencji pokonał nie tylko pojedynczych współczesnych arcymistrzów, ale też całe zespoły.

Sztuczna Inteligencja podbija gry planszowe

Historia, w której sztuczna inteligencja pokonała arcymistrza szachowego, ma swoje korzenie w projekcie Deep Blue prowadzonym przez firmę IBM. Głównym celem projektu było stworzenie komputerowego systemu szachowego. Deep Blue był wynikiem wieloletnich prac naukowców i inżynierów. Pierwsza wersja Deep Blue została opracowana w latach 80. XX wieku. Wykorzystywał on zaawansowane algorytmy t.j.: 

  • Przeszukiwanie drzewa gry (Tree Search) na podstawie bazy danych z ruchami i pozycjami szachowymi, 
  • Ocena pozycji (Position Evaluation), 
  • Przeszukiwanie głębokie (Depth Search). 

W 1996 roku doszło do pierwszego meczu między Deep Blue a Garri Kasparowem. Mecz ten miał charakter eksperymentalny i był pierwszym, tego typu, oficjalnym spotkaniem. Kasparow wtedy wygrał trzy partie, remisując i przegrywając jedną. W maju 1997 roku w Nowym Jorku doszło do ponownego starcia. Tym razem Garii Kasparow poległ w pojedynku ze sztuczną inteligencją. Deep Blue zwyciężyło dwukrotnie, trzykrotnie uznano remis, a przegrało tylko raz.

Rys. 1 Garii Kasparow rozgrywa partię z Deep Blue w maju 1997 roku. 

Źródło: https://www.scientificamerican.com/article/20-years-after-deep-blue-how-ai-has-advanced-since-conquering-chess/ 

Mniej znaczy więcej

Równie ciekawym przypadkiem jest program stworzony przez firmę DeepMind o nazwie AlphaGo. Ta sztuczna inteligencja została zaprojektowana do gry w Go, o czym świat się przekonał, kiedy pokonała arcymistrza Go, Lee Sedola. Go jest dla znacznie trudniejsze od innych gier, w tym również szachów. Wynika to z dużo większej liczby możliwych ruchów, co utrudnia stosowanie tradycyjnych metod AI, takich jak wyszukiwanie wyczerpujące [1, 2]. DeepMind rozpoczęło prace nad programem AlphaGo w 2014 roku. Celem było stworzenie algorytmu, który mógłby konkurować z mistrzami. Wykorzystywał on zaawansowane techniki uczenia maszynowego:

  • Głębokie uczenie (ang. Deep Learning), 
  • Uczenie ze wzmocnieniem (ang. Reinforcement Learning, RL), 
  • Monte Carlo Tree Search

Pierwszym znaczącym osiągnięciem AlphaGo było pokonanie europejskiego zawodnika Fana Huiego w październiku 2015 roku. Silnik od DeepMind całkowicie zdominował każdą z partii wygrywając tym samym pięć do zera [3]. Kolejnym krokiem było pokonanie arcymistrza Lee Sedola. W trakcie meczów sztuczna inteligencja zaskoczyła nie tylko swojego przeciwnika, ale również ekspertów swoimi nietypowymi i kreatywnymi ruchami. Program wykazywał się zdolnością do przewidywania strategii i dostosowywania się do zmieniających się warunków na planszy. W rezultacie po rozgrywkach toczących się w dniach 9-15 marca 2016 roku, AlphaGo odniosło historyczne zwycięstwo nad Lee Sedolem, wygrywając serię pięciu meczów 4-1.

Rywalizacja na cyfrowych planszach

W 2018 roku OpenAI stworzyło zespół sztucznych graczy, tzw. botów, nazwany OpenAI Five. Drużyna botów zmierzyła się z profesjonalnymi graczami w grze Dota 2, jednej z najbardziej skomplikowanych gier typu MOBA (Multiplayer Online Battle Arena). Dwie pięcioosobowe drużyny walczą tam przeciwko sobie, aby zniszczyć bazę przeciwnika. Do “wytrenowania” OpenAI Five wykorzystano kilka zaawansowanych technik i koncepcji uczenia maszynowego: 

  • Uczenie ze wzmocnieniem – boty uczyły się podejmować decyzje poprzez interakcję ze środowiskiem i otrzymywanie nagród za określone akcje, 
  • Proximal Policy Optimization (PPO) – jest to konkretna technika RL, która, jak podają twórcy, była kluczowa do osiągnięcia sukcesu [5]. Metoda ta optymalizuje tzw. politykę (czyli strategię podejmowania decyzji) w sposób, który jest bardziej stabilny i mniej podatny na oscylacje w porównaniu do wcześniejszych metod, takich jak Trust Region Policy Optimization (TRPO) [6],
  • Samoistne uczenie się – sztuczni zawodnicy rozgrywali miliony gier przeciwko sobie. Dzięki temu mogli oni rozwijać coraz bardziej zaawansowane strategie, ucząc się na podstawie swoich błędów i sukcesów. 

W sierpniu 2018 roku sztuczna inteligencja pokonała półprofesjonalny zespół Pain Gaming na corocznych mistrzostwach świata Dota. W 2019 roku, podczas wydarzenia OpenAI Five Finals, boty pokonały zespół składający się z najlepszych graczy, w tym członków zespołu OG, zwycięzców The International w 2018. Z kolei DeepMind nie poprzestało na AlphaGo i skierowało swoje zainteresowanie w stronę gry StarCraft II. To jedna z najpopularniejszych gier strategicznych czasu rzeczywistego (RTS) tworząc program AlphaStar. Sztuczna inteligencja stanęła do pojedynków jeden na jeden z profesjonalnymi graczami StarCraft II w 2019 roku. W styczniu pokonała czołowych graczy tej strategii – dwukrotnie Grzegorza „MaNa” Komincza, a także zwyciężyła nad Dario „TLO” Wünschem. AlphaStar w ten sposób udowodnił swoje zdolności. 

Sztuczna Inteligencja w e-sporcie

Sztuczna inteligencja odgrywa coraz większą rolę w szkoleniu profesjonalnych zespołów e-sportowych, szczególnie w takich krajach jak Korea Południowa, gdzie Liga Legend (ang. League of Legends) jest jedną z najpopularniejszych gier. Oto kilka kluczowych obszarów, w których AI jest wykorzystywana do szkoleń w profesjonalnych organizacjach takich jak T1, czy Gen.G

Zespoły analityków wykorzystują ogromne ilości zgromadzonych danych z rozgrywek ligowych i towarzyskich. Analizują statystyki meczów, takie jak liczba asyst, zdobyte złoto, najczęściej obierane ścieżki i inne kluczowe wskaźniki. Dzięki temu trenerzy mogą zidentyfikować wzorce i słabości zarówno u swoich zawodników, jak i przeciwników. 

Zaawansowane narzędzia treningowe wykorzystujące sztuczną inteligencję, takie jak „AIM Lab” czy „KovaaK’s”, pomagają graczom rozwijać konkretne umiejętności. Takie narzędzia mogą spersonalizować programy treningowe, które skupiają się na poprawie reakcji, celowania, decyzji taktycznych i innych kluczowych aspektów gry. 

Wykorzystywane są również do tworzenia zaawansowanych symulacji i scenariuszy gry, naśladując przy tym różne sytuacje, które mogą wystąpić w trakcie meczu, umożliwiając graczom trening w warunkach zbliżonych do rzeczywistych. Dzięki temu zawodnicy mogą lepiej przygotować się na niespodziewane wydarzenia i szybciej podejmować lepsze decyzje podczas faktycznych spotkań. 

Algorytmy SI mogą być używane do optymalizacji składu zespołu, analizując dane dotyczące indywidualnych umiejętności i preferencji graczy. Wyniki takich badań mogą sugerować, którzy zawodnicy powinni grać na jakich pozycjach. Mogą również pomóc dobrać skład osobowy, aby zmaksymalizować skuteczność zespołu.

Podsumowanie

Artykuł przedstawia, jak sztuczna inteligencja zdominowała gry planszowe i na stałe zawitała w e-sporcie. Pokonała ludzkich mistrzów w szachach, Go, Dota 2 i StarCraft II. Sukcesy projektów takich jak Deep Blue, AlphaGo, OpenAI Five i AlphaStar pokazują potencjał SI w tworzeniu zaawansowanych strategii i doskonaleniu technik gry. Przyszłe możliwości rozwoju obejmują jej wykorzystanie w tworzeniu bardziej realistycznych scenariuszy, opracowywania szczegółowych i spersonalizowanych ścieżek rozwoju graczy oraz analizy predykcyjne, które mogą rewolucjonizować treningi i strategie w różnych branżach.

Bibliografia

[1] Google achieves AI ‘breakthrough’ by beating Go champion, „BBC News”, 27 stycznia 2016 

[2] AlphaGo: Mastering the ancient game of Go with Machine Learning, „Research Blog” 

[3] David Larousserie et Morgane Tual, Première défaite d’un professionnel du go contre une intelligence artificielle, „Le Monde.fr”, 27 stycznia 2016, ISSN 1950-6244 

[4] https://openai.com/index/openai-five-defeats-dota-2-world-champions/ dostęp 13.06.2024 

[5] https://openai.com/index/openai-five/ dostęp 13.06.2024 

[6] Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347

Dolina niesamowitości 

Dolina niesamowitości (ang. uncanny valley) to pojęcie odnoszące się do powszechnego, niepokojącego wrażenia doświadczanego przez ludzi w sytuacji, kiedy robot w bardzo dużym stopniu przypomina człowieka, ale nie jest dostatecznie przekonująco realistyczny [1]. Zjawisko to po raz pierwszy pojawiło się w latach 70. XX wieku, kiedy to japoński robotyk Masahiro Mori zaobserwował, że roboty stają się tym bardziej interesujące, im bardziej przypominają swoim wyglądem człowieka, ale tendencja ta utrzymuje się tylko do pewnego momentu. Określił on wówczas ten fenomen jako bukimi no tani (pol. dolina niesamowitości). Po „osiągnięciu” bukimi no tani poczucie zainteresowania zamienia się w poczucie obcości, niepokoju lub nawet strachu [2].

Rys. 1. Wykres obrazujący zjawisko doliny niesamowitości. 

Źródło: https://www.linkedin.com/pulse/uncanny-valley-personalization-mac-reddin-/  

Dlaczego doświadczamy zjawiska doliny niesamowitości?

Na dzień dzisiejszy nie jest nam znana jedna, konkretna odpowiedź na to pytanie. Istnieje natomiast kilka teorii, które pozwalają lepiej zrozumieć przyczyny występowania tego zjawiska. Przyczyny te dzielimy na: 

  • Neurologiczne 

W badaniu przeprowadzonym w 2019 roku, Fabian Grabenhorst wraz z zespołem neurologów poddali analizie neurologiczny aspekt doliny niesamowitości. Zbadali oni wzorce mózgowe u 21 osób wykorzystując funkcjonalne obrazowanie metodą rezonansu (fMRI), czyli technikę pomiaru zmian w przepływie krwi w różnych obszarach mózgu. Podczas testów uczestnicy określali swój poziom zaufania względem ludzi oraz robotów o różnym poziomie ludzkiego podobieństwa. Wyniki pokazały, że pewne konkretne części mózgu były szczególnie ważne w kontekście uncanny valley. Dwie części przyśrodkowej kory przedczołowej – odpowiedzialnej za uwagę i zmysły – wykazały pewną niestandardową aktywność. Jedna z nich przekształciła „sygnał podobieństwa do człowieka” w „sygnał wykrycia człowieka” oraz nadmiernie wyeksponowała granicę między człowiekiem a nie-człowiekiem. Z kolei druga, skorelowała ten sygnał z oceną sympatii. Połączenie to utworzyło mechanizm, który ściśle przypomina to, czym charakteryzuje się dolina niesamowitości.

  • Psychologiczne

Okazuje się, że już w 1919 roku Sigmund Freud zaobserwował zjawisko, które opisał jako „dziwna emocja odczuwana przez ludzi, którą budzą pewne przedmioty”. Sugerował, że uczucie, które nam wtedy towarzyszy może być związane z wątpliwościami co do tego, czy coś nieożywionego, co obserwujemy, posiada duszę. Co ciekawe, w tamtym czasie jego spostrzeżenie odnosiło się oczywiście nie do robotów, lecz do realistycznych lalek czy też figur woskowych, co sugeruje, że zjawisko to może być starsze niż nam się wydaje oraz występować na większej ilości płaszczyzn niż tylko wśród maszyn. Dzisiaj podobny mechanizm wykorzystywany jest w branży filmowej. Wiele horrorów nadaje cechy ludzkie postaciom, które ludźmi nie są.

  • Ewolucyjne

Uncanny valley może być również powiązana z ewolucją. Roboty, które klasyfikujemy do doliny niesamowitości, wyglądają jak ludzie, ale posiadają również cechy, które wyraźnie nie są ludzkie. Niektóre z tych cech, takie jak skóra pozbawiona życia, nienaturalne rysy twarzy czy też głos nieadekwatny do wyglądu, mogą kojarzyć się nam z czymś odstającym od normy, czy nawet niebezpiecznym. To z kolei wywołuje w nas uczucie niechęci, strachu. Kiedy mamy do czynienia z czymś, co jest ludzkie, ale nierealistyczne, nie „jak żywe”, budzi to w nas odczucie podobne do takiego, którego doświadczamy, kiedy stykamy się z czymś, co jest martwe.

  • Kognitywne

Zjawisko doliny niesamowitości może również wynikać z egzystencjonalnego strachu przed zastąpieniem ludzi przez roboty. Widok robota, który swoim wyglądem przypomina człowieka, ale człowiekiem nie jest, zaburza nasze oczekiwania względem tego, jak wygląda człowiek, a jak wygląda robot. Budzi to w nas wątpliwości odnośnie do tego, kim jest człowiek, jak powinien wyglądać oraz jak powinien się zachowywać. Warto zauważyć, że niepokój nie wynika z samego faktu istnienia robotów, lecz z faktu istnienia takich robotów, które łączą w sobie elementy zazwyczaj nie występujące razem. Przykładowo, roboty „brzmiące jak roboty” nie stanowią dla nas problemu, natomiast roboty posługujące się typowo ludzkim głosem, już tak [2] [3].

Dolina niesamowitości w rzeczywistości

Fenomen doliny niesamowitości obecny jest w wielu różnych dziedzinach. Poza obszarem robotyki, zaobserwować możemy go również w grach komputerowych, czy filmach wykorzystujących technologię CGI, czyli obrazy generowane komputerowo. Efekt ten wykracza poza świat technologii i powodować go mogą przedmioty takie jak realistyczne lalki, manekiny czy figury woskowe.

  • Sophia

Fot. 1. Zdjęcie przedstawiające robota Sophia. 

Źródło: https://pl.wikipedia.org/wiki/Plik:Sophia_%28robot%29.jpg  

Sophia jest najbardziej zaawansowanym robotem humanoidalnym, jaki dotychczas powstał. Stworzona przez Hanson Robotics, po raz pierwszy aktywowana została w 2016 roku. Uzyskała obywatelstwo Arabii Saudyjskiej, stając się tym samym pierwszym robotem-obywatelką na świecie. Przyznany został jej tytuł Ambasadorki Innowacji Programu Rozwoju Narodów Zjednoczonych. Rozpoznawalność zyskała również dzięki występom w programach telewizyjnych, takich jak Good Morning Britain czy The Tonight Show [4]. Sophia posiada umiejętność wyrażania różnych złożonych emocji, przybierania ludzkich wyrazów twarzy i wchodzenia w interakcje z innymi ludźmi. Wyposażona jest w umiejętność przetwarzania oraz posługiwania się językiem naturalnym, rozpoznawania twarzy oraz śledzenia wizualnego [5]. Jej „skóra” wykonana jest ze specjalnego materiału, opracowanego przez naukowców z Hanson Robotics, który nazwany został Frubber. Jest to rodzaj gumy, która swoją fakturą i elastycznością przypomina ludzką skórę [6]. Z powodu jej wyglądu i zachowań, które są bardzo bliskie tym odpowiadającym człowiekowi, wciąż są zbyt nienaturalne. Sophia jest klasyfikowana do doliny niesamowitości, mogąc budzić w nas tym samym uczucie dyskomfortu oraz niepokoju.

  • Ekspres polarny

Rys. 2. Komputerowo wygenerowany kadr z filmu Ekspres polarny. 

Źródło: https://collider.com/worst-cases-of-uncanny-valley-movies/ 

Ekspres polarny to film animowany w reżyserii Roberta Zemeckisa, powstały w 2004 roku. Film zrealizowany został z wykorzystaniem technologii CGI, która zdaniem wielu wykorzystana została w sposób nietrafny. Sami producenci ekranizacji mieli sprzeczną wizję, wobec tego w jaki sposób powinien powstać film. Robert Zemeckis w wywiadzie dla Wired powiedział, że „live-action wyglądałoby okropnie i byłoby niemożliwe do zrealizowania – kosztowałoby 1 miliard dolarów zamiast 160 milionów dolarów”. Natomiast Tom Hanks, odgrywający w filmie rolę aż siedmiu postaci, twierdził, iż film nie powinien powstać w wersji animowanej [7]. Twórcy znaleźli pewnego rodzaju porozumienie, łączące ze sobą te dwa podejścia. Wykorzystali oni technologię przechwytywania ruchu (ang. motion capture), czyli metodę polegająca na rejestrowaniu ruchów aktorów, a następnie zapisywaniu ich w komputerze. Jednak krytycy twierdzą, iż twórcom nie udało się dobrze odzwierciedlić postaci, przez co wydają się one niedostatecznie realistyczne. Bohaterom brakuje ludzkich emocji oraz mimiki, poruszają się w sposób nienaturalny, a ich oczy wydają się być ciągle „nieobecne”.

Konsekwencje doliny niesamowitości

Zjawisko doliny niesamowitości ma znaczący wpływ na przyszłość wielu różnych obszarów naszego życia. Dzięki obecnej wiedzy, jakie niechciane uczucia może powodować to zjawisko, robotycy, producenci filmów oraz projektanci gier wideo mogą uwzględniać ten problem w swoich działaniach. Na ten moment wiadomo już, że warto tworzyć roboty, które nie powodują braku zaufania pomiędzy maszyną, a użytkownikiem. W przeciwnym razie narażone będą one na zły odbiór oraz mniejszą przydatność w osiągnięciu zamierzonego celu. Z kolei w filmach, zbyt realistyczne postacie wygenerowane komputerowo w najlepszym przypadku wywołać mogą brak sympatii ze strony widza, a w najgorszym uczucia takie jak niepokój, czy nawet strach. Dlatego właśnie twórcy filmów często decydują się na wręcz zbyt przesadne uwydatnienie niektórych cech fizycznych swoich bohaterów. Nadawanie postaciom charakterystyk takich jak przesadnie duże oczy, nienaturalny kolor skóry czy nadmiernie dynamiczne ruchy stanowi jeden ze sposobów na radzenie sobie z uniknięciem efektu wywołanego przez dolinę niesamowitości. Podobne mechanizmy zachodzą również w grach komputerowych – projektanci mogą chcieć starać się tworzyć swoje postacie z myślą o niezbyt przesadnym realizmie, gdyż w przeciwnym razie mogą spotkać się z negatywnym odbiorem ze strony graczy. Choć istnieją również wyjątki – w niektórych przypadkach filmowcy lub projektanci gier mogą chcieć uzyskać postacie, które celowo „wpadają” do uncanny valley. Dzięki temu mogą mieć kontrolę chociażby nad tym, w jaki sposób odbierane będą czarne charaktery. Bohater, który przejawiał będzie pewne nienaturalne, lecz jednocześnie zbyt realistyczne cechy, wywoływał będzie poczucie niechęci wśród odbiorców [8] [9].

Dolina niesamowitości a UX

Bardzo ciekawe zagadnienie w kontekście uncanny valley stanowi również jej wpływ na projektowanie interfejsów użytkownika. Dodanie pewnych elementów realistycznych do wyglądu interfejsu może mieć pozytywne skutki. Przykładowo, światło i cień nadają poczucia możliwości naciśnięcia danego elementu, a dźwięk może stanowić odpowiednik danego odgłosu, który usłyszymy również w prawdziwym życiu. Jednak dodanie zbyt dużej ilości realizmu może prowadzić do powstania zbyt cienkiej granicy pomiędzy tym co wirtualne, a tym co rzeczywiste. Przykładowo, bardzo detaliczna aplikacja kalendarza, którego faktura przypomina prawdziwy papier. Fakt, że nie jesteśmy w stanie go dotknąć, a jedynie „przewijać” na ekranie komputera czy też smartfona, może sprawiać dla nas wrażenie czegoś dziwnego, „niepasującego”. Dlatego tak istotne jest, aby nie dążyć do osiągnięcia elementów, które wręcz w całkowity sposób odzwierciedlają realne obiekty. Dzięki zachowaniu odpowiedniego balansu pomiędzy realizmem a fikcją, doświadczenie użytkownika staje się przyjemne oraz pozbawione dylematów [10].

Rys. 3. Grafika przedstawiająca bardzo realistyczne logo Google Chrome z 2008 roku oraz jego unowocześnioną, znacznie mniej realistyczną wersję z 2011. 

Źródło: https://bpando.org/2011/03/17/the-new-chrome-logo/  

Podsumowanie

Ludzie doświadczają niepokoju, gdy napotykają wyglądające niemal jak prawdziwe, ale wciąż niedostatecznie realistyczne jednostki przypominające ludzi – zjawisko to określane jest jako dolina niesamowitości. Ma ono kluczowe znaczenie w różnych dziedzinach. Jego przykłady obejmują zaawansowane roboty, postacie generowane komputerowo czy nawet formy wykraczające poza sferę technologii, takie jak lalki czy figury woskowe. Konsekwencje uncanny valley mogą w znaczącym stopniu wpływać na akceptację oraz użyteczność danej technologii. W kontekście UX, świadomość istnienia doliny niesamowitości jest kluczowa dla projektantów, którzy starają się zminimalizować niepożądane efekty poprzez odpowiednie zaprojektowanie interfejsów tak, aby użytkownicy czuli się komfortowo oraz byli zaangażowani w interakcje z produktami.

Bibliografia

[1] https://www.techtarget.com/whatis/definition/uncanny-valley  

[2] https://spectrum.ieee.org/what-is-the-uncanny-valley  

[3] https://www.sciencefocus.com/news/uncanny-valley-what-is-it-and-why-do-we-experience-it  

[4] https://aidriven.pl/ai/etyka-i-prawo/robot-sophia-jak-humanoidy-zmieniaja-nasze-postrzeganie-ai/ 

[5] https://robotsguide.com/robots/sophia 

[6] https://www.hansonrobotics.com/the-making-of-sophia-frubber/ 

[7] https://faroutmagazine.co.uk/the-disturbing-valley-robert-zemeckis-polar-express/  

[8] https://www.techtarget.com/whatis/definition/uncanny-valley  

[9] https://www.verywellmind.com/what-is-the-uncanny-valley-4846247 

[10] https://cassidyjames.com/blog/uncanny-valley-curve/

Społeczeństwo 5.0

Idea Society 5.0 polega na stworzeniu superinteligentnego społeczeństwa, w którym różne społeczne wyzwania rozwiązywane są poprzez wdrożenie innowacji czwartej rewolucji przemysłowej – takich jak: IoT, Big Data, Sztuczna Inteligencja (AI), robotyka czy ekonomia współdzielenia – do każdej branży oraz w życie społeczne. W tak wyglądającym świecie, ludzie, maszyny oraz ich otoczenie, są ze sobą połączone i potrafią komunikować się między sobą [1]. W praktyce, Społeczeństwo 5.0 będzie m.in. dążyło do zapewnienia lepszej opieki seniorom. Na przykład w Japonii społeczeństwo starzeje się bardzo szybko. Jeśli kiedykolwiek w przyszłości miałoby zabraknąć rąk do zajmowania się osobami starszymi, to właśnie nowa jakość przetwarzania danych będzie w stanie podnieść standard opieki zdrowotnej dla emerytów [2]. Społeczeństwo 5.0 to termin odnoszący się do nowej idei społeczeństwa. W takiej koncepcji rozwój technologiczny koncentruje się na człowieku i poszukuje wartościowych rozwiązań dla życia ludzi na całym świecie.

Rozwiązania dla Lepszego Życia

Rys. 1. Ilustracja przedstawiająca plan transformacji społecznej Japonii – Society 5.0. 
Źródło: https://www.japan.go.jp/abenomics/_userdata/abenomics/pdf/society_5.0.pdf

[Dostęp: 07.03.2024] 

Historia rozwoju społeczeństwa

Społeczeństwo 5.0 jest wynikiem niczego innego, jak ewolucji obejmującej pięć etapów rozwoju społecznego: 

  • Society 1.0: Społeczeństwo zbieracko-łowieckie (sposób życia pierwszych ludzi, trwał do około 12 000 lat temu) – społeczeństwo, które swój styl życia opiera na polowaniu i łowieniu zwierząt oraz poszukiwaniu dzikiej roślinności i innych rodzajów składników odżywczych [3]. 
  • Society 2.0: Społeczeństwo rolnicze (pierwszy raz pojawia się około 10 000 – 8 000 lat temu) – społeczeństwo, które koncentruje swoją gospodarkę przede wszystkim na rolnictwie i uprawie dużych pól [4]. 
  • Society 3.0: Społeczeństwo przemysłowe (od końca XVIII wieku) – społeczeństwo, w którym dominującym sposobem organizacji życia są technologie produkcji masowej, wykorzystywane do wytwarzania ogromnych ilości towarów w fabrykach [5]. 
  • Society 4.0: Społeczeństwo informacyjne (od drugiej połowy XX wieku) – społeczeństwo, w którym tworzenie, rozpowszechnianie, wykorzystywanie, integrowanie i zarządzanie informacją jest istotnym aspektem działalności gospodarczej, politycznej czy kulturalnej [6].

Integracja technologiczna dla lepszej jakości życia

Koncepcja zbierania danych z otaczającego nas świata, przetwarzania ich przez komputery oraz wykorzystywania ich w praktyce nie jest w dzisiejszym świecie nowością. Na dokładnie takiej zasadzie oparte jest działanie, przykładowo, klimatyzatorów. Regularnie wykonują one pomiar temperatury w pomieszczeniu, a następnie porównują odczyt z wcześniej zaprogramowaną temperaturą. W zależności od tego, czy zmierzona temperatura jest większa, czy mniejsza od pierwotnie ustawionej, urządzenie wstrzymuje lub uruchamia przepływ powietrza. Mechanizm ten wykorzystuje zautomatyzowane systemy komputerowe. Termin „społeczeństwo informacyjne” (Society 4.0) odnosi się zatem do społeczeństwa, w którym każdy z takich systemów pozyskuje dane, przetwarza je, a następnie wykorzystuje w swoim własnym, sprecyzowanym środowisku.

Wiedząc już dokładnie, na czym polega idea Społeczeństwa 4.0, możemy zrozumieć, co w istocie odróżnia je od Społeczeństwa 5.0. Zasadnicza różnica polega na tym, że Society 5.0 zamiast wykorzystywać systemy działające w zdefiniowanym, ograniczonym zakresie, wykorzystywać będzie takie, które funkcjonują w zintegrowany sposób, wpływając przy tym na życie całego społeczeństwa. Dane przetwarzane będą przez zaawansowane systemy informatyczne, takie jak Sztuczna Inteligencja. Systemy te przystosowane są do przetwarzania tak dużej ilości danych. Głównym celem wykorzystania gromadzonych danych będzie zapewnienie wszystkim szczęścia oraz komfortu [7]. W BFirst.Tech również widzimy te potrzeby i odpowiadamy na nie stosując konkretne narzędzia. Nasze obszary – Data Engineering oraz Data Architecture & Management wykorzystują innowacyjne rozwiązania technologiczne do zbierania, analizowania i zarządzania danymi, aby wspierać efektywne i zrównoważone gospodarowanie procesami. Taki sposób gospodarowania ma istotny wpływ na bezpieczeństwo, wiarygodność danych oraz strategiczne podejmowanie decyzji. Przyczynia się to do wzrostu dobrobytu w społeczeństwie.

Nowa era dobrobytu a stojące przed nią wyzwania

Społeczeństwo 5.0 ma za cel wykorzystanie najnowocześniejszych technologii w taki sposób, aby zapewnić dobrobyt wszystkim ludziom. Idea ta zakłada, że rozwój technologiczny może być narzędziem do przeciwdziałania nierównościom społecznym, poprawy jakości życia oraz stworzenia bardziej zrównoważonej społeczności. Główne cele, jakich realizację przewiduje, to: 

  • zmniejszenie nierówności społecznych, 
  • przyspieszenie usług medycznych oraz zwiększenie precyzji zabiegów i operacji, 
  • zwiększenie produkcji żywności przy jednoczesnej redukcji marnotrawstwa 
  • poprawa bezpieczeństwa publicznego, 
  • rozwiązywanie problemów spowodowanych katastrofami naturalnymi, 
  • promowanie uczestnictwa społeczeństwa w opracowywaniu pomysłów i projektów, 
  • zapewnienie transparentnego dostępu do danych oraz utrzymanie bezpieczeństwa informacji. 

Społeczeństwo 5.0 stawia sobie za cel stworzenie harmonijnej równowagi między rozwojem technologicznym a potrzebami społecznymi. Niesie to jednak ze sobą swoje wyzwania. Jednym z najbardziej istotnych warunków do skutecznego wdrożenia tej wizji jest zaangażowanie oraz przywództwo rządów. Jest tak, ponieważ to rządy odpowiedzialne są za aspekty takie jak finansowanie, wdrażanie technologii w życie publiczne czy tworzenie nowych przepisów związanych z bezpieczeństwem. Kolejne istotne wyzwanie stanowią ryzyka związane z cyberbezpieczeństwem. Należy mieć na uwadze, że działania hackerów, czy też kwestie związane z kradzieżą danych, mogą skutecznie zahamować rozwój innowacji, dlatego kluczowe jest zadbanie o należyty poziom ochrony danych [8].

Cele Zrównoważonego Rozwoju Organizacji Narodów Zjednoczonych

Społeczeństwo 5.0 oraz Cele Zrównoważonego Rozwoju Organizacji Narodów Zjednoczonych to dwie, oddzielne inicjatywy, które zmierzają w bardzo podobnym kierunku. Te dwa innowacyjne podejścia dzielą bowiem jeden wspólny cel – eliminowanie problemów społecznych w zrównoważony sposób. Można powiedzieć, że Society 5.0 w pewien sposób realizować będzie Cele Zrównoważonego Rozwoju, poprzez określone działania. Te działania, zestawione z konkretnymi celami, to:

  • dążenie do dokładniejszego oraz skuteczniejszego diagnozowania chorób poprzez wykorzystanie zaawansowanych technologii (takich jak Big Data czy Sztuczna Inteligencja), 
Ilustracja Celu 3. Zrównoważonego Rozwoju UN.

Rys. 2. Ilustracja przedstawiająca 3. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • upowszechnianie e-learningu oraz zapewnianie większej dostępności edukacji, 
Ilustracja Celu 4. Zrównoważonego Rozwoju UN.

Rys. 3. Ilustracja przedstawiająca 4. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • tworzenie nowych miejsc pracy związanych z dziedzinami takimi jak robotyka, Sztuczna Inteligencja czy analiza danych, 
Ilustracja Celu 8. Zrównoważonego Rozwoju UN.

Rys. 4. Ilustracja przedstawiająca 8. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • promowanie innowacji oraz inwestowanie w nową infrastrukturę (taką jak inteligentne sieci czy szybki Internet),
Ilustracja Celu 9. Zrównoważonego Rozwoju UN.

Rys. 5. Ilustracja przedstawiająca 9. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • tworzenie inteligentnych miast, które wykorzystują czujniki i analizę danych w celu optymalizacji przepływu ruchu, zmniejszenia zużycia energii oraz poprawy bezpieczeństwa,
Ilustracja Celu 11. Zrównoważonego Rozwoju UN.

Rys. 6. Ilustracja przedstawiająca 11. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • redukowanie emisji gazów cieplarnianych oraz promowanie zrównoważonego transportu.
Ilustracja Celu 13. Zrównoważonego Rozwoju UN.

Rys. 7. Ilustracja przedstawiająca 13. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

Wspólny kierunek

Niezwykle istotne jest, aby korzyści wynikające z idei Society 5.0 były równo dostępne dla każdego, tak, aby wszyscy mieli taką samą szansę skorzystania z jej potencjału. Tylko dzięki takiemu podejściu udział Społeczeństwa 5.0 w realizowaniu Celów Zrównoważonego Rozwoju ma szansę na efektywny rezultat [9]. BFirst.Tech jako partner merytoryczny United Nations Global Compact Network Poland (UN GCNP) również dba o realizację Celów Zrównoważonego Rozwoju. W obszarach, które skupiają się na przetwarzaniu, projektowaniu i zarządzaniu danymi, czyli Data Engineering oraz Data Architecture & Management, nasza firma wciela w życie cele, pokrywające się z celami uskutecznianymi przez Society 5.0, takie jak: Cel 9 – w zakresie zabezpieczania, agregowania i analizy dużych zbiorów danych, optymalizacji oraz zarządzania i kontroli jakości procesów z wykorzystaniem AI; Cel 11 – w zakresie zabezpieczania kluczowych informacji mających wpływ na poprawę warunków życia mieszkańców miast; oraz Cel 13 – w zakresie zmniejszania zużycia zasobów i emisji odpadów poprzez zwiększanie efektywności produkcji.

Zmiany wpływające na wiele obszarów

Dzięki wdrożeniu koncepcji Society 5.0 możliwa jest modernizacja wielu różnych płaszczyzn życia społecznego. Jedną z nich jest wspominana wcześniej opieka zdrowotna. W obliczu starzejącego się społeczeństwa Japonii, kraj ten zmaga się obecnie ze wzrastającymi wydatkami oraz potrzebą opieki nad seniorami. Społeczeństwo 5.0 rozwiązuje ten problem, poprzez wprowadzenie Sztucznej Inteligencji. Gromadzi ona, a następnie analizuje dane dotyczące pacjenta, co zapewnia najwyższy poziom diagnostyki oraz leczenia. Z kolei zdalne konsultacje medyczne wpływają pozytywnie na wygodę osób starszych. Zapewnia im to możliwość kontaktu z lekarzem nawet z własnego miejsca zamieszkania.

Kolejną płaszczyznę stanowi mobilność. Większość obszarów wiejskich Japonii nie ma dostępu do transportu publicznego. Wpływ na to ma między innymi spadek liczby ludności przyczyniający się do coraz słabszego zaludnienia tych obszarów. Problem stanowi również narastający brak kierowców, związany z ciągle rozwijającym się sektorem e-commerce. Rozwiązaniem, jakie proponuje na te kwestie Society 5.0, jest wdrożenie autonomicznych pojazdów, takich jak taksówki czy autobusy. Warto wspomnieć również o obszarze infrastruktury. W Społeczeństwie 5.0 to czujniki, Sztuczna Inteligencja oraz roboty będą autonomicznie kontrolować i konserwować drogi, tunele, mosty oraz tamy. Ostatni już obszar warty uwagi stanowią technologie finansowe (FinTech). W Japonii w dalszym ciągu większość transakcji pieniężnych odbywa się za pomocą gotówki bądź procedur bankowych. Potrafi to trwać znacząco zbyt długo. Społeczeństwo 5.0 proponuje zaimplementowanie technologii Blockchain do transakcji pieniężnych oraz wprowadzenie powszechnych, dostępnych wszędzie płatności za pośrednictwem smartfona [10].

Podsumowanie

Society 5.0 to koncepcja społeczeństwa, które wykorzystuje zaawansowane technologie, aby stworzyć społeczeństwo oparte na zrównoważonym rozwoju, innowacjach społecznych oraz cyfrowej transformacji. Celem Society 5.0 jest nie tylko osiągnięcie wzrostu gospodarczego, ale także poprawa jakości życia obywateli. Za rozwojem tej idei stoją również pewne wyzwania. Są one związane przede wszystkim z bezpieczeństwem danych, czy też wprowadzaniem odpowiednich regulacji zapewniających płynną oraz komfortową dla wszystkich transformację. Society 5.0 w dużym stopniu dzieli wizję przyszłości z Celami Zrównoważonego Rozwoju (SDG), ogłoszonymi przez Organizację Narodów Zjednoczonych. Wiele z nich można osiągnąć poprzez wdrażanie tej koncepcji. Społeczeństwo 5.0 obejmuje szeroki zakres obszarów życia społecznego, w tym opiekę zdrowotną, mobilność, infrastrukturę oraz technologie finansowe. Dzięki wykorzystaniu zaawansowanych technologii w tych dziedzinach, dąży się do stworzenia zrównoważonego i innowacyjnego społeczeństwa, które będzie miało pozytywny wpływ na jakość życia obywateli.

Bibliografia

[1] https://www.japan.go.jp/abenomics/_userdata/abenomics/pdf/society_5.0.pdf [Dostęp: 07.03.2024] 

[2] https://sektor3-0.pl/blog/japonski-czlowiek-nowej-ery-czyli-spoleczenstwo-5-0/ 

[3] https://education.nationalgeographic.org/resource/hunter-gatherer-culture/ 

[4] https://www.thoughtco.com/agrarian-society-definition-3026047 

[5] https://www.thoughtco.com/industrial-society-3026359 

[6] https://www.techtarget.com/whatis/definition/Information-Society 

[7] Atsushi Deguchi, Chiaki Hirai, Hideyuki Matsuoka, Taku Nakano, Kohei Oshima, Mitsuharu Tai, Shigeyuki Tani „What is Society 5.0?” 

[8] https://www.sydle.com/blog/society-5-0-5fc163e1725a642683ed9230 

[9] https://media.inti.asia/read/society-50-and-the-sustainable-development-goals-a-roadmap-for-a-better-future 

[10] https://medium.com/@jacobprakoso/japan-super-smart-society-5-0-9b9e8ba49a7  

SEO

Co sprawia, że niektóre strony internetowe wyświetlają się od razu po wpisaniu szukanej frazy, a inne giną w gąszczu pozostałych witryn? Jak sprawić, aby użytkownik mógł łatwiej znaleźć naszą stronę? Pozycjonowanie nie ma nic wspólnego z losowością. Za te i inne aspekty odpowiada SEO. Nieważne, czy dopiero rozpoczynamy naszą przygodę z prowadzeniem portalu internetowego, czy robimy to od dawna, zajmujemy się wszystkim sami, czy zlecamy to komuś innemu. Podstawowe zasady, jakimi rządzi się pozycjonowanie, warto znać.  Po zapoznaniu się z tym artykułem dowiesz się czym jest SEO, z czego się składa oraz jak je wykorzystywać w odpowiedni sposób. 

Czym jest SEO? 

Zacznijmy od tego, czym tak naprawdę jest SEO i z czego się składa. SEO (Search Engine Optimization) to ogół działań podejmowanych w celu poprawy pozycjonowania strony internetowej w wynikach wyszukiwania [1]. Składa się na nie szereg praktyk i strategii, takich jak odpowiednie redagowanie tekstu czy budowanie profilu linkowego. SEO również odpowiada za dostosowanie witryny do algorytmów, stosowanych przez wyszukiwarki. To one decydują o tym, które strony będą wyświetlane na pierwszej stronie wyników wyszukiwania i w jakiej kolejności. Poprzez optymalizację, dana strona internetowa może zyskać lepszą pozycję w wynikach wyszukiwania, co zwiększa jej widoczność. Należy oczywiście pamiętać, że narzędzia SEO to jedynie jeden ze sposobów na poprawę popularności witryny. Nie daje on tak szybkich efektów jak, na przykład, płatne reklamy, ale jest relatywnie tani. Poza tym wypracowany efekt utrzyma się na dłużej i nie zniknie po wygaśnięciu danej subskrypcji, jak ma to miejsce w przypadku wielu innych technik marketingowych. 

Pozycjonowanie on-site

SEO możemy podzielić na dwa rodzaje: on-site oraz off-site. On-site SEO to wszystkie działania, które mają miejsce na danej stronie internetowej. To wszystkie kwestie redakcyjne, techniczne czy takie, które wpływają na szybkość ładowania treści. Dzięki dbaniu o te aspekty, strona jest czytelniejsza zarówno dla użytkownika, jak i robotów Google. Aby mówić o dobrym on-site SEO należy zadbać o:

  • Metadane i opis ALT – nawet jeśli strona będzie czytelna dla użytkownika, co z algorytmami wyszukiwarek? Aby i dla nich była czytelna, warto zadbać o tytuły i opisy meta, które pomogą wyszukiwarkom znaleźć naszą witrynę. Poza tym, warto również zadbać o opisy ALT, zwane również tekstem alternatywnym. Algorytmy nie rozumieją, co znajduje się na obrazkach. Dzięki temu krótkiemu opisowi, będą w stanie przyporządkować jego treść do wyszukiwanej frazy i poprawić pozycjonowanie. 
  • Nagłówki – to kolejna rzecz, która wpływa nie tylko na ludzką percepcję. Odpowiednie rozłożenie nagłówków i optymalizacja treści w nich mogą znacząco przyczynić się do poprawy pozycjonowania. 
  • Hiperłącza – czyli ogół odnośników, zwany również profilem linkowym. Możemy tutaj wyróżnić linkowanie zewnętrzne i wewnętrzne. Linkowanie zewnętrzne to linki pochodzące z innych stron internetowych niż nasza i zaliczane jest ono do off-site SEO. Natomiast wewnętrzne to odnośniki, które w obrębie jednej witryny przekierowują użytkownika do innych zakładek czy artykułów [2].  

Pozycjonowanie off-site

Off-site SEO natomiast odnosi się do wszystkich działań podejmowanych poza stroną, w celu zwiększenia jej widoczności i rozpoznawalności w sieci. Dzięki temu zyskujemy ruch na stronie z zewnętrznych źródeł. Takie działania to na przykład:

  • Hiperłącza – ponownie, profil linkowy budujący popularność i rozpoznawalność strony w sieci. Do off-site SEO zaliczane jest linkowanie zewnętrzne, czyli pochodzące z innych źródeł. Warto zadbać, aby były one dobrej jakości, czyli pochodzące z rzetelnych źródeł. Minęły czasy, kiedy liczyła się tylko ilość. Teraz algorytmy wyszukiwarek zwracają dużo większą uwagę właśnie na wartość.
  • Marketing internetowy – chodzi o takie działania, jak prowadzenie profili na Social Mediach, prowadzenie dyskusji z użytkownikami na forach czy współpracowanie z influencerami. To aspekty, które bezpośrednio nie wpływają na wyniki wyszukiwania, lecz pośrednio mogą bardzo przyczynić się do podbicia ilości zapytań o naszą stronę. 
  • Opinie – po jakimś czasie w naturalny sposób pojawiają się w sieci opinie na temat naszej strony czy prowadzonego biznesu. Warto o nie zadbać i odpowiedzieć użytkownikom, którzy je zostawili. Dbanie o dobrą opinię klienta to jeden z aspektów budowania wizerunku marki godnej zaufania [3].

Link building a pozycjonowanie

Link building to proces zdobywania odnośników, które będą prowadziły do naszej witryny. Mogą to być linki z zewnętrznych źródeł (tzw. backlinki) lub linkowanie wewnętrzne. Wtedy mówimy o odnośnikach, które będą przekierowywały nas w obrębie danej strony internetowej. Dobrze zbudowany profil linkowy znacząco wpływa na pozycjonowanie, o czym więcej można przeczytać wyżej [4]. Jak natomiast zmieniało się znaczenie takich praktyk? 

Przez wiele lat Google pozwalało pozycjonerom na wiele pod tym względem. Na porządku dziennym można było spotkać strony, do których prowadziły nawet setki tysięcy linków, gdyż ich liczba miała ogromne znaczenie dla pozycjonowania, a ich jakość już nie do końca. Zdecydowana większość z nich była linkami niskiej jakości, które były umieszczane w sieci na forach, w księgach gości, katalogach, komentarzach itp. Często nie zajmował się tym człowiek, wykorzystywano specjalne aplikacje, które robiły to automatycznie. Takie rozwiązanie przynosiło znaczące efekty, a mogło być przeprowadzone stosunkowo niewielkim kosztem. Wszystko zmieniło się w kwietniu 2012. Doszło wtedy do pewnej rewolucji – Google wprowadził nowy algorytm o nazwie Pingwin.[5]

Jak Pingwin zmienił SEO?

Czym jest Pingwin? To algorytm stworzony przez Google i wprowadzony 24 kwietnia 2012 roku, w celu zwalczania nieetycznego pozycjonowania stron internetowych. Specjaliści SEO próbowali oszukać skrypt Google poprzez kupowanie linków i umieszczanie ich w miejscach do tego nieprzeznaczonych, jednakże Pingwin skutecznie to wyłapywał. 

Spróbujmy odpowiedzieć na pytanie jak działa Pingwin. Ten skrypt analizuje linki, jakie prowadzą na daną stronę internetową i decyduje o ich wartości. Jeśli uzna je za linki o niskiej jakości, obniży rankingi witryn, do których prowadzą. Takie linki to na przykład te kupione (również pochodzące z wymiany linków) czy stworzone przez boty. Tak samo postąpi w przypadku linków będących spamem, na przykład umieszczanych w komentarzach na forach czy stronach zupełnie niezwiązanych tematycznie. Jego działanie jednak nie jest permanentne – kiedy niskowartościowe linki zostaną usunięte, dana witryna może odzyskać swoją pozycję. Warto wspomnieć, że Pingwin nie został stworzony tylko w celu wykrywania oszustw i obniżania widoczności stron internetowych. Jego rolą jest także nagradzanie uczciwie prowadzonych witryn – jeśli uzna profil linkowy za wartościowy, zwiększy widoczność takich stron [6].

SEO etyczne i nieetyczne

W zależności od tego, na czym opieramy nasze techniki pozycjonowania, można wyróżnić White Hat SEO oraz Black Hat SEO. Te określenia nawiązują do dobrych i złych postaci z westernowych bajek. Według przyjętej kulturowo konwencji, nosiły one zazwyczaj odpowiednio białe i czarne kapelusze, stąd takie skojarzenie. Co jednak oznaczają i czym różnią się te techniki? White Hat SEO to etyczne pozycjonowanie, stosowane według wytycznych zalecanych przez wyszukiwarki. Chodzi o takie zabiegi jak tworzenie treści dobrej jakości (niezawierającej duplikatów), stosowanie nagłówków, wypunktowań, czy dbanie o odpowiednią długość akapitów. Black Hat SEO natomiast charakteryzuje się nieetycznymi zachowaniami, mającymi sztucznie podbijać popularność. Są to takie praktyki jak nadużywanie fraz kluczowych poza kontekstem, ukrywanie tekstu czy kupowanie linków. Takie działania mogą skutkować zmniejszeniem poziomu zaufania do strony, nałożeniem filtrów obniżających pozycję, czy nawet wykluczeniem z wyników wyszukiwania [7].

Podsumowanie

Kluczem do zapewnienia sobie większego ruchu na stronie internetowej i lepszego jej pozycjonowania w wynikach wyszukiwania jest umiejętne wykorzystanie narzędzi SEO. To zabiegi bezpośrednio na stronie oraz poza nią, dzięki którym możemy liczyć na znacznie większe zasięgi. Podczas wykorzystywania SEO należy pamiętać, aby robić to odpowiednio. Stosując się do zaleceń wyszukiwarek i dopasowując treść zarówno do użytkownika jak i algorytmów, możemy liczyć na pozytywne efekty i poprawę statystyk. Nieetyczne praktyki mogą natomiast prowadzić do odwrotnych skutków.

Bibliografia

[1] https://searchengineland.com/guide/what-is-seo 

[2]https://www.semstorm.com/pl/blog/seo-and-ppc/czym-sie-rozni-on-site-seo-od-off-site-seo 

[3]https://www.semrush.com/blog/off-page-seo/?kw=&cmp=EE_SRCH_DSA_Blog_EN&label=dsa_pagefeed&Network=g&Device=c&utm_content=676606914923&kwid=dsa-2185834089536&cmpid=18361923498&agpid=157305243831&BU=Core&extid=105138960331&adpos=&gad_source=1&gclid=CjwKCAjw7-SvBhB6EiwAwYdCAQvsJcp7q2JoIQMf2RzGg_HVRjTFb7AB2sTcZ2khQdIN3qvCREr9GhoCzOIQAvD_BwE 

[4]https://greenparrot.pl/blog/co-to-jest-off-site-seo/ 

[5] https://1stplace.pl/blog/algorytm-google-pingwin/ 

[6] https://www.business2community.com/infographics/history-google-penguin-infographic-01468714 

[7]https://www.semrush.com/blog/black-hat-seo/?kw=&cmp=EE_SRCH_DSA_Blog_EN&label=dsa_pagefeed&Network=g&Device=c&utm_content=683809340380&kwid=dsa-2264710307245&cmpid=18361923498&agpid=156456448517&BU=Core&extid=105138960709&adpos=&gad_source=1&gclid=CjwKCAjw7-SvBhB6EiwAwYdCAZln5MkdcE3R2XZq-FUhanEKkDWUbpUoZxIowWHslE3ETaNFW88vPBoCJ5sQAvD_BwE 

Dylematy moralne związane ze sztuczną inteligencją

Sztuczna inteligencja jest jednym z najbardziej ekscytujących zagadnień technologicznych ostatnich lat. Ma potencjał na fundamentalne zmienienie naszego sposobu pracy oraz korzystania z nowoczesnych technologii w wielu dziedzinach, takich jak generatory tekstów i obrazów, różnego rodzaju algorytmy czy autonomiczne samochody. Wraz z coraz większym rozpowszechnianiem wykorzystywania sztucznej inteligencji, warto jednak również mieć świadomość potencjalnych problemów, jakie ze sobą niesie. Biorąc pod uwagę wzrastające uzależnienie naszych systemów od sztucznej inteligencji, podejście do tych dylematów może mieć kluczowy wpływ na przyszły obraz społeczeństwa. W niniejszym artykule przedstawimy te dylematy moralne. Omówimy również problemy związane z wprowadzaniem do ruchu drogowego pojazdów autonomicznych, zagrożenia wynikające z użycia sztucznej inteligencji do siania dezinformacji oraz obawy dotyczące styku sztucznej inteligencji i sztuki.

Problem pozyskiwania danych i ich skrzywienia

Co do zasady, ludzkie osądy są obciążone subiektywnym spojrzeniem, od maszyn i algorytmów oczekuje się większej obiektywności. Jednak to, w jaki sposób działają algorytmy uczenia maszynowego zależy w dużej mierze od danych, na których algorytm jest uczony. W związku z tym, wybrane do trenowania algorytmu dane z jakimkolwiek, nawet nieświadomym uprzedzeniem mogą spowodować niepożądane działania algorytmu. Zapraszamy do zapoznania się z naszym wcześniejszym artykułem, gdzie znajdziesz więcej informacji na ten temat.

Poziomy automatyzacji w samochodach autonomicznych

W ostatnich latach obserwowaliśmy duże postępy w rozwoju samochodów autonomicznych. W sieci pojawiało się wiele materiałów przedstawiających prototypy pojazdów będących w ruchu bez pomocy kierowcy lub nawet jego obecności. Rozmawiając o samochodach autonomicznych warto zaznaczyć, że istnieje wiele poziomów autonomiczności, dlatego warto przed dyskusją określić o którym poziomie mowa. [1]

  • Poziom 0 oznacza pojazdy, które wymagają pełnej kontroli kierowcy, wykonującego wszystkie działania związane z kierowaniem pojazdu (sterowanie, hamowanie przyspieszanie itd.). Pojazd może natomiast informować kierowcę o zagrożeniach znajdujących się na drodze. Użyje do tego systemów takich jak system ostrzegania przed kolizją czy ostrzegania o opuszczaniu pasa ruchu.
  • Poziom 1 zawiera pojazdy, będące już dziś powszechne na drogach. Kierowca nadal kontroluje pojazd, który jest wyposażony w systemy wspierające jazdę, jak np. tempomat czy układ utrzymujący samochód w granicach pasa ruchu.
  • Poziom 2, oprócz posiadania możliwości poprzednich poziomów, jest -pod pewnymi warunkami – w stanie przejąć częściową kontrolę nad pojazdem. Może on wpływać na prędkość czy kierunek jazdy, pod ciągłym nadzorem kierowcy. Wśród funkcji wspomagających można wymienić sterowanie autem w korku lub na autostradzie.
  • Poziom 3 autonomiczności to pojazdy, które nie są jeszcze dostępne komercyjnie. Samochody tego typu są w stanie prowadzić się w pełni autonomicznie, pod okiem kierowcy. Prowadzący pojazd nadal musi być gotowy w razie potrzeby przejąć sterowanie nad pojazdem.
  • Poziom 4 oznacza wykonywanie przez komputer pokładowy wszystkich czynności związanych z prowadzeniem pojazdu, jednak tylko na określonych, uprzednio zatwierdzonych trasach. W takiej sytuacji wszystkie osoby w pojeździe sprawują funkcję pasażerów, choć przejęcie kontroli nad pojazdem przez człowieka jest nadal możliwe.
  • Poziom 5 to najwyższy poziom autonomiczności – komputer pokładowy jest w pełni odpowiedzialny za prowadzenie pojazdu we wszystkich warunkach, bez jakiejkolwiek potrzeby ingerencji ludzkiej. [2]

Dylematy moralne w obliczu pojazdów autonomicznych

Pojazdy o poziomach autonomiczności 0-2 nie wzbudzają zbyt wielkich kontrowersji. Technologie takie jak sterowanie autem na autostradzie są już dostępne i ułatwiają podróżowanie. Potencjalne wprowadzenie do powszechnego ruchu drogowego pojazdów o wyższych stopniach autonomiczności wzbudza jednak pewne dylematy moralne. Jednym z problemów jest to, co dzieje się w sytuacji, kiedy autonomiczne auto, będące pod opieką prowadzącego, uczestniczy w wypadku. Kto ponosi wtedy odpowiedzialność za jego spowodowanie? Kierowca? Producent pojazdu? A może samo auto? Nie jest to pytanie, na które istnieje jednoznaczna odpowiedź.

Wprowadzenie na ulicę pojazdów autonomicznych wprowadza również inny problem – pojazdy te mogą posiadać luki w zabezpieczeniach. Coś takiego może potencjalnie prowadzić do wycieku danych lub nawet przejęcia kontroli nad pojazdem przez hakera. Przejęty w ten sposób samochód może zostać użyty do celowego spowodowania wypadku, a nawet przeprowadzenia ataku terrorystycznego.  Tu również pojawia się problem podzielenia odpowiedzialności pomiędzy producentem, hakerem i użytkownikiem. [3]

Jednym z najważniejszych problemów związanych z autonomicznymi pojazdami jest etyczne wyszkolenie pojazdów do podejmowania decyzji w wypadku zagrożenia życia i mienia. Kto powinien podejmować decyzje na ten temat – programiści tworzący oprogramowanie, etycy i filozofowie, czy może rządzący krajami? Decyzje te będą miały wpływ na to, kto przeżyje w razie nieuniknionego wypadku. Wiele sytuacji, z jakimi mogą się spotkać autonomiczne pojazdy, będzie wymagać podjęcia decyzji, którym brak jednej oczywistej odpowiedzi (rysunek 1). Czy pojazd powinien nadawać priorytet w ratowaniu pieszych czy pasażerów, młodych czy starych? Jak ważny jest brak ingerencji pojazdu w tok wydarzeń? Czy przestrzeganie prawa przez drugą stronę wypadku powinno mieć wpływ na decyzję? [4]

Rys. 1. Ilustracja jednego z przypadków jakie mogą spotkać autonomiczne pojazdy. Źródło: https://www.moralmachine.net/ 

Deepfake – czym jest i dlaczego prowadzi do dezinformacji?

Współczesny człowiek korzystający z nowoczesnych technologii jest bombardowany zewsząd informacjami. Ogromna ilość i prędkość dostarczania informacji powoduje, że nie wszystkie z nich mogą być zweryfikowane. Fakt ten umożliwia osobom fabrykującym fałszywe wiadomości dotarcie do stosunkowo dużej grupy osób. Dzięki temu mogą zmanipulować swoje ofiary tak, aby zmieniły nastawienie odnośnie jakiegoś tematu lub nawet padły ofiarą oszustwa. Choć praktyka ta występowała już od jakiegoś czasu, pojawienie się sztucznej inteligencji drastycznie ułatwia proces kreowania fałszywych informacji, a co za tym idzie pozwala na szybsze ich tworzenie i rozpowszechnianie.

Spośród technik dezinformacji, sztuczna inteligencja może być używana szczególnie efektywnie do produkcji tzw. deepfake’ów. Deepfake to technika obróbki obrazu przedstawiającego ludzi, oparta na sztucznej inteligencji. Przy pomocy algorytmów uczenia maszynowego na istniejące materiały źródłowe nakładane są modyfikowane obrazy, tworząc tym samym realistyczne filmy i obrazy, przedstawiające nie mające miejsca zdarzenia. Dotychczas, technologia pozwalała głównie na obróbkę obrazów statycznych, a edycja wideo była zdecydowanie trudniejsza do wykonania. Popularyzacja sztucznej inteligencji rozwiązała te bariery techniczne, co przełożyło się na drastyczny wzrost częstotliwości występowania tego zjawiska. [5]

Film1. Deepfake w formie materiału wideo wykorzystujący wizerunek prezydenta Obamy. 

Dylematy moralne związane z deepfake

Deepfake mógłby być wykorzystany do osiągnięcia różnych celów. Technologia ta może zostać użyta w nieszkodliwych projektach, wśród których można wymienić materiały edukacyjne takie jak filmik przedstawiający prezydenta Obamę ostrzegającego o zagrożeniach związanych z deepfake’ami (patrz rysunek 2). Oprócz tego, znajduje zastosowanie w branży rozrywkowej, jak używanie cyfrowych kopii aktorów (choć to zastosowanie może wzbudzać dylematy moralne), czego przykładem jest użycie cyfrowego podobieństwa zmarłego aktora Petera Cushinga do odegrania roli Wielkiego Moffa Tarkina w filmie Łotr 1. Gwiezdne wojny – historie (patrz rysunek 2).

Rys. 2. Cyfrowa kopia aktora Petera Cushinga w roli Wielkiego Moffa Tarkina. Źródło: https://screenrant.com/star-wars-rogue-one-tarkin-ilm-peter-cushing-video/ 

Istnieje jednak również wiele innych zastosowań deepfake’ów, które mogą potencjalnie stanowić poważnie zagrożenie dla społeczeństwa. Takie spreparowane filmy mogą być używane do skompromitowania danej osoby, chociażby poprzez wykorzystanie jej podobieństwa w filmach pornograficznych. Fałszywe materiały mogą być również używane we wszelkiego rodzaju oszustwach, takich jak próby wyłudzenia pieniędzy. Przykładem takiego zastosowania jest chociażby przytoczona przez nas w poprzednim artykule sprawa lekarza, którego wizerunek został użyty w reklamie pseudoleków kardiologicznych [6]. Dużo emocji wzbudza również wykorzystywanie deepfake’ów w celach siania dezinformacji, w szczególności w obszarze polityki. Odpowiednio użyte fałszywe materiały mogą prowadzić do incydentów dyplomatycznych, zmieniać reakcję społeczeństwa na pewne tematy polityczne, dyskredytować polityków, a nawet wpływać na wyniki wyborów. [7]

Ze względu na swoją naturę, rozpowszechnienie deepfake’ów nie jest czymś, czemu można łatwo zapobiec. Rozwiązania prawne nie są w pełni skuteczne ze względu na globalną skalę problemu i naturę działania sieci społecznościowych. Wśród innych proponowanych rozwiązań problemu można wymienić opracowywanie algorytmów wykrywających sfałszowane materiały oraz edukację społeczeństwa na ten temat.

Sztuka generowana przez AI

Obecnie na rynku istnieje wiele generatorów tekstu, obrazów czy filmów wykorzystujących AI. Midjourney, DALL-E, Stable Diffuion oraz wiele innych, pomimo różnych implementacji i algorytmów za nimi stojących, łączy jedno – potrzebują ogromnych ilości danych, które, ze względu na swoje rozmiary, mogą być zdobyte wyłącznie z Internetu – często bez zgody autorów tych dzieł.  W związku z tym, wielu artystów i firm postanowiło wytoczyć pozwy wobec firm tworzących modele sztucznej inteligencji. Według pozywających, nielegalnie używają milionów zdjęć pozyskanych z Internetu, które są objęte prawami autorskimi. Najgłośniejszym przypadkiem pozwu jest ten, który wytoczyła Getty Images – agencja oferująca zdjęcia do celów biznesowych – przeciwko Stability AI, twórcy open-source’owego generatora obrazów Stable Diffusion. Agencja oskarża Stability AI o skopiowanie ponad 12 milionów obrazów z ich bazy danych bez uprzedniej zgody lub rekompensaty (patrz rysunek 3). Wyniki tej i innych spraw sądowych związanych z generowaniem obrazów przy pomocy AI ukształtują przyszłe zastosowania i możliwości tej technologii. [8]

Rys. 3. Ilustracja użyta w pozwie Getty Images przedstawiająca oryginalne zdjęcie oraz podobny obraz z widocznym znakiem wodnym Getty Images stworzony przez Stable Diffusion. Źródło: https://www.theverge.com/2023/2/6/23587393/ai-art-copyright-lawsuit-getty-images-stable-diffusion 

Oprócz prawnych problemów związanych z trenowaniem generatywnych modelów na podstawie danych objętych prawami autorskimi, istnieją również dylematy moralne na temat dzieł sztuki wykonywanych za pomocą sztucznej inteligencji. [9]

Czy AI zastąpi artystów?

Wielu artystów uważa, że sztuczna inteligencja nie jest w stanie odwzorować emocjonalnych aspektów sztuki, jakie oferują ludzkie dzieła. Oglądając filmy, słuchając muzyki oraz grając w gry odczuwamy pewne emocje, czego algorytmy nie są w stanie nam zapewnić. Nie są kreatywne w taki sam sposób jak ludzie. Istnieją również obawy co do sytuacji materialnej wielu artystów. Następują one zarówno z powodu nieotrzymywania rekompensaty za stworzone dzieła będące w zbiorach treningowych algorytmów, jak i zmniejszoną liczbę zleceń w związku z popularnością i łatwością użycia generatorów. [10]

Z drugiej strony, niektórzy artyści uważają, że inny sposób ‘myślenia’ sztucznej inteligencji jest jej atutem. Może ona tworzyć dzieła, których człowiek nie jest w stanie wytworzyć. Między innymi w ten sposób generatywne modele mogą stać się kolejnym narzędziem w rękach artystów. Dzięki nim będą mogli doprowadzić do tworzenia nieistniejących do tej pory form i gatunków sztuki, rozszerzając ludzką kreatywność.

Jak widać, popularność i możliwości generatywnej sztucznej inteligencji stale rosną. Co za tym idzie, pojawiają się liczne debaty na tematy prawne i etyczne, związane z tą technologią. Przewidujemy, że będą się one stawać coraz głośniejsze. Technologia ta ma potencjał drastycznie zmienić sposób, w jaki obcujemy ze sztuką.

Podsumowanie

Odpowiednie wykorzystywanie sztucznej inteligencji ma potencjał zostać ważnym i powszechnie wykorzystywanym narzędziem w rękach ludzkości. Może zwiększyć produktywność, ułatwić wykonywanie wielu czynności oraz rozwinąć nasze możliwości kreatywne. Technologia ta niesie ze sobą jednak pewne zagrożenia, których nie należy lekceważyć. Nierozważne wykorzystywanie pojazdów autonomicznych, sztuki AI lub deepfake’ów może doprowadzić do wielu problemów. Mogą to być straty finansowe czy wizerunkowe, ale nawet zagrożenia dla zdrowia i życia. Aby zredukować występowanie tych problemów, ważne będą dalsze postępy technologii wykrywających deepfaki. Ponad to nowe rozwiązania prawne, a także edukacja społeczeństwa na temat zagrożeń związanych ze sztuką AI oraz nowymi metodami dezinformacji i fałszywymi materiałami wideo.

Bibliografia

[1] https://www.nhtsa.gov/vehicle-safety/automated-vehicles-safety

[2] https://blog.galonoleje.pl/pojazdy-autonomiczne-samochody-bez-kierowcow-juz-sa-na-ulicach

[3] https://www.forbes.com/sites/naveenjoshi/2022/08/05/5-moral-dilemmas-that-self-driving-cars-face-today/

[4] https://www.bbc.com/news/technology-45991093

[5] https://studiadesecuritate.uken.krakow.pl/wp-content/uploads/sites/43/2019/10/2-1.pdf

[6] https://www.medonet.pl/zdrowie/wiadomosci,kolejny-lekarz-ofiara-oszustow–zostal-twarza-pseudolekow–dr-sutkowski–to-jest-kradziez,artykul,26668977.html

[7] https://businessinsider.com.pl/technologie/nowe-technologie/deepfakes-historia-falszywych-filmow-i-pomysly-na-walke-z-nimi/s17z2p0

[8] https://apnews.com/article/getty-images-artificial-intelligence-ai-image-generator-stable-diffusion-a98eeaaeb2bf13c5e8874ceb6a8ce196

[9] https://www.benchmark.pl/aktualnosci/dzielo-sztucznej-inteligencji-docenione.html

[10] https://businessinsider.com.pl/technologie/digital-poland/sztuczna-inteligencja-w-sztuce-szansa-czy-zagrozenie/7lq70sx

Chmura obliczeniowa a środowisko

Termin chmury obliczeniowej trudno jest jednoznacznie zdefiniować. Inne podejście do chmury będą miały przedsiębiorstwa czy osoby prywatne. Zwykle mówimy o chmurze obliczeniowej jako o sieci dostępnych na żądanie zasobów serwerowych – mocy obliczeniowej oraz przestrzeni dyskowej, ale również i oprogramowania – dostarczanych przez zewnętrzne podmioty, czyli tzw. dostawców chmury (ang. cloud provider). Dostarczane zasoby są dostępne przez Internet oraz zarządzane przez dostawcę, eliminując tym samym wymóg kupowania sprzętu oraz bezpośredniego zarządzania fizycznymi serwerami przez firmy. Dodatkowo, chmura jest rozproszona na wiele centrów danych w wielu rejonach świata, dzięki czemu możemy liczyć na mniejszą awaryjność oraz większą dostępność naszych usług [1].

Podstawowe działanie chmury

Zasoby dostępne w chmurze są współdzielone przez wielu klientów, dzięki czemu można lepiej wykorzystać dostępną moc obliczeniową oraz przy odpowiednim użyciu, może okazać się ona korzystniejsza cenowo. Takie podejście do współdzielenia zasobów może budzić pewne obawy, jednak dzięki wykorzystaniu technologii wirtualizacji, chmura zapewnia wyższe bezpieczeństwo niż w klasycznym modelu obliczeniowym. Wirtualizacja pozwala na tworzenie symulowanych komputerów, tzw. maszyn wirtualnych, które zachowują się tak jak ich fizyczne odpowiedniki, jednak znajdują się na jednym serwerze i są od siebie w pełni odizolowane. Współdzielenie zasobów i wirtualizacja pozwalają na efektywne wykorzystanie sprzętu oraz ostatecznie ograniczenie poboru prądu przez serwerownie. Oszczędności finansowe możemy natomiast odczuć ze względu na powszechnie stosowany przez dostawców model biznesowy “pay-as-you-go” polegający na rozliczaniu użytkowników za faktycznie wykorzystane zasoby (np. za minuty czy nawet sekundy wykorzystanego czasu obliczeniowego) w przeciwieństwie do stałego abonamentu. 

Samo określenie “chmury” zapoczątkowało się jako termin slangowy. Często na schematach technicznych infrastrukturę sieciową i serwerową reprezentujemy jako ikonę chmury [2]. Aktualnie “chmura obliczeniowa” jest powszechnie przyjętym określeniem w środowisku IT oraz popularnym modelem obliczeniowym. Przystępność cenowa chmury oraz brak konieczności samodzielnego zarządzania nią, sprawia, że ten model obliczeniowy jest coraz częściej wybierany przez firmy informatyczne, co pozytywnie przekłada się na aspekty środowiskowe [3].

Mniejsze zużycie energii elektrycznej 

Wzrastające zapotrzebowanie na rozwiązania z obszaru IT niesie za sobą równocześnie większe zapotrzebowanie na energię elektryczną – zasób strategiczny z punktu widzenia utrzymania chmury. Utrzymywanie swojej własnej serwerowni w przedsiębiorstwie wiąże się jednak z ogromnymi nakładami energetycznymi, które generuje nie tylko sam sprzęt komputerowy, ale także system do chłodzenia serwerowni. 

Wbrew pozorom większe serwerownie, które przeliczają na raz ogromne ilości danych są bardziej przyjazne środowisku niż lokalne serwerownie w przedsiębiorstwach [4]. Według badań Accenture, przeniesienie własności przedsiębiorstwa do chmury może zredukować zużycie energii nawet o prawie 65%. Jest to wynikiem tego, że największe rozwiązania chmurowe budowane są zazwyczaj w przeznaczonym do tego miejscu, co pozwala na lepszą organizację infrastruktury i zarządzanie zasobami [5]. Dostawcy dużych usług chmurowych mogą z wyprzedzeniem zaplanować system chłodzenia, który będzie dawać najlepsze efekty. Dodatkowo dysponują nowoczesnym, często dużo wydajniejszym prądowo sprzętem niż przeciętna serwerownia. W badaniach przeprowadzonych w 2019 roku, stwierdzono, że chmura AWS była 3,6 razy bardziej efektywna pod względem wykorzystywanej energii niż mediana badanych centrów danych przedsiębiorstw w USA [6].

Co więcej, ze względu na to, że chmura jest środowiskiem współdzielonym, można efektywnie sterować mocą. Skala użytkowników jednej chmury obliczeniowej pozwala na bardziej rozważne rozdysponowanie zużywanej energii pomiędzy poszczególnymi przypadkami. Zrównoważone zarządzanie zasobami umożliwia również nasz produkt Data Engineering, który zbiera i analizuje dane w celu maksymalizacji wydajności i efektywności pracy.

Zmniejszenie emisji szkodliwych substancji

Poprzez budowę centrów przetwarzania danych, które korzystają z ekologicznych źródeł energii oraz opierają się na niskoemisyjnych rozwiązaniach, można chociażby kontrolować emisję dwutlenku węgla i innych gazów mających wpływ na efekt cieplarniany. Zgodnie z danymi z raportu “The Green Behind Cloud” [7] migracje do chmury publicznej mogą zredukować globalną emisję dwutlenku węgla o 59 mln ton rocznie, co jest porównywalne do usunięcia 22 milionów samochodów z drogi.

Warto również zainteresować się migracją do dostawców mających na uwadze swój ślad węglowy. Dla przykładu chmura firmy Google jest w pełni neutralna pod względem emisji dwutlenku węgla wykorzystując energię odnawialną, a od roku 2030 zobowiązuje się do wykorzystywania wyłącznie energii bezemisyjnej przez całą dobę we wszystkich centrach danych [8]. Chmura Azure firmy Microsoft jest neutralna emisyjnie od 2012 roku, a klienci mogą śledzić emisję swoich usług w specjalnie przygotowanym kalkulatorze [9].

Redukcja hałasu związanego z użytkowaniem sprzętu IT 

Hałas klasyfikowany jest jako zanieczyszczenie środowiska. Mimo że na pierwszy rzut oka wydaje się on całkiem niepozorny i nieszkodliwy, ma on negatywny wpływ na zdrowie człowieka i jakość środowiska. W odniesieniu do człowieka, zwiększa on ryzyko chorób takich jak nowotwór, zawał serca czy nadciśnienie. Z kolei z perspektywy środowiskowej ma on wpływ na zmianę zachowania zwierząt, migracji ptaków czy też ich reprodukcję.

Głównym źródłem hałasu w rozwiązaniach przechowywania danych w serwerach w firmie jest specjalny system chłodzenia, który pozwala utrzymać odpowiednią temperaturę w serwerowni. Wykorzystanie rozwiązań chmurowych pozwala zredukować emitowany hałas przez urządzenia chłodzące w miejscach pracy, co w konsekwencji przyczynia się do zmniejszenia zanieczyszczenia środowiska hałasem.

Jeśli chcesz dowiedzieć się więcej o dostępnych rozwiązaniach pozwalających na redukcję hałasu przemysłowego, sprawdź nasz produkt Intelligent Acoustics.

Redukcja poziomu odpadów 

Zastosowanie chmury obliczeniowej w swojej działalności, w przeciwieństwie do posiadania tradycyjnych serwerów w zasobach firmowych, wpływa również na zmniejszenie ilości produkowanych odpadów komputerowych. Wynika to głównie z faktu, iż chmura obliczeniowa nie wymaga zakupu dodatkowego wyposażenia czy też przygotowania infrastruktury do serwerowni w firmie, co w późniejszej perspektywie ogranicza ilość sprzętu do utylizacji.  

Ponadto, stosowane mechanizmy wirtualizacji, polegające na zastępowaniu większej liczby serwerów z małą mocą obliczeniową na mniejsze ilości serwerów, które później skuteczniej wykorzystują ową moc, optymalizują i zwiększają wydajność serwera, a to w rezultacie zmniejsza zapotrzebowanie na zasoby sprzętowe.  

Podsumowanie 

Aktualnie działanie zrównoważone jest ważnym czynnikiem przy wyborze technologii. Ochrona środowiska staje się dla firm, a także producentów urządzeń sieciowych czy telekomunikacyjnych, sprawą priorytetową, co przekłada się na szukanie bardziej ekologicznych rozwiązań. Chmura obliczeniowa zdecydowanie wpisuje się w ten trend. Nie tylko przyczynia się do ograniczenia zużycia zasobów sprzętowych, energetycznych, a także redukuje emisję szkodliwych substancji do ekosystemu czy emitowany hałas do środowiska.  

Bibliografia

[1] https://www.wit.edu.pl/dokumenty/wydawnictwa_naukowe/zeszyty_naukowe_WITZ_06/0006_Joszczuk-Januszewska.pdf 

[2] https://rocznikikae.sgh.waw.pl/p/roczniki_kae_z36_21.pdf 

[3] http://yadda.icm.edu.pl/yadda/element/bwmeta1.element.ekon-element-000171363539  

[4] Paula Bajdor, Damian Dziembek “Środowiskowe i społeczne efekty zastosowania chmury obliczeniowej w przedsiębiorstwach”, 2018 

[5] https://www.accenture.com/_acnmedia/PDF-135/Accenture-Strategy-Green-Behind-Cloud-POV.pdf  

[6] “Reducing carbon by moving to AWS” https://www.aboutamazon.com/news/sustainability/reducing-carbon-by-moving-to-aws

[7] https://www.accenture.com/us-en/insights/strategy/green-behind-cloud

[8] “Operating on 24/7 Carbon-Free Energy by 2030.” https://sustainability.google/progress/energy/

[9] https://www.microsoft.com/en-us/sustainability/emissions-impact-dashboard

Trendy technologiczne na 2021

Rok 2020 na długo zostanie w pamięci wielu osób. Pandemia koronawirusa w krótkim czasie sprawiła, że wiele firm zmieniło swój dotychczasowy sposób działania, przystosowując się do panujących warunków. Kwestia bezpieczeństwa pracowników stała się kluczowa, stąd też wiele firm przeszło w tryb pracy zdalnej. Nie da się ukryć, iż ta sytuacja wpłynęła na przyspieszenie procesu transformacji cyfrowej w wielu branżach, przyczyniając się tym samym do szybszego rozwoju nowoczesnych technologii.

Jak co roku największe firmy analityczne publikują rankingi, w których prezentują swoje przewidywania z zakresu nowych technologii na nadchodzący rok.

Internet zachowań

Pojęcie Internetu zachowań (IoB) pojawiło się już jakiś czas temu, ale według prognoz w 2021 roku i w kolejnych latach będziemy obserwowali znaczny wzrost tego zjawiska. Polega na gromadzeniu danych o użytkownikach i łączeniu ich z określonymi rodzajami zachowań. Celem jest lepsze profilowanie klientów, a tym samym świadome wpływanie na ich zachowania oraz podejmowane decyzje. IoB wykorzystuje wiele różnych nowoczesnych technologii – od sztucznej inteligencji po systemy rozpoznawania twarzy, czy mowy. Kwestią sporną w dziedzinie IoB jest bezpieczeństwo gromadzonych danych. Także etyczne i społeczne aspekty wykorzystania tych danych w celu wywierania wpływu na konsumentów są sprawą kontrowersyjną.

Cyberbezpieczeństwo

Pandemia COVID-19 sprawiła, że znaczna część firm pracuje obecnie w trybie zdalnym. Tym samym kwestia cyberbezpieczeństwa stała się ważna, jak nigdy dotąd. Aktualnie jest to kluczowy element dla zapewnienia bezpiecznego funkcjonowania organizacji. Wraz z popularyzacją pracy zdalnej, wzrosła również liczba zagrożeń cybernetycznych. Dlatego też przewiduje się, że firmy będą inwestować we wzmocnienie zabezpieczeń, by zapewnić ochronę swoich danych i zapobiec ewentualnym atakom hakerskim.

Anywhere operations

Model „anywhere operations” jest głównym trendem technologicznym na 2021 rok. Polega on na stworzeniu środowiska informatycznego, które umożliwi pracę z dowolnego miejsca poprzez wdrażanie rozwiązań biznesowych opartych na infrastrukturze rozproszonej. Takie rozwiązanie pozwoli pracownikom dostęp do zasobów organizacji niezależnie od miejsca, w którym pracują, a także ułatwi wymianę i przepływ informacji między nimi. Według prognoz Gartnera do 2023 roku 40% organizacji wdroży u siebie ten model operacyjny.

Rozwój sztucznej inteligencji

Wśród głównych nurtów technologicznych na 2021 nie zabrakło również sztucznej inteligencji, której rozwój stale obserwujemy. Rozwiązania AI takie jak prognozowanie, rozpoznawanie mowy czy diagnostyka znajdują zastosowanie w wielu branżach. Modele uczenia maszynowego coraz częściej wdrażane są również w fabrykach, przyczyniając się do zwiększenia efektywności zachodzących w nich procesów. Przez kolejne lata będziemy obserwowali nieustający rozwój sztucznej inteligencji, a także wykorzystania ukrytego w niej potencjału.

Total Experience

Kolejnym z przewidywanych na ten rok trendów jest Total Experience (TX), który w założeniu ma łączyć odmienne spojrzenie klientów, pracowników i użytkowników celem poprawy ich doświadczeń w miejscach, w których te elementy się przenikają. Takie podejście w połączeniu z nowoczesną technologią ma zapewnić firmom przewagę konkurencyjną. Pandemia spowodowała, że interakcje pomiędzy wymienionymi grupami przeniosły się w większości do świata wirtualnego. Dlatego też ważne jest, aby doświadczenia każdej z nich przynosiły im określoną satysfakcję, co realnie wpłynie na wyniki firm.

Tegoroczne trendy technologiczne skupiają się w głównej mierze na rozwoju rozwiązań, które mają na celu poprawę jakości pracy zdalnej oraz doświadczeń związanych z przeniesieniem znacznej części naszego życia do sieci. Nie da się ukryć, że pandemia znacząco przyspieszyła rozwój technologiczny wielu firm. Zwłaszcza dla mikroprzedsiębiorstw, które musiały dostosować się do panujących warunków i wdrożyły u siebie transformację cyfrową. Istotnym aspektem wśród prognozowanych trendów niezaprzeczalnie jest zapewnienie cyberbezpieczeństwa, zarówno dla organizacji jak i osób prywatnych. BFirst.tech stara się dostosować do rosnącego zapotrzebowania na te kwestie, dlatego w swojej ofercie posiada usługę Chmura i Blockchain, która wykorzystuje nowoczesne technologie do stworzenia bezpiecznych środowisk danych.

Bibliografia

[1] https://www.gartner.com/en/newsroom/press-releases/2020-10-19-gartner-identifies-the-top-strategic-technology-trends-for-2021

[2] https://mitsmr.pl/b/trendy-technologiczne-2021/PQu9q8s0G

[3]https://www.magazynprzemyslowy.pl/artykuly/7-trendow-w-it-na-2021-rok

[4] https://www.nbc.com.pl/trendy-technologiczne-w-2021%E2%80%AFroku/

Hurtownia danych

Hurtownia danych jest jednym z bardziej powszechnych tematów w branży informatycznej. Gromadzone dane stanowią istotne źródło cennych informacji w wielu przedsiębiorstwach, zwiększając tym samym ich przewagę konkurencyjną. Coraz więcej przedsiębiorstw korzysta w swojej pracy z systemów typu Business Intelligence, które w szybki i przystępny sposób wspomagają procesy analityczne. Podstawą systemów BI są hurtownie danych i to o nich opowiemy szerzej w dzisiejszym artykule.

Czym jest hurtownia danych?

Hurtownia danych jest narzędziem, które gromadzi i przechowuje w jednym miejscu duże ilości danych, pochodzących z różnych, rozproszonych źródeł. Zebrane dane są ustrukturyzowane i przechowywane w zintegrowanej bazie danych. Hurtownie danych umożliwiają raportowanie, a także przeprowadzanie analiz. Stanowią one istotne źródło informacji w przedsiębiorstwach, wspomagając tym samym proces podejmowania decyzji biznesowych. Warto wspomnieć, że hurtownie danych służą jedynie do odczytu danych, a więc użytkownik nie ma możliwości ich modyfikacji.

Cechy hurtowni danych

Patrząc na definicję hurtowni danych możemy wyczytać cztery główne cechy, które je charakteryzują. Są to:

  • zorientowanie na temat – dane gromadzone w hurtowniach są zorganizowane wokół głównych tematów, takich jak sprzedaż, produkt, czy klient;
  • integralność – dane przechowywane w hurtowni są jednolite, np. pod względem formatu, nazewnictwa, struktur kodowania (ujednolica się je zanim trafią do hurtowni);
  • czasowość – dane pochodzą z różnych przedziałów czasowych, hurtownia zawiera zarówno dane historyczne jak i teraźniejsze;
  • nieulotność – dane w hurtowni pozostają niezmienione, użytkownik nie ma możliwości ich modyfikacji, dzięki czemu mamy pewność, że za każdym razem uzyskamy takie same wyniki.

Architektura i działanie hurtowni danych

W architekturze hurtowni danych można wyróżnić cztery podstawowe elementy składowe: źródła danych, oprogramowanie ETL, właściwą hurtownię danych oraz aplikacje analityczne. Na poniższej grafice przedstawiono uproszczony schemat budowy hurtowni danych.

Poglądowy schemat budowy hurtowni danych.
Rys. 1 Poglądowy schemat działania hurtowni danych.

Jak wynika z powyższej grafiki podstawą budowy hurtowni danych są dane. Źródła tych danych są rozproszone – należą do nich m.in. systemy ERP, CRM, SCM, czy źródła internetowe (np. dane statystyczne).

Pobrane dane są przetwarzane i integrowane, a następnie ładowane do właściwej hurtowni danych. Etap ten nosi nazwę procesu ETL, od angielskich słów: extract, transform i load. Zgodnie z poszczególnymi etapami procesu dane są najpierw pobierane z dostępnych źródeł (extract). W kolejnym kroku następuje transformacja danych (transform), czyli przetworzenie ich w odpowiedni sposób (czyszczenie, filtrowanie, walidacja, czy usuwanie zduplikowanych danych). Ostatnim etapem jest ładowanie danych (load) do docelowej bazy danych, czyli do hurtowni danych.

Jak już wcześniej wspomnieliśmy dane zebrane w hurtowni danych są wyłącznie do odczytu. Użytkownicy wywołują dane z hurtowni przy użyciu odpowiednich zapytań, uzyskując w ten sposób dane przedstawione w bardziej przyjaznej formie, tj. raportów, schematów czy wizualizacji.

Główne zadania

Jako główne zadanie hurtowni danych należy wyróżnić przetwarzanie analityczne danych (OLAP, On-Line Analytical Processing). Pozwala ono na wykonywanie różnego rodzaju zestawień, raportów, czy wykresów, prezentujących znaczne ilości danych, np. wykres sprzedaży w I kwartale roku, zestawienie produktów generujących największy przychód.

Kolejnym zadaniem, jakie pełnią hurtownie danych jest wspomaganie decyzji w przedsiębiorstwach (DSS, Decision Support System). Biorąc pod uwagę ogromną ilość informacji, jakie znajdują się w hurtowniach danych stanowią one dla firm część systemu wspomagania decyzji. Dzięki zaawansowanym analizom prowadzonym z użyciem tych baz danych znacznie łatwiej wyszukać jest dominujące trendy. Pozwalają one w znaczy sposób ułatwić kierownictwu podjęcie decyzji.

Innym z zadań tych specyficznych baz danych jest centralizacja danych w firmie. Dane pochodzące z różnych działów/szczebli przedsiębiorstwa gromadzi się w jednym miejscu, dzięki czemu każdy zainteresowany ma do nich dostęp, kiedy tylko ich potrzebuje.

Z centralizacją wiąże się kolejna rola hurtowni danych, jaką jest archiwizacja. Z uwagi na to, że dane gromadzone w hurtowni pochodzą z różnych okresów, a hurtownia na bieżąco zasila nowe, bieżące dane to samoistnie staje się ona również archiwum danych i informacji o danym przedsiębiorstwie.

Podsumowanie

Hurtownia danych to bez wątpienia przydatne i funkcjonalne narzędzie, które przynosi wiele korzyści przedsiębiorstwom. Wdrożenie tej bazy danych do swojej firmy może ułatwić i przyspieszyć część procesów zachodzących w przedsiębiorstwach. Hurtownie danych są doskonałą odpowiedzią na przechowywanie tych informacji w jednym, bezpiecznym miejscu, dostępnym dla analityków biznesowych. Jeśli chcesz wprowadzić hurtownię danych do swojej firmy, sprawdź nasz produkt Data Engineering.

Bibliografia

[1] https://www.oracle.com/pl/database/what-is-a-data-warehouse/

Bezpieczeństwo urządzeń IoT

Całkiem niedawno opisywaliśmy na naszym blogu czym jest IoT (artykuł możesz przeczytać tutaj). Przybliżaliśmy wtedy ogólną tematykę jak i nasze działania związane z tą branżą. W tym tekście skupiamy się na zagrożeniach i zabezpieczeniach urządzeń w sieci. Internet Rzeczy wkracza w nasze życie w coraz szybszym tempie. Sterowanie oświetleniem czy klimatyzacją z pozycji smartfona powoli staje się codziennością. Również wiele firm coraz chętniej wprowadza do swoich procesów rozwiązania, jakie daje IoT (mowa tu o tzw.  Przemysłowym Internecie Rzeczy, czyli IIoT – Industrial Internet of Things). Według najnowszych prognoz do 2027 roku do sieci ma być podłączone 41 mld urządzeń IoT. Choć niewątpliwie Internet Rzeczy stwarza ogromne możliwości, nie da się ukryć, że może on również przynieść całkiem nowe zagrożenia. Warto więc być świadomym, jakie niebezpieczeństwa mogą wiązać się z użytkowaniem systemów IoT.

Całkowita liczba instalacji urządzeń dla IoT wzrosta z każdym rokiem
Rys. 1 Całkowita liczba instalacji urządzeń dla IoT (źródło: http://businessinsider.com/internet-of-things-report?IR=T)

Zagrożenia

Ataki hakerskie

Rozległa sieć połączonych za pomocą Internetu urządzeń stwarza wiele okazji dla ataków hakerskich. Im więcej tego typu urządzeń, tym większa przestrzeń, która potencjalnie może zostać zaatakowana. Wystarczy, że atakujący włamie się do jednego z takich urządzeń, a w jednej chwili uzyskuje dostęp do całej sieci i danych, jakie przez nią przepływają. Stwarza to realne zagrożenie zarówno dla pojedynczych osób, jak i całych przedsiębiorstw.

Utrata danych

To właśnie utrata danych jest jednym z najczęściej wymienianych zagrożeń, jakie niesie za sobą Internet Rzeczy. Niewłaściwe przechowywanie wrażliwych danych takich jak imię i nazwisko, PESEL czy numer karty płatniczej mogą narazić nas na poważne niebezpieczeństwo. Takie dane mogą zostać wykorzystane w niepożądany dla nas sposób (np. zaciągnięcie kredytu, kradzież pieniędzy). Ponadto na podstawie danych zbieranych przez domowe urządzenia IoT atakujący w prosty sposób może poznać zwyczaje domowników. Może być to np. informacja o godzinach, w których nikt nie przebywa w domu, co może umożliwić mu skuteczne przeprowadzenie włamania.

Atak botnetowy

Kolejnym z zagrożeń jest ryzyko włączenia urządzenia IoT do tzw. botnetu, czyli sieci urządzeń zainfekowanych złośliwym oprogramowaniem, które hakerzy wykorzystują do przeprowadzania różnego rodzaju ataków. Najczęściej spotykanym atakiem botnetowym jest atak typu DDoS (ang. Distributed Denial of Service). Polega on na połączeniu się z daną stroną WWW wielu urządzeń jednocześnie, co może doprowadzić do jej czasowej niedostępności. Innym przykładem działania botnetu jest wykorzystanie zainfekowanych urządzeń do przesyłania spamu lub wytwarzania kryptowalut. Wszystkie te ataki są przeprowadzane w sposób niezauważalny dla właściciela urządzenia. Wystarczy, że klikniemy w link pochodzący z nieznanego źródła, który może zawierać złośliwe oprogramowanie, a nieświadomie stajemy się częścią ataku botnetowego.

Ataki na roboty i maszyny

Z punktu widzenia przedsiębiorstw, istotnym zagrożeniem mogą być ataki na roboty i maszyny przemysłowe, które są podłączone do sieci. Przejęcie sterowania nad urządzeniami tego typu może spowodować poważne szkody dla firm. Hakerzy mogą na przykład zmienić parametry produkcyjne jakiegoś komponentu w taki sposób, że nie będzie on od razu możliwy do wychwycenia, ale spowoduje jego dalszą bezużyteczność. Atakujący mogą również spowodować zakłócenia w pracy maszyn, czy przerwy w dostępie energii. Działania te są poważnym zagrożeniem dla firm, które mogą ponieść z tego tytułu ogromne straty finansowe.

W jaki sposób możemy się zabezpieczyć?

Choć całkowite wyeliminowanie niebezpieczeństw wynikających z użytkowania technologii IoT wydaje się być póki co niemożliwe. Istnieją jednak rozwiązania, które możemy wdrożyć w celu zwiększenia bezpieczeństwa swoich urządzeń. Poniżej przedstawiamy kilka z nich.

Silne hasło

Ważnym aspektem w kwestii bezpieczeństwa urządzeń Internetu Rzeczy jest hasło. Bardzo często użytkownicy używają prostych haseł, zawierających dane, które są łatwe do zidentyfikowania (np. imię, czy data urodzenia). Często też zdarza się, że hasło jest takie samo do kilku urządzeń, przez co łatwiej jest uzyskać do nich dostęp. Zdarza się również, że użytkownicy nie zmieniają standardowego hasła, jakie ustawia producent danego urządzenia. Istotne jest zatem, aby hasło nie było oczywiste. Coraz częściej producenci wymuszają na użytkownikach stosowanie silnych haseł. Ustawiają oni warunki, jakie hasło musi spełniać, tj. duże i małe litery, cyfry i znaki specjalne. Jest to zdecydowanie bardzo dobra praktyka, która może zwiększyć bezpieczeństwo w sieci.

Aktualizacja systemu

Kolejnym sposobem jest regularna aktualizacja oprogramowania wykorzystywanego przez urządzenia IoT. Jeżeli producenci wykryją jakąś lukę w swoich zabezpieczeniach, będą mogli uchronić użytkowników przed potencjalnym atakiem dostarczając im nową wersję oprogramowania, która eliminuje wykryte podatności. Najlepiej, jeśli urządzenie jest ustawione na automatyczną aktualizację systemu. Wówczas możemy mieć pewność, że urządzenie zawsze działa na najnowszej wersji oprogramowania.

Zabezpieczona sieć domowa

Zabezpieczenie sieci domowej jest równie ważne, co ustawienie silnego hasła dostępu. Również w tym przypadku zaleca się zmianę pierwotnego hasła, ustawionego przez dostawcę routera. Dodatkowo domowa sieć Wi-Fi powinna korzystać z szyfrowanego połączenia, jakim jest WPA2-PSK.

Konsumpcyjny umiar

Przed zakupem danego urządzenia dobrze jest się zastanowić, czy jest nam ono rzeczywiście niezbędne, czy być może traktujemy to bardziej jako fajny gadżet. Pamiętajmy, że każde kolejne urządzenie IoT w naszym otoczeniu zwiększa ryzyko potencjalnego ataku. Dlatego też kupujmy tylko te urządzenia, które są nam naprawdę potrzebne.

Zabezpieczenia producenta

Oprócz wymienionych wyżej działań, które powinny zostać podjęte przez użytkowników Internetu Rzeczy ważne jest, aby również producent urządzenia dbał o jego zabezpieczenia. Po jego stronie leży szyfrowanie komunikatów sieciowych, które zabezpiecza przechwytywanie danych podczas ich transportu. Najczęściej stosowanym zabezpieczeniem jest protokół TLS (ang. Transport Layer Security), którego celem jest właśnie zabezpieczenie danych, które przesyła się przez sieć. Ponadto producent urządzenia powinien regularnie sprawdzać swoje zabezpieczenia, dzięki czemu będzie w stanie wychwycić ewentualne luki i je wyeliminować. Dobrze też, aby urządzenia od początku były zabezpieczone przed automatycznym łączeniem z otwartymi sieciami publicznymi.

W czerwcu 2019 roku ustanowiono Akt ws. cyberbezpieczeństwa (Cybersecurity Act), który ma na celu wzmocnienie cyberbezpieczeństwa państw należących do UE. Reguluje on podstawowe wymagania, jakie muszą spełniać produkty łączące się z siecią, co przyczynia się do zwiększenia bezpieczeństwa tych urządzeń. Szybki rozwój IoT  sprawia, że podobnych regulacji będzie więcej, co znacznie wpłynie na utrzymanie globalnego cyberbezpieczeństwa.

Podsumowanie

Pojawienie się technologii IoT przyniosło ogromną rewolucję, zarówno dla pojedynczych osób jak i całych przedsiębiorstw. Choć Internet Rzeczy przynosi wiele korzyści i ułatwień, trzeba być również świadomym, że może on powodować zagrożenie dla bezpieczeństwa naszych danych, czy nas samych. Warto jednak pamiętać, że stosowanie się do kilku przytoczonych przez nas zasad może znacząco wpłynąć na zwiększenie bezpieczeństwa posiadanych urządzeń IoT.

Bibliografia

[1] https://www.businessinsider.com/internet-of-things-report?IR=T

[2] https://medium.com/read-write-participate/minimum-standards-for-tackling-iot-security-70f90b37f2d5

[3] https://www.cyberdb.co/iot-security-things-you-need-to-know/

[4] https://www.politykabezpieczenstwa.pl/pl/a/czym-jest-botnet

[5] https://www.cyberdefence24.pl/rewolucja-w-cyberbezpieczenstwie-ue-akt-ws-cyberbezpieczenstwa-wchodzi-w-zycie

Internet of Things

IoT jest szerokim pojęciem, często definiowanym w różny sposób. Aby dobrze zrozumieć czym właściwie jest Internet of Things, warto rozbić ten termin na części. Jako “Thing” w Internecie rzeczy określane są przedmioty, zwierzęta, a nawet ludzie wyposażone w inteligentne urządzenia (sensory), służące do zbierania pewnych informacji. Zatem rzeczą może być zarówno lodówka, która wykorzystuje inteligentny moduł jak i zwierzę z nałożoną inteligentną opaską monitorującą jego funkcje życiowe. Urządzenia komunikują się w celu wysyłania i odbierania danych. Aby mogły się one komunikować potrzebują połączenia z siecią, i to w IoT określa się jako “Internet” . Połączenie to może być realizowane z wykorzystaniem różnych technologii przesyłu danych. Możemy tu wymienić Wi-Fi, sieci 5G, Bluetooth, a także bardziej wyspecjalizowane protokoły jak Zigbee, który dzięki niskiemu zużyciu energii świetnie nadaje się do urządzeń IoT, w których żywotność jest kluczowa, czy Z-Wave często stosowany w systemach inteligentnych budynków.

Warto tutaj zaznaczyć, że nie każde urządzenie IoT musi mieć bezpośredni dostęp do sieci Internet. Dane zbierane przez urządzenia IoT są następnie wysyłane i analizowane. W celu efektywnego gromadzenia i analizowania, dużych zbiorów danych, a także zapewnienia wysokiej skalowalności systemu, często wykorzystuje się technologie chmurowe. W takim przypadku urządzenia Internetu rzeczy mogą wysyłać dane do chmury za pośrednictwem bramy API (ang. gateway API). Następnie dane te są przetwarzane przez różnego rodzaju oprogramowania i systemy analityczne. Do przetwarzania danych stosuje się technologie Big Data, sztuczną inteligencje oraz uczenie maszynowe.

Zastosowania IoT

IoT ma wiele obszarów zastosowań, wykorzystuje między innymi artykuły gospodarstwa domowego, oświetleniowe czy też urządzenia biometryczne.

Internet rzeczy
Rys. 1 Internet rzeczy

Na powyższej grafice przedstawionych zostało 101 terminów powiązanych z Internetem Rzeczy, które są podzielone na kategorie. Jak można zauważyć, z IoT powiązanych jest wiele technologii, które dotyczą zarówno zagadnień związanych z łącznością, przetwarzaniem i analizą danych, a także bezpieczeństwem i architekturą sieci IoT. W artykule tym nie będziemy opisywać powyższych technologii, ale warto mieć na uwadze, jak bardzo szeroką dziedziną jest IoT i jak wiele innych technologii jest w niej wykorzystywanych. Internet Rzeczy rozwija się w bardzo szybkim tempie, notując wysokie coroczne wzrosty. Według różnych szacunków rynek IoT będzie rozwijał się w kolejnych latach w 30-sto procentowym tempie, a w Polsce tempo to może osiągnąć nawet 40%. Do 2018 roku podłączonych było około 22 miliardy urządzeń Internetu rzeczy, szacuje się, że do 2025 roku liczba ta może wzrosnąć nawet do 38.6 miliarda urządzeń.

Przyszłość Internet of Things

Internet Rzeczy znajduje zastosowanie w coraz to nowych dziedzinach naszego życia. Artykuły gospodarstwa domowego oraz artykuły oświetleniowe to rzeczy, z których korzystamy praktycznie codziennie. Jeśli zwykłym przedmiotom dodamy „inteligencję”, łatwiej nam będzie zarządzać całym ekosystemem naszego domu lub mieszkania. Co za tym idzie, będziemy mogli optymalizować koszty zużywania sprzętu oraz czas wykonywanych przez nie czynności. Zbieranie ogromnych ilości danych, które następnie będą przetwarzane i analizowane mają dać w przyszłości jeszcze lepsze rozwiązania. Ostatnio często mówi się, że “Dane to złoto XXI wieku.”, a IoT służy m.in do zbierania tych danych. Przy takim rozwoju IoT niedługo inteligentne urządzenia będą towarzyszyć nam w zdecydowanej większości codziennych czynności.

Kontrowersje Internet of Things

Rozwój Internetu Rzeczy wprowadzi wiele zmian w życiu codziennym. Największym problemem z tym związanym jest bezpieczeństwo. Liczba danych gromadzonych przez urządzenia, które bardzo często nie mają zabezpieczeń lub są one na bardzo niskim poziomie naraża użytkownika na wyciek lub brak kontroli nad takimi danymi. Kolejną kwestią jest spór o to, kto powinien mieć dostęp do danych. Poruszane są tutaj kwestie moralne takie jak to, czy duże korporacje powinny mieć możliwość codziennego podsłuchiwania użytkownika. Firmy swój sposób działania tłumaczą tym, że zbierane dane to narzędzie do rozwoju oferowanych usług.

Przeciwnicy z kolei podnoszą argument przeciwny jako ingerencję w prywatność użytkownika oraz niepewność z tym, gdzie gromadzone dane mogą trafić. Jednak pojawia się nowa droga, a jest nią wykorzystanie technologii blockchain do bezpiecznego przechowywania danych w sieci IoT. Dzięki wykorzystaniu zdecentralizowanej sieci blockchain, nie będzie centralnej jednostki mającej kontrole nad danymi użytkownika. Technologia ta zapewnia także niezaprzeczalność danych, oznacza to pewność, że dane te nie zostały przez nikogo zmodyfikowane.

Kto skorzysta z Internet of Things?

IoT kieruje się do różnych gałęzi gospodarki. Rozwiązania buduje się zarówno z myślą o rynku konsumenckim oraz rynku biznesowym. Teoretycznie więc na IoT skorzystają wszyscy. Przedsiębiorstwa zajmujące się tym tematem będą miały ogromne pole do zagospodarowania swoich rozwiązań. Nadchodząca rewolucja zmieni także nasze życie w wielu obszarach. Zwykły użytkownik też skorzysta, ponieważ otrzyma dostęp do wielu rozwiązań, które uproszczą jego życie. Internet Rzeczy stwarza ogromne możliwości, ale nie da się ukryć, że może on również przynieść całkiem nowe zagrożenia. Więcej o zabezpieczaniu urządzeń IoT możesz przeczytać w naszym artykule.

BFirst.Tech oraz IoT

Jako firma specjalizująca się w branży nowych technologii nie jesteśmy bierni także w temacie IoT. Współpracując z firmą Vemmio opracowujemy projekt asystenta głosowego, dzięki któremu będzie można zarządzać domem lub mieszkaniem w formule Smart Home. Nasze rozwiązanie pozwoli zaimplementować asystenta głosowego na centralne urządzenie sterujące systemem Smart Home. Więcej informacji o naszych projektach znajdziesz tutaj.

Za pomocą weryfikacji biometrycznej najpierw sprawdzany jest głos, który wydał komendę uruchamiającą urządzenie. Jeśli głos zostanie zweryfikowany pozytywnie, to urządzenie jest gotowe do działania i wydawania komend, przez które można zarządzać urządzeniami domowymi. Właśnie na tym polega idea Smart Home. Rozwiązanie to umożliwia zarządzanie mieszkaniem lub mniejszymi jego segmentami albo nawet całym budynkiem.

Poszczególne sprzęty AGD, oświetlenie czy inne rzeczy są skonfigurowane z urządzeniem, które pomaga nam w zarządzaniu naszym gospodarstwem. Tak wygląda strona techniczna, w której sprzęty muszą być kompatybilne z urządzeniem zarządzającym. Dzięki temu centrum sterowania znajduje się w jednym miejscu, a dziś standardem jest już to, że można zarządzać całym systemem z pozycji smartfona. Funkcjonalność asystenta głosowego umożliwia obsługę całego systemu bez konieczności fizycznego używania aplikacji. Parzenie kawy w ekspresie, regulacja poziomu oświetlenia lub wybór programu oszczędzania energii będzie można wykonać za pomocą komend głosowych.

Bibliografia

[1] http://www.ericsson.com/en/mobility-report/reports/november-2019?gclid=CjwKCAiAvonyBRB7EiwAadauqWaie96-SXyvRu_e7gBRgaYd8mozXvppEE_6LPCAeA3TsR6l5sQuNxoCxUwQAvD_BwE&gclsrc=aw.ds

[2] http://www.sas.com/content/dam/SAS/en_us/doc/whitepaper1/non-geek-a-to-z-guide-to-internet-of-things-108846.pdf