Sztuczna Inteligencja – narzędzie do bicia ludzkich rekordów

Go, wywodząca się z Chin gra z historią liczącą ponad 2500 lat oraz szachy, które wywodzą się z Indii od ok. 1500 lat, to najpopularniejsze strategiczne gry planszowe na świecie o znaczeniu nie tylko rozrywkowym, ale również kulturowym. Zasady są jasne i precyzyjne, przez co próg wejścia dla nowych graczy dla obu wspomnianych gier jest bardzo niski. Właśnie ta prostota jest źródłem wymyślania niebanalnych rozwiązań, taktyk, a przede wszystkim ogromnego ludzkiego wysiłku intelektualnego – wszystko po to, aby pokonać przeciwnika. 

Sztuczna Inteligencja to nie tylko temat poważnych zastosowań takich jak Inteligent Acoustics w przemyśle, Aritificial Intelligence Adaptation w badaniach rozwojowych czy Data Engineering. Te i inne algorytmy są wykorzystywane również w różnych dziedzinach rozrywki. Używa się ich do tworzenia modeli, sztucznych zawodników, którzy mają na celu pokonać ludzkich graczy w grach planszowych, a nawet w e-sporcie. 

Na przełomie XX i XXI wieku szachy i Go doczekały się swoich cyfrowych wersji. Pojawiły się także gry komputerowe, w których gracze walczą o pierwsze miejsce w tabeli i tytuły e-sportowych mistrzów. Równolegle z nimi powstało wiele modeli sztucznej inteligencji z odpowiednio zaimplementowanymi zasadami. Stało się to, aby wyszukiwać jeszcze lepsze zagrania oraz pokonywać ludzkich graczy. W niniejszym wpisie opisuję jak gry planszowe, komputerowe i sztuczna inteligencja wzajemnie się dopełniają i inspirują. Pokażę również, jak odpowiednio wytrenowany model sztucznej inteligencji pokonał nie tylko pojedynczych współczesnych arcymistrzów, ale też całe zespoły.

Sztuczna Inteligencja podbija gry planszowe

Historia, w której sztuczna inteligencja pokonała arcymistrza szachowego, ma swoje korzenie w projekcie Deep Blue prowadzonym przez firmę IBM. Głównym celem projektu było stworzenie komputerowego systemu szachowego. Deep Blue był wynikiem wieloletnich prac naukowców i inżynierów. Pierwsza wersja Deep Blue została opracowana w latach 80. XX wieku. Wykorzystywał on zaawansowane algorytmy t.j.: 

  • Przeszukiwanie drzewa gry (Tree Search) na podstawie bazy danych z ruchami i pozycjami szachowymi, 
  • Ocena pozycji (Position Evaluation), 
  • Przeszukiwanie głębokie (Depth Search). 

W 1996 roku doszło do pierwszego meczu między Deep Blue a Garri Kasparowem. Mecz ten miał charakter eksperymentalny i był pierwszym, tego typu, oficjalnym spotkaniem. Kasparow wtedy wygrał trzy partie, remisując i przegrywając jedną. W maju 1997 roku w Nowym Jorku doszło do ponownego starcia. Tym razem Garii Kasparow poległ w pojedynku ze sztuczną inteligencją. Deep Blue zwyciężyło dwukrotnie, trzykrotnie uznano remis, a przegrało tylko raz.

Rys. 1 Garii Kasparow rozgrywa partię z Deep Blue w maju 1997 roku. 

Źródło: https://www.scientificamerican.com/article/20-years-after-deep-blue-how-ai-has-advanced-since-conquering-chess/ 

Mniej znaczy więcej

Równie ciekawym przypadkiem jest program stworzony przez firmę DeepMind o nazwie AlphaGo. Ta sztuczna inteligencja została zaprojektowana do gry w Go, o czym świat się przekonał, kiedy pokonała arcymistrza Go, Lee Sedola. Go jest dla znacznie trudniejsze od innych gier, w tym również szachów. Wynika to z dużo większej liczby możliwych ruchów, co utrudnia stosowanie tradycyjnych metod AI, takich jak wyszukiwanie wyczerpujące [1, 2]. DeepMind rozpoczęło prace nad programem AlphaGo w 2014 roku. Celem było stworzenie algorytmu, który mógłby konkurować z mistrzami. Wykorzystywał on zaawansowane techniki uczenia maszynowego:

  • Głębokie uczenie (ang. Deep Learning), 
  • Uczenie ze wzmocnieniem (ang. Reinforcement Learning, RL), 
  • Monte Carlo Tree Search

Pierwszym znaczącym osiągnięciem AlphaGo było pokonanie europejskiego zawodnika Fana Huiego w październiku 2015 roku. Silnik od DeepMind całkowicie zdominował każdą z partii wygrywając tym samym pięć do zera [3]. Kolejnym krokiem było pokonanie arcymistrza Lee Sedola. W trakcie meczów sztuczna inteligencja zaskoczyła nie tylko swojego przeciwnika, ale również ekspertów swoimi nietypowymi i kreatywnymi ruchami. Program wykazywał się zdolnością do przewidywania strategii i dostosowywania się do zmieniających się warunków na planszy. W rezultacie po rozgrywkach toczących się w dniach 9-15 marca 2016 roku, AlphaGo odniosło historyczne zwycięstwo nad Lee Sedolem, wygrywając serię pięciu meczów 4-1.

Rywalizacja na cyfrowych planszach

W 2018 roku OpenAI stworzyło zespół sztucznych graczy, tzw. botów, nazwany OpenAI Five. Drużyna botów zmierzyła się z profesjonalnymi graczami w grze Dota 2, jednej z najbardziej skomplikowanych gier typu MOBA (Multiplayer Online Battle Arena). Dwie pięcioosobowe drużyny walczą tam przeciwko sobie, aby zniszczyć bazę przeciwnika. Do “wytrenowania” OpenAI Five wykorzystano kilka zaawansowanych technik i koncepcji uczenia maszynowego: 

  • Uczenie ze wzmocnieniem – boty uczyły się podejmować decyzje poprzez interakcję ze środowiskiem i otrzymywanie nagród za określone akcje, 
  • Proximal Policy Optimization (PPO) – jest to konkretna technika RL, która, jak podają twórcy, była kluczowa do osiągnięcia sukcesu [5]. Metoda ta optymalizuje tzw. politykę (czyli strategię podejmowania decyzji) w sposób, który jest bardziej stabilny i mniej podatny na oscylacje w porównaniu do wcześniejszych metod, takich jak Trust Region Policy Optimization (TRPO) [6],
  • Samoistne uczenie się – sztuczni zawodnicy rozgrywali miliony gier przeciwko sobie. Dzięki temu mogli oni rozwijać coraz bardziej zaawansowane strategie, ucząc się na podstawie swoich błędów i sukcesów. 

W sierpniu 2018 roku sztuczna inteligencja pokonała półprofesjonalny zespół Pain Gaming na corocznych mistrzostwach świata Dota. W 2019 roku, podczas wydarzenia OpenAI Five Finals, boty pokonały zespół składający się z najlepszych graczy, w tym członków zespołu OG, zwycięzców The International w 2018. Z kolei DeepMind nie poprzestało na AlphaGo i skierowało swoje zainteresowanie w stronę gry StarCraft II. To jedna z najpopularniejszych gier strategicznych czasu rzeczywistego (RTS) tworząc program AlphaStar. Sztuczna inteligencja stanęła do pojedynków jeden na jeden z profesjonalnymi graczami StarCraft II w 2019 roku. W styczniu pokonała czołowych graczy tej strategii – dwukrotnie Grzegorza „MaNa” Komincza, a także zwyciężyła nad Dario „TLO” Wünschem. AlphaStar w ten sposób udowodnił swoje zdolności. 

Sztuczna Inteligencja w e-sporcie

Sztuczna inteligencja odgrywa coraz większą rolę w szkoleniu profesjonalnych zespołów e-sportowych, szczególnie w takich krajach jak Korea Południowa, gdzie Liga Legend (ang. League of Legends) jest jedną z najpopularniejszych gier. Oto kilka kluczowych obszarów, w których AI jest wykorzystywana do szkoleń w profesjonalnych organizacjach takich jak T1, czy Gen.G

Zespoły analityków wykorzystują ogromne ilości zgromadzonych danych z rozgrywek ligowych i towarzyskich. Analizują statystyki meczów, takie jak liczba asyst, zdobyte złoto, najczęściej obierane ścieżki i inne kluczowe wskaźniki. Dzięki temu trenerzy mogą zidentyfikować wzorce i słabości zarówno u swoich zawodników, jak i przeciwników. 

Zaawansowane narzędzia treningowe wykorzystujące sztuczną inteligencję, takie jak „AIM Lab” czy „KovaaK’s”, pomagają graczom rozwijać konkretne umiejętności. Takie narzędzia mogą spersonalizować programy treningowe, które skupiają się na poprawie reakcji, celowania, decyzji taktycznych i innych kluczowych aspektów gry. 

Wykorzystywane są również do tworzenia zaawansowanych symulacji i scenariuszy gry, naśladując przy tym różne sytuacje, które mogą wystąpić w trakcie meczu, umożliwiając graczom trening w warunkach zbliżonych do rzeczywistych. Dzięki temu zawodnicy mogą lepiej przygotować się na niespodziewane wydarzenia i szybciej podejmować lepsze decyzje podczas faktycznych spotkań. 

Algorytmy SI mogą być używane do optymalizacji składu zespołu, analizując dane dotyczące indywidualnych umiejętności i preferencji graczy. Wyniki takich badań mogą sugerować, którzy zawodnicy powinni grać na jakich pozycjach. Mogą również pomóc dobrać skład osobowy, aby zmaksymalizować skuteczność zespołu.

Podsumowanie

Artykuł przedstawia, jak sztuczna inteligencja zdominowała gry planszowe i na stałe zawitała w e-sporcie. Pokonała ludzkich mistrzów w szachach, Go, Dota 2 i StarCraft II. Sukcesy projektów takich jak Deep Blue, AlphaGo, OpenAI Five i AlphaStar pokazują potencjał SI w tworzeniu zaawansowanych strategii i doskonaleniu technik gry. Przyszłe możliwości rozwoju obejmują jej wykorzystanie w tworzeniu bardziej realistycznych scenariuszy, opracowywania szczegółowych i spersonalizowanych ścieżek rozwoju graczy oraz analizy predykcyjne, które mogą rewolucjonizować treningi i strategie w różnych branżach.

Bibliografia

[1] Google achieves AI ‘breakthrough’ by beating Go champion, „BBC News”, 27 stycznia 2016 

[2] AlphaGo: Mastering the ancient game of Go with Machine Learning, „Research Blog” 

[3] David Larousserie et Morgane Tual, Première défaite d’un professionnel du go contre une intelligence artificielle, „Le Monde.fr”, 27 stycznia 2016, ISSN 1950-6244 

[4] https://openai.com/index/openai-five-defeats-dota-2-world-champions/ dostęp 13.06.2024 

[5] https://openai.com/index/openai-five/ dostęp 13.06.2024 

[6] Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347

Dolina niesamowitości 

Dolina niesamowitości (ang. uncanny valley) to pojęcie odnoszące się do powszechnego, niepokojącego wrażenia doświadczanego przez ludzi w sytuacji, kiedy robot w bardzo dużym stopniu przypomina człowieka, ale nie jest dostatecznie przekonująco realistyczny [1]. Zjawisko to po raz pierwszy pojawiło się w latach 70. XX wieku, kiedy to japoński robotyk Masahiro Mori zaobserwował, że roboty stają się tym bardziej interesujące, im bardziej przypominają swoim wyglądem człowieka, ale tendencja ta utrzymuje się tylko do pewnego momentu. Określił on wówczas ten fenomen jako bukimi no tani (pol. dolina niesamowitości). Po „osiągnięciu” bukimi no tani poczucie zainteresowania zamienia się w poczucie obcości, niepokoju lub nawet strachu [2].

Rys. 1. Wykres obrazujący zjawisko doliny niesamowitości. 

Źródło: https://www.linkedin.com/pulse/uncanny-valley-personalization-mac-reddin-/  

Dlaczego doświadczamy zjawiska doliny niesamowitości?

Na dzień dzisiejszy nie jest nam znana jedna, konkretna odpowiedź na to pytanie. Istnieje natomiast kilka teorii, które pozwalają lepiej zrozumieć przyczyny występowania tego zjawiska. Przyczyny te dzielimy na: 

  • Neurologiczne 

W badaniu przeprowadzonym w 2019 roku, Fabian Grabenhorst wraz z zespołem neurologów poddali analizie neurologiczny aspekt doliny niesamowitości. Zbadali oni wzorce mózgowe u 21 osób wykorzystując funkcjonalne obrazowanie metodą rezonansu (fMRI), czyli technikę pomiaru zmian w przepływie krwi w różnych obszarach mózgu. Podczas testów uczestnicy określali swój poziom zaufania względem ludzi oraz robotów o różnym poziomie ludzkiego podobieństwa. Wyniki pokazały, że pewne konkretne części mózgu były szczególnie ważne w kontekście uncanny valley. Dwie części przyśrodkowej kory przedczołowej – odpowiedzialnej za uwagę i zmysły – wykazały pewną niestandardową aktywność. Jedna z nich przekształciła „sygnał podobieństwa do człowieka” w „sygnał wykrycia człowieka” oraz nadmiernie wyeksponowała granicę między człowiekiem a nie-człowiekiem. Z kolei druga, skorelowała ten sygnał z oceną sympatii. Połączenie to utworzyło mechanizm, który ściśle przypomina to, czym charakteryzuje się dolina niesamowitości.

  • Psychologiczne

Okazuje się, że już w 1919 roku Sigmund Freud zaobserwował zjawisko, które opisał jako „dziwna emocja odczuwana przez ludzi, którą budzą pewne przedmioty”. Sugerował, że uczucie, które nam wtedy towarzyszy może być związane z wątpliwościami co do tego, czy coś nieożywionego, co obserwujemy, posiada duszę. Co ciekawe, w tamtym czasie jego spostrzeżenie odnosiło się oczywiście nie do robotów, lecz do realistycznych lalek czy też figur woskowych, co sugeruje, że zjawisko to może być starsze niż nam się wydaje oraz występować na większej ilości płaszczyzn niż tylko wśród maszyn. Dzisiaj podobny mechanizm wykorzystywany jest w branży filmowej. Wiele horrorów nadaje cechy ludzkie postaciom, które ludźmi nie są.

  • Ewolucyjne

Uncanny valley może być również powiązana z ewolucją. Roboty, które klasyfikujemy do doliny niesamowitości, wyglądają jak ludzie, ale posiadają również cechy, które wyraźnie nie są ludzkie. Niektóre z tych cech, takie jak skóra pozbawiona życia, nienaturalne rysy twarzy czy też głos nieadekwatny do wyglądu, mogą kojarzyć się nam z czymś odstającym od normy, czy nawet niebezpiecznym. To z kolei wywołuje w nas uczucie niechęci, strachu. Kiedy mamy do czynienia z czymś, co jest ludzkie, ale nierealistyczne, nie „jak żywe”, budzi to w nas odczucie podobne do takiego, którego doświadczamy, kiedy stykamy się z czymś, co jest martwe.

  • Kognitywne

Zjawisko doliny niesamowitości może również wynikać z egzystencjonalnego strachu przed zastąpieniem ludzi przez roboty. Widok robota, który swoim wyglądem przypomina człowieka, ale człowiekiem nie jest, zaburza nasze oczekiwania względem tego, jak wygląda człowiek, a jak wygląda robot. Budzi to w nas wątpliwości odnośnie do tego, kim jest człowiek, jak powinien wyglądać oraz jak powinien się zachowywać. Warto zauważyć, że niepokój nie wynika z samego faktu istnienia robotów, lecz z faktu istnienia takich robotów, które łączą w sobie elementy zazwyczaj nie występujące razem. Przykładowo, roboty „brzmiące jak roboty” nie stanowią dla nas problemu, natomiast roboty posługujące się typowo ludzkim głosem, już tak [2] [3].

Dolina niesamowitości w rzeczywistości

Fenomen doliny niesamowitości obecny jest w wielu różnych dziedzinach. Poza obszarem robotyki, zaobserwować możemy go również w grach komputerowych, czy filmach wykorzystujących technologię CGI, czyli obrazy generowane komputerowo. Efekt ten wykracza poza świat technologii i powodować go mogą przedmioty takie jak realistyczne lalki, manekiny czy figury woskowe.

  • Sophia

Fot. 1. Zdjęcie przedstawiające robota Sophia. 

Źródło: https://pl.wikipedia.org/wiki/Plik:Sophia_%28robot%29.jpg  

Sophia jest najbardziej zaawansowanym robotem humanoidalnym, jaki dotychczas powstał. Stworzona przez Hanson Robotics, po raz pierwszy aktywowana została w 2016 roku. Uzyskała obywatelstwo Arabii Saudyjskiej, stając się tym samym pierwszym robotem-obywatelką na świecie. Przyznany został jej tytuł Ambasadorki Innowacji Programu Rozwoju Narodów Zjednoczonych. Rozpoznawalność zyskała również dzięki występom w programach telewizyjnych, takich jak Good Morning Britain czy The Tonight Show [4]. Sophia posiada umiejętność wyrażania różnych złożonych emocji, przybierania ludzkich wyrazów twarzy i wchodzenia w interakcje z innymi ludźmi. Wyposażona jest w umiejętność przetwarzania oraz posługiwania się językiem naturalnym, rozpoznawania twarzy oraz śledzenia wizualnego [5]. Jej „skóra” wykonana jest ze specjalnego materiału, opracowanego przez naukowców z Hanson Robotics, który nazwany został Frubber. Jest to rodzaj gumy, która swoją fakturą i elastycznością przypomina ludzką skórę [6]. Z powodu jej wyglądu i zachowań, które są bardzo bliskie tym odpowiadającym człowiekowi, wciąż są zbyt nienaturalne. Sophia jest klasyfikowana do doliny niesamowitości, mogąc budzić w nas tym samym uczucie dyskomfortu oraz niepokoju.

  • Ekspres polarny

Rys. 2. Komputerowo wygenerowany kadr z filmu Ekspres polarny. 

Źródło: https://collider.com/worst-cases-of-uncanny-valley-movies/ 

Ekspres polarny to film animowany w reżyserii Roberta Zemeckisa, powstały w 2004 roku. Film zrealizowany został z wykorzystaniem technologii CGI, która zdaniem wielu wykorzystana została w sposób nietrafny. Sami producenci ekranizacji mieli sprzeczną wizję, wobec tego w jaki sposób powinien powstać film. Robert Zemeckis w wywiadzie dla Wired powiedział, że „live-action wyglądałoby okropnie i byłoby niemożliwe do zrealizowania – kosztowałoby 1 miliard dolarów zamiast 160 milionów dolarów”. Natomiast Tom Hanks, odgrywający w filmie rolę aż siedmiu postaci, twierdził, iż film nie powinien powstać w wersji animowanej [7]. Twórcy znaleźli pewnego rodzaju porozumienie, łączące ze sobą te dwa podejścia. Wykorzystali oni technologię przechwytywania ruchu (ang. motion capture), czyli metodę polegająca na rejestrowaniu ruchów aktorów, a następnie zapisywaniu ich w komputerze. Jednak krytycy twierdzą, iż twórcom nie udało się dobrze odzwierciedlić postaci, przez co wydają się one niedostatecznie realistyczne. Bohaterom brakuje ludzkich emocji oraz mimiki, poruszają się w sposób nienaturalny, a ich oczy wydają się być ciągle „nieobecne”.

Konsekwencje doliny niesamowitości

Zjawisko doliny niesamowitości ma znaczący wpływ na przyszłość wielu różnych obszarów naszego życia. Dzięki obecnej wiedzy, jakie niechciane uczucia może powodować to zjawisko, robotycy, producenci filmów oraz projektanci gier wideo mogą uwzględniać ten problem w swoich działaniach. Na ten moment wiadomo już, że warto tworzyć roboty, które nie powodują braku zaufania pomiędzy maszyną, a użytkownikiem. W przeciwnym razie narażone będą one na zły odbiór oraz mniejszą przydatność w osiągnięciu zamierzonego celu. Z kolei w filmach, zbyt realistyczne postacie wygenerowane komputerowo w najlepszym przypadku wywołać mogą brak sympatii ze strony widza, a w najgorszym uczucia takie jak niepokój, czy nawet strach. Dlatego właśnie twórcy filmów często decydują się na wręcz zbyt przesadne uwydatnienie niektórych cech fizycznych swoich bohaterów. Nadawanie postaciom charakterystyk takich jak przesadnie duże oczy, nienaturalny kolor skóry czy nadmiernie dynamiczne ruchy stanowi jeden ze sposobów na radzenie sobie z uniknięciem efektu wywołanego przez dolinę niesamowitości. Podobne mechanizmy zachodzą również w grach komputerowych – projektanci mogą chcieć starać się tworzyć swoje postacie z myślą o niezbyt przesadnym realizmie, gdyż w przeciwnym razie mogą spotkać się z negatywnym odbiorem ze strony graczy. Choć istnieją również wyjątki – w niektórych przypadkach filmowcy lub projektanci gier mogą chcieć uzyskać postacie, które celowo „wpadają” do uncanny valley. Dzięki temu mogą mieć kontrolę chociażby nad tym, w jaki sposób odbierane będą czarne charaktery. Bohater, który przejawiał będzie pewne nienaturalne, lecz jednocześnie zbyt realistyczne cechy, wywoływał będzie poczucie niechęci wśród odbiorców [8] [9].

Dolina niesamowitości a UX

Bardzo ciekawe zagadnienie w kontekście uncanny valley stanowi również jej wpływ na projektowanie interfejsów użytkownika. Dodanie pewnych elementów realistycznych do wyglądu interfejsu może mieć pozytywne skutki. Przykładowo, światło i cień nadają poczucia możliwości naciśnięcia danego elementu, a dźwięk może stanowić odpowiednik danego odgłosu, który usłyszymy również w prawdziwym życiu. Jednak dodanie zbyt dużej ilości realizmu może prowadzić do powstania zbyt cienkiej granicy pomiędzy tym co wirtualne, a tym co rzeczywiste. Przykładowo, bardzo detaliczna aplikacja kalendarza, którego faktura przypomina prawdziwy papier. Fakt, że nie jesteśmy w stanie go dotknąć, a jedynie „przewijać” na ekranie komputera czy też smartfona, może sprawiać dla nas wrażenie czegoś dziwnego, „niepasującego”. Dlatego tak istotne jest, aby nie dążyć do osiągnięcia elementów, które wręcz w całkowity sposób odzwierciedlają realne obiekty. Dzięki zachowaniu odpowiedniego balansu pomiędzy realizmem a fikcją, doświadczenie użytkownika staje się przyjemne oraz pozbawione dylematów [10].

Rys. 3. Grafika przedstawiająca bardzo realistyczne logo Google Chrome z 2008 roku oraz jego unowocześnioną, znacznie mniej realistyczną wersję z 2011. 

Źródło: https://bpando.org/2011/03/17/the-new-chrome-logo/  

Podsumowanie

Ludzie doświadczają niepokoju, gdy napotykają wyglądające niemal jak prawdziwe, ale wciąż niedostatecznie realistyczne jednostki przypominające ludzi – zjawisko to określane jest jako dolina niesamowitości. Ma ono kluczowe znaczenie w różnych dziedzinach. Jego przykłady obejmują zaawansowane roboty, postacie generowane komputerowo czy nawet formy wykraczające poza sferę technologii, takie jak lalki czy figury woskowe. Konsekwencje uncanny valley mogą w znaczącym stopniu wpływać na akceptację oraz użyteczność danej technologii. W kontekście UX, świadomość istnienia doliny niesamowitości jest kluczowa dla projektantów, którzy starają się zminimalizować niepożądane efekty poprzez odpowiednie zaprojektowanie interfejsów tak, aby użytkownicy czuli się komfortowo oraz byli zaangażowani w interakcje z produktami.

Bibliografia

[1] https://www.techtarget.com/whatis/definition/uncanny-valley  

[2] https://spectrum.ieee.org/what-is-the-uncanny-valley  

[3] https://www.sciencefocus.com/news/uncanny-valley-what-is-it-and-why-do-we-experience-it  

[4] https://aidriven.pl/ai/etyka-i-prawo/robot-sophia-jak-humanoidy-zmieniaja-nasze-postrzeganie-ai/ 

[5] https://robotsguide.com/robots/sophia 

[6] https://www.hansonrobotics.com/the-making-of-sophia-frubber/ 

[7] https://faroutmagazine.co.uk/the-disturbing-valley-robert-zemeckis-polar-express/  

[8] https://www.techtarget.com/whatis/definition/uncanny-valley  

[9] https://www.verywellmind.com/what-is-the-uncanny-valley-4846247 

[10] https://cassidyjames.com/blog/uncanny-valley-curve/

Społeczeństwo 5.0

Idea Society 5.0 polega na stworzeniu superinteligentnego społeczeństwa, w którym różne społeczne wyzwania rozwiązywane są poprzez wdrożenie innowacji czwartej rewolucji przemysłowej – takich jak: IoT, Big Data, Sztuczna Inteligencja (AI), robotyka czy ekonomia współdzielenia – do każdej branży oraz w życie społeczne. W tak wyglądającym świecie, ludzie, maszyny oraz ich otoczenie, są ze sobą połączone i potrafią komunikować się między sobą [1]. W praktyce, Społeczeństwo 5.0 będzie m.in. dążyło do zapewnienia lepszej opieki seniorom. Na przykład w Japonii społeczeństwo starzeje się bardzo szybko. Jeśli kiedykolwiek w przyszłości miałoby zabraknąć rąk do zajmowania się osobami starszymi, to właśnie nowa jakość przetwarzania danych będzie w stanie podnieść standard opieki zdrowotnej dla emerytów [2]. Społeczeństwo 5.0 to termin odnoszący się do nowej idei społeczeństwa. W takiej koncepcji rozwój technologiczny koncentruje się na człowieku i poszukuje wartościowych rozwiązań dla życia ludzi na całym świecie.

Rozwiązania dla Lepszego Życia

Rys. 1. Ilustracja przedstawiająca plan transformacji społecznej Japonii – Society 5.0. 
Źródło: https://www.japan.go.jp/abenomics/_userdata/abenomics/pdf/society_5.0.pdf

[Dostęp: 07.03.2024] 

Historia rozwoju społeczeństwa

Społeczeństwo 5.0 jest wynikiem niczego innego, jak ewolucji obejmującej pięć etapów rozwoju społecznego: 

  • Society 1.0: Społeczeństwo zbieracko-łowieckie (sposób życia pierwszych ludzi, trwał do około 12 000 lat temu) – społeczeństwo, które swój styl życia opiera na polowaniu i łowieniu zwierząt oraz poszukiwaniu dzikiej roślinności i innych rodzajów składników odżywczych [3]. 
  • Society 2.0: Społeczeństwo rolnicze (pierwszy raz pojawia się około 10 000 – 8 000 lat temu) – społeczeństwo, które koncentruje swoją gospodarkę przede wszystkim na rolnictwie i uprawie dużych pól [4]. 
  • Society 3.0: Społeczeństwo przemysłowe (od końca XVIII wieku) – społeczeństwo, w którym dominującym sposobem organizacji życia są technologie produkcji masowej, wykorzystywane do wytwarzania ogromnych ilości towarów w fabrykach [5]. 
  • Society 4.0: Społeczeństwo informacyjne (od drugiej połowy XX wieku) – społeczeństwo, w którym tworzenie, rozpowszechnianie, wykorzystywanie, integrowanie i zarządzanie informacją jest istotnym aspektem działalności gospodarczej, politycznej czy kulturalnej [6].

Integracja technologiczna dla lepszej jakości życia

Koncepcja zbierania danych z otaczającego nas świata, przetwarzania ich przez komputery oraz wykorzystywania ich w praktyce nie jest w dzisiejszym świecie nowością. Na dokładnie takiej zasadzie oparte jest działanie, przykładowo, klimatyzatorów. Regularnie wykonują one pomiar temperatury w pomieszczeniu, a następnie porównują odczyt z wcześniej zaprogramowaną temperaturą. W zależności od tego, czy zmierzona temperatura jest większa, czy mniejsza od pierwotnie ustawionej, urządzenie wstrzymuje lub uruchamia przepływ powietrza. Mechanizm ten wykorzystuje zautomatyzowane systemy komputerowe. Termin „społeczeństwo informacyjne” (Society 4.0) odnosi się zatem do społeczeństwa, w którym każdy z takich systemów pozyskuje dane, przetwarza je, a następnie wykorzystuje w swoim własnym, sprecyzowanym środowisku.

Wiedząc już dokładnie, na czym polega idea Społeczeństwa 4.0, możemy zrozumieć, co w istocie odróżnia je od Społeczeństwa 5.0. Zasadnicza różnica polega na tym, że Society 5.0 zamiast wykorzystywać systemy działające w zdefiniowanym, ograniczonym zakresie, wykorzystywać będzie takie, które funkcjonują w zintegrowany sposób, wpływając przy tym na życie całego społeczeństwa. Dane przetwarzane będą przez zaawansowane systemy informatyczne, takie jak Sztuczna Inteligencja. Systemy te przystosowane są do przetwarzania tak dużej ilości danych. Głównym celem wykorzystania gromadzonych danych będzie zapewnienie wszystkim szczęścia oraz komfortu [7]. W BFirst.Tech również widzimy te potrzeby i odpowiadamy na nie stosując konkretne narzędzia. Nasze obszary – Data Engineering oraz Data Architecture & Management wykorzystują innowacyjne rozwiązania technologiczne do zbierania, analizowania i zarządzania danymi, aby wspierać efektywne i zrównoważone gospodarowanie procesami. Taki sposób gospodarowania ma istotny wpływ na bezpieczeństwo, wiarygodność danych oraz strategiczne podejmowanie decyzji. Przyczynia się to do wzrostu dobrobytu w społeczeństwie.

Nowa era dobrobytu a stojące przed nią wyzwania

Społeczeństwo 5.0 ma za cel wykorzystanie najnowocześniejszych technologii w taki sposób, aby zapewnić dobrobyt wszystkim ludziom. Idea ta zakłada, że rozwój technologiczny może być narzędziem do przeciwdziałania nierównościom społecznym, poprawy jakości życia oraz stworzenia bardziej zrównoważonej społeczności. Główne cele, jakich realizację przewiduje, to: 

  • zmniejszenie nierówności społecznych, 
  • przyspieszenie usług medycznych oraz zwiększenie precyzji zabiegów i operacji, 
  • zwiększenie produkcji żywności przy jednoczesnej redukcji marnotrawstwa 
  • poprawa bezpieczeństwa publicznego, 
  • rozwiązywanie problemów spowodowanych katastrofami naturalnymi, 
  • promowanie uczestnictwa społeczeństwa w opracowywaniu pomysłów i projektów, 
  • zapewnienie transparentnego dostępu do danych oraz utrzymanie bezpieczeństwa informacji. 

Społeczeństwo 5.0 stawia sobie za cel stworzenie harmonijnej równowagi między rozwojem technologicznym a potrzebami społecznymi. Niesie to jednak ze sobą swoje wyzwania. Jednym z najbardziej istotnych warunków do skutecznego wdrożenia tej wizji jest zaangażowanie oraz przywództwo rządów. Jest tak, ponieważ to rządy odpowiedzialne są za aspekty takie jak finansowanie, wdrażanie technologii w życie publiczne czy tworzenie nowych przepisów związanych z bezpieczeństwem. Kolejne istotne wyzwanie stanowią ryzyka związane z cyberbezpieczeństwem. Należy mieć na uwadze, że działania hackerów, czy też kwestie związane z kradzieżą danych, mogą skutecznie zahamować rozwój innowacji, dlatego kluczowe jest zadbanie o należyty poziom ochrony danych [8].

Cele Zrównoważonego Rozwoju Organizacji Narodów Zjednoczonych

Społeczeństwo 5.0 oraz Cele Zrównoważonego Rozwoju Organizacji Narodów Zjednoczonych to dwie, oddzielne inicjatywy, które zmierzają w bardzo podobnym kierunku. Te dwa innowacyjne podejścia dzielą bowiem jeden wspólny cel – eliminowanie problemów społecznych w zrównoważony sposób. Można powiedzieć, że Society 5.0 w pewien sposób realizować będzie Cele Zrównoważonego Rozwoju, poprzez określone działania. Te działania, zestawione z konkretnymi celami, to:

  • dążenie do dokładniejszego oraz skuteczniejszego diagnozowania chorób poprzez wykorzystanie zaawansowanych technologii (takich jak Big Data czy Sztuczna Inteligencja), 
Ilustracja Celu 3. Zrównoważonego Rozwoju UN.

Rys. 2. Ilustracja przedstawiająca 3. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • upowszechnianie e-learningu oraz zapewnianie większej dostępności edukacji, 
Ilustracja Celu 4. Zrównoważonego Rozwoju UN.

Rys. 3. Ilustracja przedstawiająca 4. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • tworzenie nowych miejsc pracy związanych z dziedzinami takimi jak robotyka, Sztuczna Inteligencja czy analiza danych, 
Ilustracja Celu 8. Zrównoważonego Rozwoju UN.

Rys. 4. Ilustracja przedstawiająca 8. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • promowanie innowacji oraz inwestowanie w nową infrastrukturę (taką jak inteligentne sieci czy szybki Internet),
Ilustracja Celu 9. Zrównoważonego Rozwoju UN.

Rys. 5. Ilustracja przedstawiająca 9. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • tworzenie inteligentnych miast, które wykorzystują czujniki i analizę danych w celu optymalizacji przepływu ruchu, zmniejszenia zużycia energii oraz poprawy bezpieczeństwa,
Ilustracja Celu 11. Zrównoważonego Rozwoju UN.

Rys. 6. Ilustracja przedstawiająca 11. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • redukowanie emisji gazów cieplarnianych oraz promowanie zrównoważonego transportu.
Ilustracja Celu 13. Zrównoważonego Rozwoju UN.

Rys. 7. Ilustracja przedstawiająca 13. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

Wspólny kierunek

Niezwykle istotne jest, aby korzyści wynikające z idei Society 5.0 były równo dostępne dla każdego, tak, aby wszyscy mieli taką samą szansę skorzystania z jej potencjału. Tylko dzięki takiemu podejściu udział Społeczeństwa 5.0 w realizowaniu Celów Zrównoważonego Rozwoju ma szansę na efektywny rezultat [9]. BFirst.Tech jako partner merytoryczny United Nations Global Compact Network Poland (UN GCNP) również dba o realizację Celów Zrównoważonego Rozwoju. W obszarach, które skupiają się na przetwarzaniu, projektowaniu i zarządzaniu danymi, czyli Data Engineering oraz Data Architecture & Management, nasza firma wciela w życie cele, pokrywające się z celami uskutecznianymi przez Society 5.0, takie jak: Cel 9 – w zakresie zabezpieczania, agregowania i analizy dużych zbiorów danych, optymalizacji oraz zarządzania i kontroli jakości procesów z wykorzystaniem AI; Cel 11 – w zakresie zabezpieczania kluczowych informacji mających wpływ na poprawę warunków życia mieszkańców miast; oraz Cel 13 – w zakresie zmniejszania zużycia zasobów i emisji odpadów poprzez zwiększanie efektywności produkcji.

Zmiany wpływające na wiele obszarów

Dzięki wdrożeniu koncepcji Society 5.0 możliwa jest modernizacja wielu różnych płaszczyzn życia społecznego. Jedną z nich jest wspominana wcześniej opieka zdrowotna. W obliczu starzejącego się społeczeństwa Japonii, kraj ten zmaga się obecnie ze wzrastającymi wydatkami oraz potrzebą opieki nad seniorami. Społeczeństwo 5.0 rozwiązuje ten problem, poprzez wprowadzenie Sztucznej Inteligencji. Gromadzi ona, a następnie analizuje dane dotyczące pacjenta, co zapewnia najwyższy poziom diagnostyki oraz leczenia. Z kolei zdalne konsultacje medyczne wpływają pozytywnie na wygodę osób starszych. Zapewnia im to możliwość kontaktu z lekarzem nawet z własnego miejsca zamieszkania.

Kolejną płaszczyznę stanowi mobilność. Większość obszarów wiejskich Japonii nie ma dostępu do transportu publicznego. Wpływ na to ma między innymi spadek liczby ludności przyczyniający się do coraz słabszego zaludnienia tych obszarów. Problem stanowi również narastający brak kierowców, związany z ciągle rozwijającym się sektorem e-commerce. Rozwiązaniem, jakie proponuje na te kwestie Society 5.0, jest wdrożenie autonomicznych pojazdów, takich jak taksówki czy autobusy. Warto wspomnieć również o obszarze infrastruktury. W Społeczeństwie 5.0 to czujniki, Sztuczna Inteligencja oraz roboty będą autonomicznie kontrolować i konserwować drogi, tunele, mosty oraz tamy. Ostatni już obszar warty uwagi stanowią technologie finansowe (FinTech). W Japonii w dalszym ciągu większość transakcji pieniężnych odbywa się za pomocą gotówki bądź procedur bankowych. Potrafi to trwać znacząco zbyt długo. Społeczeństwo 5.0 proponuje zaimplementowanie technologii Blockchain do transakcji pieniężnych oraz wprowadzenie powszechnych, dostępnych wszędzie płatności za pośrednictwem smartfona [10].

Podsumowanie

Society 5.0 to koncepcja społeczeństwa, które wykorzystuje zaawansowane technologie, aby stworzyć społeczeństwo oparte na zrównoważonym rozwoju, innowacjach społecznych oraz cyfrowej transformacji. Celem Society 5.0 jest nie tylko osiągnięcie wzrostu gospodarczego, ale także poprawa jakości życia obywateli. Za rozwojem tej idei stoją również pewne wyzwania. Są one związane przede wszystkim z bezpieczeństwem danych, czy też wprowadzaniem odpowiednich regulacji zapewniających płynną oraz komfortową dla wszystkich transformację. Society 5.0 w dużym stopniu dzieli wizję przyszłości z Celami Zrównoważonego Rozwoju (SDG), ogłoszonymi przez Organizację Narodów Zjednoczonych. Wiele z nich można osiągnąć poprzez wdrażanie tej koncepcji. Społeczeństwo 5.0 obejmuje szeroki zakres obszarów życia społecznego, w tym opiekę zdrowotną, mobilność, infrastrukturę oraz technologie finansowe. Dzięki wykorzystaniu zaawansowanych technologii w tych dziedzinach, dąży się do stworzenia zrównoważonego i innowacyjnego społeczeństwa, które będzie miało pozytywny wpływ na jakość życia obywateli.

Bibliografia

[1] https://www.japan.go.jp/abenomics/_userdata/abenomics/pdf/society_5.0.pdf [Dostęp: 07.03.2024] 

[2] https://sektor3-0.pl/blog/japonski-czlowiek-nowej-ery-czyli-spoleczenstwo-5-0/ 

[3] https://education.nationalgeographic.org/resource/hunter-gatherer-culture/ 

[4] https://www.thoughtco.com/agrarian-society-definition-3026047 

[5] https://www.thoughtco.com/industrial-society-3026359 

[6] https://www.techtarget.com/whatis/definition/Information-Society 

[7] Atsushi Deguchi, Chiaki Hirai, Hideyuki Matsuoka, Taku Nakano, Kohei Oshima, Mitsuharu Tai, Shigeyuki Tani „What is Society 5.0?” 

[8] https://www.sydle.com/blog/society-5-0-5fc163e1725a642683ed9230 

[9] https://media.inti.asia/read/society-50-and-the-sustainable-development-goals-a-roadmap-for-a-better-future 

[10] https://medium.com/@jacobprakoso/japan-super-smart-society-5-0-9b9e8ba49a7  

SEO

Co sprawia, że niektóre strony internetowe wyświetlają się od razu po wpisaniu szukanej frazy, a inne giną w gąszczu pozostałych witryn? Jak sprawić, aby użytkownik mógł łatwiej znaleźć naszą stronę? Pozycjonowanie nie ma nic wspólnego z losowością. Za te i inne aspekty odpowiada SEO. Nieważne, czy dopiero rozpoczynamy naszą przygodę z prowadzeniem portalu internetowego, czy robimy to od dawna, zajmujemy się wszystkim sami, czy zlecamy to komuś innemu. Podstawowe zasady, jakimi rządzi się pozycjonowanie, warto znać.  Po zapoznaniu się z tym artykułem dowiesz się czym jest SEO, z czego się składa oraz jak je wykorzystywać w odpowiedni sposób. 

Czym jest SEO? 

Zacznijmy od tego, czym tak naprawdę jest SEO i z czego się składa. SEO (Search Engine Optimization) to ogół działań podejmowanych w celu poprawy pozycjonowania strony internetowej w wynikach wyszukiwania [1]. Składa się na nie szereg praktyk i strategii, takich jak odpowiednie redagowanie tekstu czy budowanie profilu linkowego. SEO również odpowiada za dostosowanie witryny do algorytmów, stosowanych przez wyszukiwarki. To one decydują o tym, które strony będą wyświetlane na pierwszej stronie wyników wyszukiwania i w jakiej kolejności. Poprzez optymalizację, dana strona internetowa może zyskać lepszą pozycję w wynikach wyszukiwania, co zwiększa jej widoczność. Należy oczywiście pamiętać, że narzędzia SEO to jedynie jeden ze sposobów na poprawę popularności witryny. Nie daje on tak szybkich efektów jak, na przykład, płatne reklamy, ale jest relatywnie tani. Poza tym wypracowany efekt utrzyma się na dłużej i nie zniknie po wygaśnięciu danej subskrypcji, jak ma to miejsce w przypadku wielu innych technik marketingowych. 

Pozycjonowanie on-site

SEO możemy podzielić na dwa rodzaje: on-site oraz off-site. On-site SEO to wszystkie działania, które mają miejsce na danej stronie internetowej. To wszystkie kwestie redakcyjne, techniczne czy takie, które wpływają na szybkość ładowania treści. Dzięki dbaniu o te aspekty, strona jest czytelniejsza zarówno dla użytkownika, jak i robotów Google. Aby mówić o dobrym on-site SEO należy zadbać o:

  • Metadane i opis ALT – nawet jeśli strona będzie czytelna dla użytkownika, co z algorytmami wyszukiwarek? Aby i dla nich była czytelna, warto zadbać o tytuły i opisy meta, które pomogą wyszukiwarkom znaleźć naszą witrynę. Poza tym, warto również zadbać o opisy ALT, zwane również tekstem alternatywnym. Algorytmy nie rozumieją, co znajduje się na obrazkach. Dzięki temu krótkiemu opisowi, będą w stanie przyporządkować jego treść do wyszukiwanej frazy i poprawić pozycjonowanie. 
  • Nagłówki – to kolejna rzecz, która wpływa nie tylko na ludzką percepcję. Odpowiednie rozłożenie nagłówków i optymalizacja treści w nich mogą znacząco przyczynić się do poprawy pozycjonowania. 
  • Hiperłącza – czyli ogół odnośników, zwany również profilem linkowym. Możemy tutaj wyróżnić linkowanie zewnętrzne i wewnętrzne. Linkowanie zewnętrzne to linki pochodzące z innych stron internetowych niż nasza i zaliczane jest ono do off-site SEO. Natomiast wewnętrzne to odnośniki, które w obrębie jednej witryny przekierowują użytkownika do innych zakładek czy artykułów [2].  

Pozycjonowanie off-site

Off-site SEO natomiast odnosi się do wszystkich działań podejmowanych poza stroną, w celu zwiększenia jej widoczności i rozpoznawalności w sieci. Dzięki temu zyskujemy ruch na stronie z zewnętrznych źródeł. Takie działania to na przykład:

  • Hiperłącza – ponownie, profil linkowy budujący popularność i rozpoznawalność strony w sieci. Do off-site SEO zaliczane jest linkowanie zewnętrzne, czyli pochodzące z innych źródeł. Warto zadbać, aby były one dobrej jakości, czyli pochodzące z rzetelnych źródeł. Minęły czasy, kiedy liczyła się tylko ilość. Teraz algorytmy wyszukiwarek zwracają dużo większą uwagę właśnie na wartość.
  • Marketing internetowy – chodzi o takie działania, jak prowadzenie profili na Social Mediach, prowadzenie dyskusji z użytkownikami na forach czy współpracowanie z influencerami. To aspekty, które bezpośrednio nie wpływają na wyniki wyszukiwania, lecz pośrednio mogą bardzo przyczynić się do podbicia ilości zapytań o naszą stronę. 
  • Opinie – po jakimś czasie w naturalny sposób pojawiają się w sieci opinie na temat naszej strony czy prowadzonego biznesu. Warto o nie zadbać i odpowiedzieć użytkownikom, którzy je zostawili. Dbanie o dobrą opinię klienta to jeden z aspektów budowania wizerunku marki godnej zaufania [3].

Link building a pozycjonowanie

Link building to proces zdobywania odnośników, które będą prowadziły do naszej witryny. Mogą to być linki z zewnętrznych źródeł (tzw. backlinki) lub linkowanie wewnętrzne. Wtedy mówimy o odnośnikach, które będą przekierowywały nas w obrębie danej strony internetowej. Dobrze zbudowany profil linkowy znacząco wpływa na pozycjonowanie, o czym więcej można przeczytać wyżej [4]. Jak natomiast zmieniało się znaczenie takich praktyk? 

Przez wiele lat Google pozwalało pozycjonerom na wiele pod tym względem. Na porządku dziennym można było spotkać strony, do których prowadziły nawet setki tysięcy linków, gdyż ich liczba miała ogromne znaczenie dla pozycjonowania, a ich jakość już nie do końca. Zdecydowana większość z nich była linkami niskiej jakości, które były umieszczane w sieci na forach, w księgach gości, katalogach, komentarzach itp. Często nie zajmował się tym człowiek, wykorzystywano specjalne aplikacje, które robiły to automatycznie. Takie rozwiązanie przynosiło znaczące efekty, a mogło być przeprowadzone stosunkowo niewielkim kosztem. Wszystko zmieniło się w kwietniu 2012. Doszło wtedy do pewnej rewolucji – Google wprowadził nowy algorytm o nazwie Pingwin.[5]

Jak Pingwin zmienił SEO?

Czym jest Pingwin? To algorytm stworzony przez Google i wprowadzony 24 kwietnia 2012 roku, w celu zwalczania nieetycznego pozycjonowania stron internetowych. Specjaliści SEO próbowali oszukać skrypt Google poprzez kupowanie linków i umieszczanie ich w miejscach do tego nieprzeznaczonych, jednakże Pingwin skutecznie to wyłapywał. 

Spróbujmy odpowiedzieć na pytanie jak działa Pingwin. Ten skrypt analizuje linki, jakie prowadzą na daną stronę internetową i decyduje o ich wartości. Jeśli uzna je za linki o niskiej jakości, obniży rankingi witryn, do których prowadzą. Takie linki to na przykład te kupione (również pochodzące z wymiany linków) czy stworzone przez boty. Tak samo postąpi w przypadku linków będących spamem, na przykład umieszczanych w komentarzach na forach czy stronach zupełnie niezwiązanych tematycznie. Jego działanie jednak nie jest permanentne – kiedy niskowartościowe linki zostaną usunięte, dana witryna może odzyskać swoją pozycję. Warto wspomnieć, że Pingwin nie został stworzony tylko w celu wykrywania oszustw i obniżania widoczności stron internetowych. Jego rolą jest także nagradzanie uczciwie prowadzonych witryn – jeśli uzna profil linkowy za wartościowy, zwiększy widoczność takich stron [6].

SEO etyczne i nieetyczne

W zależności od tego, na czym opieramy nasze techniki pozycjonowania, można wyróżnić White Hat SEO oraz Black Hat SEO. Te określenia nawiązują do dobrych i złych postaci z westernowych bajek. Według przyjętej kulturowo konwencji, nosiły one zazwyczaj odpowiednio białe i czarne kapelusze, stąd takie skojarzenie. Co jednak oznaczają i czym różnią się te techniki? White Hat SEO to etyczne pozycjonowanie, stosowane według wytycznych zalecanych przez wyszukiwarki. Chodzi o takie zabiegi jak tworzenie treści dobrej jakości (niezawierającej duplikatów), stosowanie nagłówków, wypunktowań, czy dbanie o odpowiednią długość akapitów. Black Hat SEO natomiast charakteryzuje się nieetycznymi zachowaniami, mającymi sztucznie podbijać popularność. Są to takie praktyki jak nadużywanie fraz kluczowych poza kontekstem, ukrywanie tekstu czy kupowanie linków. Takie działania mogą skutkować zmniejszeniem poziomu zaufania do strony, nałożeniem filtrów obniżających pozycję, czy nawet wykluczeniem z wyników wyszukiwania [7].

Podsumowanie

Kluczem do zapewnienia sobie większego ruchu na stronie internetowej i lepszego jej pozycjonowania w wynikach wyszukiwania jest umiejętne wykorzystanie narzędzi SEO. To zabiegi bezpośrednio na stronie oraz poza nią, dzięki którym możemy liczyć na znacznie większe zasięgi. Podczas wykorzystywania SEO należy pamiętać, aby robić to odpowiednio. Stosując się do zaleceń wyszukiwarek i dopasowując treść zarówno do użytkownika jak i algorytmów, możemy liczyć na pozytywne efekty i poprawę statystyk. Nieetyczne praktyki mogą natomiast prowadzić do odwrotnych skutków.

Bibliografia

[1] https://searchengineland.com/guide/what-is-seo 

[2]https://www.semstorm.com/pl/blog/seo-and-ppc/czym-sie-rozni-on-site-seo-od-off-site-seo 

[3]https://www.semrush.com/blog/off-page-seo/?kw=&cmp=EE_SRCH_DSA_Blog_EN&label=dsa_pagefeed&Network=g&Device=c&utm_content=676606914923&kwid=dsa-2185834089536&cmpid=18361923498&agpid=157305243831&BU=Core&extid=105138960331&adpos=&gad_source=1&gclid=CjwKCAjw7-SvBhB6EiwAwYdCAQvsJcp7q2JoIQMf2RzGg_HVRjTFb7AB2sTcZ2khQdIN3qvCREr9GhoCzOIQAvD_BwE 

[4]https://greenparrot.pl/blog/co-to-jest-off-site-seo/ 

[5] https://1stplace.pl/blog/algorytm-google-pingwin/ 

[6] https://www.business2community.com/infographics/history-google-penguin-infographic-01468714 

[7]https://www.semrush.com/blog/black-hat-seo/?kw=&cmp=EE_SRCH_DSA_Blog_EN&label=dsa_pagefeed&Network=g&Device=c&utm_content=683809340380&kwid=dsa-2264710307245&cmpid=18361923498&agpid=156456448517&BU=Core&extid=105138960709&adpos=&gad_source=1&gclid=CjwKCAjw7-SvBhB6EiwAwYdCAZln5MkdcE3R2XZq-FUhanEKkDWUbpUoZxIowWHslE3ETaNFW88vPBoCJ5sQAvD_BwE 

Dylematy moralne związane ze sztuczną inteligencją

Sztuczna inteligencja jest jednym z najbardziej ekscytujących zagadnień technologicznych ostatnich lat. Ma potencjał na fundamentalne zmienienie naszego sposobu pracy oraz korzystania z nowoczesnych technologii w wielu dziedzinach, takich jak generatory tekstów i obrazów, różnego rodzaju algorytmy czy autonomiczne samochody. Wraz z coraz większym rozpowszechnianiem wykorzystywania sztucznej inteligencji, warto jednak również mieć świadomość potencjalnych problemów, jakie ze sobą niesie. Biorąc pod uwagę wzrastające uzależnienie naszych systemów od sztucznej inteligencji, podejście do tych dylematów może mieć kluczowy wpływ na przyszły obraz społeczeństwa. W niniejszym artykule przedstawimy te dylematy moralne. Omówimy również problemy związane z wprowadzaniem do ruchu drogowego pojazdów autonomicznych, zagrożenia wynikające z użycia sztucznej inteligencji do siania dezinformacji oraz obawy dotyczące styku sztucznej inteligencji i sztuki.

Problem pozyskiwania danych i ich skrzywienia

Co do zasady, ludzkie osądy są obciążone subiektywnym spojrzeniem, od maszyn i algorytmów oczekuje się większej obiektywności. Jednak to, w jaki sposób działają algorytmy uczenia maszynowego zależy w dużej mierze od danych, na których algorytm jest uczony. W związku z tym, wybrane do trenowania algorytmu dane z jakimkolwiek, nawet nieświadomym uprzedzeniem mogą spowodować niepożądane działania algorytmu. Zapraszamy do zapoznania się z naszym wcześniejszym artykułem, gdzie znajdziesz więcej informacji na ten temat.

Poziomy automatyzacji w samochodach autonomicznych

W ostatnich latach obserwowaliśmy duże postępy w rozwoju samochodów autonomicznych. W sieci pojawiało się wiele materiałów przedstawiających prototypy pojazdów będących w ruchu bez pomocy kierowcy lub nawet jego obecności. Rozmawiając o samochodach autonomicznych warto zaznaczyć, że istnieje wiele poziomów autonomiczności, dlatego warto przed dyskusją określić o którym poziomie mowa. [1]

  • Poziom 0 oznacza pojazdy, które wymagają pełnej kontroli kierowcy, wykonującego wszystkie działania związane z kierowaniem pojazdu (sterowanie, hamowanie przyspieszanie itd.). Pojazd może natomiast informować kierowcę o zagrożeniach znajdujących się na drodze. Użyje do tego systemów takich jak system ostrzegania przed kolizją czy ostrzegania o opuszczaniu pasa ruchu.
  • Poziom 1 zawiera pojazdy, będące już dziś powszechne na drogach. Kierowca nadal kontroluje pojazd, który jest wyposażony w systemy wspierające jazdę, jak np. tempomat czy układ utrzymujący samochód w granicach pasa ruchu.
  • Poziom 2, oprócz posiadania możliwości poprzednich poziomów, jest -pod pewnymi warunkami – w stanie przejąć częściową kontrolę nad pojazdem. Może on wpływać na prędkość czy kierunek jazdy, pod ciągłym nadzorem kierowcy. Wśród funkcji wspomagających można wymienić sterowanie autem w korku lub na autostradzie.
  • Poziom 3 autonomiczności to pojazdy, które nie są jeszcze dostępne komercyjnie. Samochody tego typu są w stanie prowadzić się w pełni autonomicznie, pod okiem kierowcy. Prowadzący pojazd nadal musi być gotowy w razie potrzeby przejąć sterowanie nad pojazdem.
  • Poziom 4 oznacza wykonywanie przez komputer pokładowy wszystkich czynności związanych z prowadzeniem pojazdu, jednak tylko na określonych, uprzednio zatwierdzonych trasach. W takiej sytuacji wszystkie osoby w pojeździe sprawują funkcję pasażerów, choć przejęcie kontroli nad pojazdem przez człowieka jest nadal możliwe.
  • Poziom 5 to najwyższy poziom autonomiczności – komputer pokładowy jest w pełni odpowiedzialny za prowadzenie pojazdu we wszystkich warunkach, bez jakiejkolwiek potrzeby ingerencji ludzkiej. [2]

Dylematy moralne w obliczu pojazdów autonomicznych

Pojazdy o poziomach autonomiczności 0-2 nie wzbudzają zbyt wielkich kontrowersji. Technologie takie jak sterowanie autem na autostradzie są już dostępne i ułatwiają podróżowanie. Potencjalne wprowadzenie do powszechnego ruchu drogowego pojazdów o wyższych stopniach autonomiczności wzbudza jednak pewne dylematy moralne. Jednym z problemów jest to, co dzieje się w sytuacji, kiedy autonomiczne auto, będące pod opieką prowadzącego, uczestniczy w wypadku. Kto ponosi wtedy odpowiedzialność za jego spowodowanie? Kierowca? Producent pojazdu? A może samo auto? Nie jest to pytanie, na które istnieje jednoznaczna odpowiedź.

Wprowadzenie na ulicę pojazdów autonomicznych wprowadza również inny problem – pojazdy te mogą posiadać luki w zabezpieczeniach. Coś takiego może potencjalnie prowadzić do wycieku danych lub nawet przejęcia kontroli nad pojazdem przez hakera. Przejęty w ten sposób samochód może zostać użyty do celowego spowodowania wypadku, a nawet przeprowadzenia ataku terrorystycznego.  Tu również pojawia się problem podzielenia odpowiedzialności pomiędzy producentem, hakerem i użytkownikiem. [3]

Jednym z najważniejszych problemów związanych z autonomicznymi pojazdami jest etyczne wyszkolenie pojazdów do podejmowania decyzji w wypadku zagrożenia życia i mienia. Kto powinien podejmować decyzje na ten temat – programiści tworzący oprogramowanie, etycy i filozofowie, czy może rządzący krajami? Decyzje te będą miały wpływ na to, kto przeżyje w razie nieuniknionego wypadku. Wiele sytuacji, z jakimi mogą się spotkać autonomiczne pojazdy, będzie wymagać podjęcia decyzji, którym brak jednej oczywistej odpowiedzi (rysunek 1). Czy pojazd powinien nadawać priorytet w ratowaniu pieszych czy pasażerów, młodych czy starych? Jak ważny jest brak ingerencji pojazdu w tok wydarzeń? Czy przestrzeganie prawa przez drugą stronę wypadku powinno mieć wpływ na decyzję? [4]

Rys. 1. Ilustracja jednego z przypadków jakie mogą spotkać autonomiczne pojazdy. Źródło: https://www.moralmachine.net/ 

Deepfake – czym jest i dlaczego prowadzi do dezinformacji?

Współczesny człowiek korzystający z nowoczesnych technologii jest bombardowany zewsząd informacjami. Ogromna ilość i prędkość dostarczania informacji powoduje, że nie wszystkie z nich mogą być zweryfikowane. Fakt ten umożliwia osobom fabrykującym fałszywe wiadomości dotarcie do stosunkowo dużej grupy osób. Dzięki temu mogą zmanipulować swoje ofiary tak, aby zmieniły nastawienie odnośnie jakiegoś tematu lub nawet padły ofiarą oszustwa. Choć praktyka ta występowała już od jakiegoś czasu, pojawienie się sztucznej inteligencji drastycznie ułatwia proces kreowania fałszywych informacji, a co za tym idzie pozwala na szybsze ich tworzenie i rozpowszechnianie.

Spośród technik dezinformacji, sztuczna inteligencja może być używana szczególnie efektywnie do produkcji tzw. deepfake’ów. Deepfake to technika obróbki obrazu przedstawiającego ludzi, oparta na sztucznej inteligencji. Przy pomocy algorytmów uczenia maszynowego na istniejące materiały źródłowe nakładane są modyfikowane obrazy, tworząc tym samym realistyczne filmy i obrazy, przedstawiające nie mające miejsca zdarzenia. Dotychczas, technologia pozwalała głównie na obróbkę obrazów statycznych, a edycja wideo była zdecydowanie trudniejsza do wykonania. Popularyzacja sztucznej inteligencji rozwiązała te bariery techniczne, co przełożyło się na drastyczny wzrost częstotliwości występowania tego zjawiska. [5]

Film1. Deepfake w formie materiału wideo wykorzystujący wizerunek prezydenta Obamy. 

Dylematy moralne związane z deepfake

Deepfake mógłby być wykorzystany do osiągnięcia różnych celów. Technologia ta może zostać użyta w nieszkodliwych projektach, wśród których można wymienić materiały edukacyjne takie jak filmik przedstawiający prezydenta Obamę ostrzegającego o zagrożeniach związanych z deepfake’ami (patrz rysunek 2). Oprócz tego, znajduje zastosowanie w branży rozrywkowej, jak używanie cyfrowych kopii aktorów (choć to zastosowanie może wzbudzać dylematy moralne), czego przykładem jest użycie cyfrowego podobieństwa zmarłego aktora Petera Cushinga do odegrania roli Wielkiego Moffa Tarkina w filmie Łotr 1. Gwiezdne wojny – historie (patrz rysunek 2).

Rys. 2. Cyfrowa kopia aktora Petera Cushinga w roli Wielkiego Moffa Tarkina. Źródło: https://screenrant.com/star-wars-rogue-one-tarkin-ilm-peter-cushing-video/ 

Istnieje jednak również wiele innych zastosowań deepfake’ów, które mogą potencjalnie stanowić poważnie zagrożenie dla społeczeństwa. Takie spreparowane filmy mogą być używane do skompromitowania danej osoby, chociażby poprzez wykorzystanie jej podobieństwa w filmach pornograficznych. Fałszywe materiały mogą być również używane we wszelkiego rodzaju oszustwach, takich jak próby wyłudzenia pieniędzy. Przykładem takiego zastosowania jest chociażby przytoczona przez nas w poprzednim artykule sprawa lekarza, którego wizerunek został użyty w reklamie pseudoleków kardiologicznych [6]. Dużo emocji wzbudza również wykorzystywanie deepfake’ów w celach siania dezinformacji, w szczególności w obszarze polityki. Odpowiednio użyte fałszywe materiały mogą prowadzić do incydentów dyplomatycznych, zmieniać reakcję społeczeństwa na pewne tematy polityczne, dyskredytować polityków, a nawet wpływać na wyniki wyborów. [7]

Ze względu na swoją naturę, rozpowszechnienie deepfake’ów nie jest czymś, czemu można łatwo zapobiec. Rozwiązania prawne nie są w pełni skuteczne ze względu na globalną skalę problemu i naturę działania sieci społecznościowych. Wśród innych proponowanych rozwiązań problemu można wymienić opracowywanie algorytmów wykrywających sfałszowane materiały oraz edukację społeczeństwa na ten temat.

Sztuka generowana przez AI

Obecnie na rynku istnieje wiele generatorów tekstu, obrazów czy filmów wykorzystujących AI. Midjourney, DALL-E, Stable Diffuion oraz wiele innych, pomimo różnych implementacji i algorytmów za nimi stojących, łączy jedno – potrzebują ogromnych ilości danych, które, ze względu na swoje rozmiary, mogą być zdobyte wyłącznie z Internetu – często bez zgody autorów tych dzieł.  W związku z tym, wielu artystów i firm postanowiło wytoczyć pozwy wobec firm tworzących modele sztucznej inteligencji. Według pozywających, nielegalnie używają milionów zdjęć pozyskanych z Internetu, które są objęte prawami autorskimi. Najgłośniejszym przypadkiem pozwu jest ten, który wytoczyła Getty Images – agencja oferująca zdjęcia do celów biznesowych – przeciwko Stability AI, twórcy open-source’owego generatora obrazów Stable Diffusion. Agencja oskarża Stability AI o skopiowanie ponad 12 milionów obrazów z ich bazy danych bez uprzedniej zgody lub rekompensaty (patrz rysunek 3). Wyniki tej i innych spraw sądowych związanych z generowaniem obrazów przy pomocy AI ukształtują przyszłe zastosowania i możliwości tej technologii. [8]

Rys. 3. Ilustracja użyta w pozwie Getty Images przedstawiająca oryginalne zdjęcie oraz podobny obraz z widocznym znakiem wodnym Getty Images stworzony przez Stable Diffusion. Źródło: https://www.theverge.com/2023/2/6/23587393/ai-art-copyright-lawsuit-getty-images-stable-diffusion 

Oprócz prawnych problemów związanych z trenowaniem generatywnych modelów na podstawie danych objętych prawami autorskimi, istnieją również dylematy moralne na temat dzieł sztuki wykonywanych za pomocą sztucznej inteligencji. [9]

Czy AI zastąpi artystów?

Wielu artystów uważa, że sztuczna inteligencja nie jest w stanie odwzorować emocjonalnych aspektów sztuki, jakie oferują ludzkie dzieła. Oglądając filmy, słuchając muzyki oraz grając w gry odczuwamy pewne emocje, czego algorytmy nie są w stanie nam zapewnić. Nie są kreatywne w taki sam sposób jak ludzie. Istnieją również obawy co do sytuacji materialnej wielu artystów. Następują one zarówno z powodu nieotrzymywania rekompensaty za stworzone dzieła będące w zbiorach treningowych algorytmów, jak i zmniejszoną liczbę zleceń w związku z popularnością i łatwością użycia generatorów. [10]

Z drugiej strony, niektórzy artyści uważają, że inny sposób ‘myślenia’ sztucznej inteligencji jest jej atutem. Może ona tworzyć dzieła, których człowiek nie jest w stanie wytworzyć. Między innymi w ten sposób generatywne modele mogą stać się kolejnym narzędziem w rękach artystów. Dzięki nim będą mogli doprowadzić do tworzenia nieistniejących do tej pory form i gatunków sztuki, rozszerzając ludzką kreatywność.

Jak widać, popularność i możliwości generatywnej sztucznej inteligencji stale rosną. Co za tym idzie, pojawiają się liczne debaty na tematy prawne i etyczne, związane z tą technologią. Przewidujemy, że będą się one stawać coraz głośniejsze. Technologia ta ma potencjał drastycznie zmienić sposób, w jaki obcujemy ze sztuką.

Podsumowanie

Odpowiednie wykorzystywanie sztucznej inteligencji ma potencjał zostać ważnym i powszechnie wykorzystywanym narzędziem w rękach ludzkości. Może zwiększyć produktywność, ułatwić wykonywanie wielu czynności oraz rozwinąć nasze możliwości kreatywne. Technologia ta niesie ze sobą jednak pewne zagrożenia, których nie należy lekceważyć. Nierozważne wykorzystywanie pojazdów autonomicznych, sztuki AI lub deepfake’ów może doprowadzić do wielu problemów. Mogą to być straty finansowe czy wizerunkowe, ale nawet zagrożenia dla zdrowia i życia. Aby zredukować występowanie tych problemów, ważne będą dalsze postępy technologii wykrywających deepfaki. Ponad to nowe rozwiązania prawne, a także edukacja społeczeństwa na temat zagrożeń związanych ze sztuką AI oraz nowymi metodami dezinformacji i fałszywymi materiałami wideo.

Bibliografia

[1] https://www.nhtsa.gov/vehicle-safety/automated-vehicles-safety

[2] https://blog.galonoleje.pl/pojazdy-autonomiczne-samochody-bez-kierowcow-juz-sa-na-ulicach

[3] https://www.forbes.com/sites/naveenjoshi/2022/08/05/5-moral-dilemmas-that-self-driving-cars-face-today/

[4] https://www.bbc.com/news/technology-45991093

[5] https://studiadesecuritate.uken.krakow.pl/wp-content/uploads/sites/43/2019/10/2-1.pdf

[6] https://www.medonet.pl/zdrowie/wiadomosci,kolejny-lekarz-ofiara-oszustow–zostal-twarza-pseudolekow–dr-sutkowski–to-jest-kradziez,artykul,26668977.html

[7] https://businessinsider.com.pl/technologie/nowe-technologie/deepfakes-historia-falszywych-filmow-i-pomysly-na-walke-z-nimi/s17z2p0

[8] https://apnews.com/article/getty-images-artificial-intelligence-ai-image-generator-stable-diffusion-a98eeaaeb2bf13c5e8874ceb6a8ce196

[9] https://www.benchmark.pl/aktualnosci/dzielo-sztucznej-inteligencji-docenione.html

[10] https://businessinsider.com.pl/technologie/digital-poland/sztuczna-inteligencja-w-sztuce-szansa-czy-zagrozenie/7lq70sx

Jezioro Danych – zastosowanie uczenia maszynowego

W erze cyfryzacji rośnie zapotrzebowanie na zaawansowane technologie nie tylko do gromadzenia, ale przede wszystkim analizy danych. Przedsiębiorstwa akumulują coraz większe ilości różnorodnych informacji, które mogą zwiększać ich efektywność i innowacyjność. Produkt Data Engineering oferowany przez firmę BFirst.Tech może odgrywać kluczową rolą w procesie wykorzystywania tych danych dla dobra firmy.  Jest to jedna z najnowocześniejszych technologii do efektywnego zarządzania i przetwarzania informacji. W niniejszym artykule przedstawimy jedną z możliwości oferowanych przez Jezioro Danych.

Data Engineering – najnowsza technologia do zbierania i analizowania informacji 

Inżynieria danych to proces projektowania oraz wdrażania systemów do efektywnego zbierania, przechowywania i przetwarzania obszernych zbiorów danych. Wspiera to akumulację informacji, takich jak analiza ruchu na stronach internetowych, dane z czujników IoT, czy trendy zakupowe konsumentów. Zadaniem inżynierii danych jest zapewnienie, że informacje są zręcznie gromadzone i magazynowane oraz łatwo dostępne i gotowe do analizy. Dane mogą być efektywnie przechowywane w jeziorach, hurtowniach czy składnicach danych, a tak zintegrowane źródła danych mogą służyć do tworzenia analiz lub zasilania silników sztucznej inteligencji. Zapewnia to wszechstronne wykorzystanie zgromadzonych informacji (patrz szczegółowy opis produktu Data Engineering (rys. 1)).

Data Engineering, sustainable data management

rys. 1 – Data Engineering

Jezioro Danych w przechowywaniu zbiorów informacji  

Jezioro Danych pozwala na przechowywanie ogromnych ilości surowych danych w ich pierwotnym, nieprzetworzonym formacie. Dzięki możliwościom, jakie oferuje Data Engineering, Jezioro Danych jest zdolne do przyjmowania i integracji danych z różnorodnych źródeł. Mogą to być dokumenty tekstowe, ale także obrazy, aż po dane pochodzące z czujników IoT. To umożliwia analizę i wykorzystanie złożonych zbiorów informacji w jednym miejscu. Elastyczność Jezior Danych oraz ich zdolność do integracji różnorodnych typów danych sprawiają, że stają się one niezwykle cenne dla organizacji, które stoją przed wyzwaniem zarządzania i analizowania dynamicznie zmieniających się zbiorów danych. W przeciwieństwie do hurtowni danych, Jezioro Danych oferuje większą wszechstronność w obsłudze różnorodnych typów danych. Jest to możliwe dzięki zaawansowanym technikom przetwarzania i zarządzania danymi stosowanym w inżynierii danych. Jednakże, ta wszechstronność rodzi również wyzwania w zakresie przechowywania i zarządzania tymi złożonymi zbiorami danych, wymagając od inżynierów danych ciągłego dostosowywania i innowacyjnych podejść. [1, 2] 

Jezioro Danych a przetwarzanie informacji i wykorzystanie uczenia maszynowego

Rosnąca ilość przechowywanych danych oraz ich różnorodność stanowią wyzwanie w zakresie efektywnego przetwarzania i analizy. Tradycyjne metody często nie nadążają za tą rosnącą złożonością, prowadząc do opóźnień i ograniczeń w dostępie do kluczowych informacji. Uczenie maszynowe, wsparte przez innowacje w dziedzinie inżynierii danych, może znacząco usprawnić te procesy. Wykorzystując obszerne zbiory danych, algorytmy uczenia maszynowego identyfikują wzorce, przewidują wyniki i automatyzują decyzje. Dzięki integracji z Jeziorami Danych (rys. 2), mogą one pracować z różnymi typami danych, od strukturalnych po niestrukturalne, umożliwiając przeprowadzanie bardziej złożonych analiz. Ta wszechstronność pozwala na głębsze zrozumienie i wykorzystanie danych, które byłyby inaczej niedostępne w tradycyjnych systemach.

Zastosowanie uczenia maszynowego w Jeziorach Danych umożliwia głębszą analizę i efektywniejsze przetwarzanie dzięki zaawansowanym narzędziom i strategiom inżynierii danych. Pozwala to organizacjom transformować ogromne ilości surowych danych w użyteczne i wartościowe informacje. Jest to istotne dla zwiększenia ich efektywności operacyjnej i strategicznej. Ponadto, wykorzystanie uczenia maszynowego wspomaga interpretację zgromadzonych danych i przyczynia się do bardziej świadomego podejmowania decyzji biznesowych. W efekcie, firmy mogą dynamiczniej dostosowywać się do rynkowych wymogów i innowacyjnie tworzyć strategie oparte na danych. 

Jezioro danych

rys. 2 – Jezioro Danych

Podstawy uczenia maszynowego oraz kluczowe techniki i ich zastosowania  

Uczenie maszynowe, będące integralną częścią tzw. sztucznej inteligencji, umożliwia systemom informatycznym samodzielne uczenie się i doskonalenie na podstawie danych. W tej dziedzinie wyróżniamy typy uczenia takie jak uczenie nadzorowane, uczenie nienadzorowane i uczenie ze wzmocnieniem. W uczeniu nadzorowanym każdy przykład danych ma przypisaną etykietę lub wynik, który pozwala maszynom na naukę rozpoznawania wzorców i przewidywania. Stosowane jest to m.in. w klasyfikacji obrazów lub prognozowaniu finansowym. Z kolei uczenie nienadzorowane, pracujące na danych bez etykiet, skupia się na znajdowaniu ukrytych wzorców. Jest to użyteczne w zadaniach takich jak grupowanie elementów czy wykrywanie anomalii. Natomiast uczenie ze wzmocnieniem opiera się na systemie nagród i kar, pomagając maszynom optymalizować swoje działania w dynamicznie zmieniających się warunkach, jak np. w grach czy automatyce. [3]

Co jeśli chodzi o algorytmy? Sieci neuronowe są doskonałe do rozpoznawania wzorców skomplikowanych danych – jak obrazy czy dźwięk – i stanowią podstawę wielu zaawansowanych systemów AI. Drzewa decyzyjne są używane do klasyfikacji i analizy predykcyjnej, na przykład w systemach rekomendacji lub prognozowaniu sprzedaży. Każdy z tych algorytmów ma swoje unikalne zastosowania. Może być dostosowany do specyficznych potrzeb zadania lub problemu, co czyni uczenie maszynowe wszechstronnym narzędziem w świecie danych. 

Przykłady zastosowań uczenia maszynowego 

Zastosowanie uczenia maszynowego w Jeziorach Danych, otwiera szerokie spektrum możliwości, od detekcji anomalii po personalizację ofert i optymalizację łańcuchów dostaw. W sektorze finansowym algorytmy te skutecznie analizują wzorce transakcji, identyfikując nieprawidłowości i potencjalne oszustwa w czasie rzeczywistym, co ma kluczowe znaczenie w zapobieganiu oszustwom finansowym. W handlu detalicznym i marketingu, uczenie maszynowe pozwala na personalizację ofert dla klientów poprzez analizę zachowań zakupowych i preferencji, zwiększając satysfakcję klienta i efektywność sprzedaży. [4] W przemyśle, algorytmy te przyczyniają się do optymalizacji łańcuchów dostaw, analizując dane z różnych źródeł, jak prognozy pogody czy trendy rynkowe, co pomaga w przewidywaniu popytu i zarządzaniu zapasami oraz logistyką [5].

Można je też wykorzystać do wstępnego projektowania czy optymalizacji produktów. Innym, interesującym zastosowaniem uczenia maszynowego w Jeziorach Danych jest analiza obrazów. Algorytmy uczenia maszynowego są w stanie przetwarzać i analizować duże zbiory zdjęć czy obrazów, znajdując zastosowanie w takich dziedzinach jak diagnostyka medyczna, gdzie mogą pomagać w wykrywaniu i klasyfikowaniu zmian chorobowych na obrazach radiologicznych, czy w systemach bezpieczeństwa, gdzie analiza obrazu z kamer może służyć do identyfikacji i śledzenia obiektów lub osób.  

Podsumowanie

Artykuł ten zwraca uwagę na rozwój w obszarze analizy danych, podkreślając jak uczenie maszynowe, Jeziora Danych i inżynieria danych wpływają na sposób w jaki organizacje przetwarzają i wykorzystują informacje. Wprowadzenie tych technologii do biznesu ulepsza istniejące procesy oraz otwiera drogę do nowych możliwości. Data Engineering wprowadza modernizację w przetwarzaniu informacji, która charakteryzuje się większą precyzją, głębszymi wnioskami i bardziej dynamicznym podejmowaniem decyzji. To podkreśla rosnącą wartość inżynierii danych w nowoczesnym świecie biznesu, co jest ważnym czynnikiem w dostosowywaniu się do zmieniających się wymagań rynkowych i tworzeniu strategii opartych na danych. 

Bibliografia

[1] https://bfirst.tech/data-engineering/ 

[2] https://www.netsuite.com/portal/resource/articles/data-warehouse/data-lake.shtml 

[3] https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained 

[4] https://www.tableau.com/learn/articles/machine-learning-examples 

[5]https://neptune.ai/blog/use-cases-algorithms-tools-and-example-implementations-of-machine-learning-in-supply-chain 

Grać jak z nut – cz.3

W drugiej części artykułu stworzyliśmy harmonię utworu. Potrzebujemy teraz jakiejś dobrej melodii, która będzie do tej harmonii pasować. Melodie składają się z motywów, czyli małych fragmentów ok. 2-5 nutowych oraz ich wariacji (czyli przekształceń). Zaczniemy od wygenerowania pierwszego motywu – jego rytmu i dźwięków. Podobnie jak w przypadku generowaniu harmonii, skorzystamy ze statystyk, N-gramów, wyznaczonych na utworach muzycznych. Do przygotowania takich statystyk wykorzystamy bazę Essen Folksong Collection. Równie dobrze można skorzystać z dowolnej innej bazy melodii, taki wybór bazy będzie rzutować na to, jakiego rodzaju melodie będą generowane. Z każdego utworu trzeba wyodrębnić melodię, zamienić ją na ciąg wartości rytmicznych oraz ciąg dźwięków, a z tych  ciągów wyciągnąć statystyki. Przy tworzeniu statystyk dźwięków warto melodie najpierw  w pewien sposób przygotować –  przetransponować je wszystkie do dwóch tonacji, np. C-dur i c-moll. Zmniejszy to liczbę możliwych (prawdopodobnych) N-gramów 12-krotnie, a dzięki temu statystyki będą lepiej oszacowane.

Dobry motyw

Stworzenie pierwszego motywu zaczniemy od wygenerowania jego rytmu. Przypomnę tutaj, że przyjęliśmy wcześniej pewne uproszczenie – każdy z motywów i ich wariacji będzie trwać dokładnie jeden takt. Kolejne kroki generowania rytmu motywu: – losujemy pierwszą wartość rytmiczną z użyciem unigramów, – losujemy kolejną wartość rytmiczną z użyciem bigramów i unigramów – kontynuujemy losowanie kolejnych wartości rytmicznych, z użyciem N-gramów co raz wyższych rzędów (aż do 5-gramów), – przerywamy aż osiągniemy sumaryczną wartość rytmiczną równą długości jednego taktu – jeśli przekroczyliśmy długość 1 taktu, zaczynamy cały proces od początku (takie generowanie jest to na tyle szybkie, że możemy sobie pozwolić na taką niezbyt optymalną metodę prób i błędów).

Następny etap to wygenerowanie dźwięków motywu. Kolejnym uproszczeniem jakie wcześniej przyjęliśmy jest to, że generujemy utwory tylko w tonacji C-dur, dlatego skorzystamy ze statystyk N-gramów stworzonych na utworach przetransponowanych do tej tonacji, z wyłączeniem utworów w tonacjach molowych. Schemat działania jest podobny do tego przy generowaniu rytmu: – losujemy pierwszy dźwięk z użyciem unigramów, – losujemy kolejny dźwięk z użyciem bigramów i unigramów, – kontynuujemy aż wylosujemy tyle dźwięków, ile wylosowaliśmy wcześniej wartości rytmicznych – sprawdzamy, czy motyw pasuje do harmonii, jeśli nie to wracamy zaczynamy od początku – jeśli po ok. 100 próbach nie udało się wygenerować motywu pasującego do harmonii, to może oznaczać, że przy zadanej harmonii i zadanym rytmie jest bardzo małe prawdopodobieństwo wylosowania dźwięków, które będą pasować do harmonii. W takim przypadku cofamy się i generujemy nowy rytm motywu.

Generuj do skutku

Zarówno przy generowaniu rytmu motywu jak i generowaniu jego dźwięków stosujemy metodę prób i błędów. Będziemy ją też stosować w opisanym niżej generowaniu wariacji motywów. Choć taki sposób może się to wydawać “głupi”, to jest prosty i działa. Pomimo iż bardzo często takie losowo wygenerowane motywy nie pasują do harmonii, to możemy sobie pozwolić na wiele takich pomyłek. Nawet 1000 prób zajmuje krótki czas obliczeń na dzisiejszych komputerach, a wystarczy by znaleźć odpowiedni motyw.

Wariacje z powtórzeniami

Mamy pierwszy motyw, a następnie potrzebujemy dalszego ciągu melodii. Nie będziemy jednak cały czas generować nowych motywów, ponieważ utwór stałby się chaotyczny. Nie możemy także ciągle powtarzać tego samego motywu, ponieważ utwór stałby się zbyt nudny. Rozsądną drogą będzie oprócz powtórzeń motywów stworzyć także modyfikację tego motywu co zapewni zróżnicowanie, ale nie uczyni utworu chaotycznym.

Istnieje wiele metod tworzenia wariacji motywu. Jedną z nich jest transpozycja chromatyczna. Polega ona na tym, że wszystkie nuty transponowane są w górę lub dół o ten sam interwał. W takim przypadku zdarza się, że wariacja motywu posiada dźwięki spoza tonacji utworu. To z kolei powoduje, że szansa na to, że wariacja będzie pasować do harmonii jest bardzo mała. Kolejnym sposobem jest transpozycja diatoniczna, gdzie wszystkie nuty są transponowane o tę samą liczbę stopni skali. W przeciwieństwie do poprzedniej metody, wariacje diatoniczne nie posiadają dźwięków spoza tonacji.

Następnym sposobem jest zmiana jednego interwału – zmieniamy wtedy jeden z interwałów motywu pozostawiając wszystkie pozostałe interwały niezmienione. W ten sposób jedna część motywu (początek lub koniec) transponujemy (transpozycją chromatyczną lub diatoniczną). Inne metody to zamiana dwóch nut o tej samej wartości rytmicznej na jedną oraz zamiana jednej nuty na dwie nuty o tej samej wartości rytmicznej. W przypadku pierwszej metody, jeśli motyw posiada dwie nuty o tej samej wartości rytmicznej to możemy zmienić jego rytm i połączyć dwie takie nuty. W przypadku drugiej metody w sposób losowy wybieramy nutę, która zamieniamy na dwie „krótsze”.

Dzięki każdemu z opisanych sposobów tworzenia wariacji można wygenerować różne motywy. Wymienione metody nie są jedynymi obowiązującymi. Można ich wymyślić znacznie więcej. Jedyną zasadą ograniczającą w tym procesie jest to by wygenerowane wariacje nie różniły się za bardzo od oryginalnego motywu. W przeciwnym wypadku to już nie będzie wariacja tylko nowy motyw. Granica pomiędzy tym gdzie kończy się wariacja, a gdzie zaczyna już inny motyw jest umowna.

Itp. itd.

Metod do tworzenia wariacji motywów jest o wiele więcej, wymyślić można ich mnóstwo. Jedyne co nas ogranicza, to zasada, by wygenerowane wariacje nie różniły się za bardzo od oryginalnego motywu. W przeciwnym wypadku to już nie będzie wariacja, tylko nowy motyw. Granica pomiędzy tym gdzie kończy się wariacja a gdzie zaczyna już inny motyw jest raczej umowna i każdy trochę inaczej ją “czuje”, definiuje.

Czy to już koniec?

No to tyle jeśli chodzi o generowanie utworów. Podsumujmy więc kroki jakie przedsięwzięliśmy:

  1. Generacja harmonii utworu:
    • generacja rytmu harmonicznego,
    • generacja progresji akordów.
  2. Generacja melodii:
    • generowanie rytmu motywu,
    • generowanie dźwięków motywu,
    • tworzenie wariacji motywów,
    • tworzenie motywów i wariacji “aż do skutku”, czyli aż będą dopasowane do wygenerowanej harmonii

Pozostało nam jeszcze sprawienie by wygenerowane utwory miały zadaną, tj. dopasowaną do umiejętności grającego, trudność.

Sterowanie trudnością

Jednym z naszych założeń była możliwość sterowania trudnością utworu. Możemy to uzyskać dzięki dwóm podejściom:

  1. generowaniu utworów „jak leci” i sprawdzanie ich poziomów trudności (wg sposobów opisanych wcześniej); przygotowaniu w ten sposób dużej bazy utworów, z której następnie zostaną wybrane losowe utwory o zadanej trudności,
  2. sterowaniu parametrami tworzenia harmonii, motywów i wariacji tak by częściej generowały elementy muzyczne o zadanej trudności

Oba sposoby nie wykluczają się wzajemnie, dlatego możemy z powodzeniem stosować je razem. W pierwszej kolejności należy wygenerować losowo np. 1000 utworów, a następnie sterować parametrami tak by wytworzyć kolejne (ale tylko takie jakich nam brakuje). Odnośnie sterowania parametrami warto zaznaczyć, że można zmieniać prawdopodobieństwo powtórzenia się motywu. Dla utworów o zadanym niskim poziomie trudności nadane prawdopodobieństwo będzie większe (powtórzenia gra się łatwiej). Trudne utwory z kolei będą miały nadane większe prawdopodobieństwo oraz rzadziej spotykane harmonie (które wymuszą także rzadziej spotykane motywy i wariacje).

Grać jak z nut – cz. 2

W pierwszej części artykułu poznaliśmy bardzo dużo pojęć muzycznych i technicznych. Teraz czas je wykorzystać do zbudowania automatycznego kompozytora. Zanim jednak do tego przystąpimy, musimy przyjąć pewne założenia (a raczej uproszczenia):

  • utwory będą się składały z 8 taktów w budowie okresowej (poprzednik 4 takty, następnik 4 takty)
  • metrum będzie 4/4 (czyli 4 ćwierćnuty na takt, akcent na pierwszą i trzecią miarę taktu)
  • długość każdego motywu wynosi 1 takt (mimo że to wymaganie wydaje się restrykcyjne, jednak wiele popularnych utworów jest zbudowanych właśnie z motywów, które trwają 1 takt).
  • stosowana będzie tylko tonacja C-dur (w razie potrzeby zawsze można po wygenerowaniu utworu przetransponować go do dowolnej tonacji)
  • ograniczymy się do ok. 25 najczęściej stosowanych odmian stopni harmonicznych (stopni jest 7, ale część z nich ma kilka wersji, z dodatkowymi dźwiękami, które zmieniają barwę akordu).

Co jest potrzebne do stworzenia utworu?

Do stworzenia w automatyczny sposób prostego utworu muzycznego potrzebne nam jest:

  • wygenerowanie harmonii utworu – akordów i ich rytmu
  • stworzenie motywów – ich dźwięków (wysokości) i rytmu
  • stworzenie wariacji tych motywów – j.w.
  • połączenia motywów i wariacji w melodię, dopasowując je do harmonii

Po opanowaniu podstaw możemy przejść do pierwszej części automatycznego komponowania – generowania harmonii. Zacznijmy od stworzenia rytmu harmonii.

Wolny rytm

Choć można by się pokusić o stworzenie statystycznego modelu rytmu harmonicznego, to, niestety, (przynajmniej w chwili pisania tego artykułu) nie ma dostępnej bazy, która by to umożliwiła. Wobec powyższego, musimy poradzić sobie w inny sposób – sami wymyślmy taki model. W tym celu wybierzmy kilka “sensownych” rytmów harmonicznych i zadamy im jakieś “sensowne” prawdopodobieństwa.

rytmprawdopodobieństworytmprawdopodobieństwo
[8]0.2[2,2]0.1
[6, 2]0.1[2,1,1]0.02
[2, 6]0.1[3,1]0.02
[7, 1]0.02[1,1,1,1]0.02
[4]0.4[1,1,2]0.02
Tab1. Rytmy harmoniczne, wartości wyrażane w ćwierćnutach – [6, 2] oznacza rytm, w którym są dwa akordy, pierwszy trwa 6 ćwierćnut, a drugi 2 ćwierćnuty.


Rytmy w tabeli przedstawione są w postaci tego, jak długo akordy będą trwały, a długość trwania przedstawiona jest w liczbie ćwierćnut. Niektóre rytmy trwają dwa takty (np. [8], [6, 2]), a pozostałe jeden takt ([4], [1, 1, 2] itd.).

Generowanie rytmu harmonii przebiega w następujący sposób. Losujemy kolejne rytmy aż do momentu, gdy otrzymamy tyle taktów, ile potrzebowaliśmy (w naszym przypadku 8). Ze względu na to, że rytmy mają różną długość, czasami mogą wyniknąć z tego pewne komplikacje. Przykładowo, może zaistnieć taka sytuacja, że do zakończenia generacji będzie potrzebny ostatni rytm o długości 4 ćwierćnut, a my natomiast wylosujemy rytm o długości 8. W takim przypadku, aby uniknąć niepotrzebnych problemów, można wymusić losowanie z podzbioru rytmów o długości 4 ćwierćnut.

W takim razie, zgodnie z powyższymi ustaleniami, załóżmy, że wylosowaliśmy następujące rytmy:

  • poprzednik: [4, 4], [2, 2], [3, 1], 
  • następnik: [3, 1], [8], [2, 2]

Likelihood

W kolejnym kroku będziemy wykorzystywali pojęcie likelihood. Jest to nieznormalizowane do jedynki prawdopodobieństwo (tzw. pseudo-prawdopodobieństwo), które pomaga ocenić względny poziom prawdopodobieństwa różnych zdarzeń. Dla przykładu, jeżeli likelihoody zdarzeń A i B wynoszą odpowiednio 10 oraz 20, to oznacza, że zdarzenie B jest dwa razy bardziej prawdopodobne od zdarzenia A. Równie dobrze mogłyby te likelihoody wynosić 1 oraz 2, albo 0.005 oraz 0.01. Z likelihoodów można policzyć prawdopodobieństwo. Jeśli założymy, że jedynie zdarzenia A i B mogą wystąpić, to ich prawdopodobieństwa będą wynosić odpowiednio:

Obrazek posiada pusty atrybut alt; plik o nazwie Zasob-1.svg

Progresje akordów

Aby wygenerować prawdopodobne przebiegi harmoniczne najpierw przygotujemy sobie modele N-gramowe stopni harmonicznych. W tym celu skorzystamy z modeli n-gramów udostępnionych na githubie (https://github.com/DataStrategist/Musical-chord-progressions).

Nasz przykładzie będzie wykorzystywać 1-, 2-, 3-, 4- i 5-gramy.

W rytmie harmonii poprzednika jest 6 wartości rytmicznych, więc musimy przygotować przebieg 6 stopni harmonicznych. Pierwszy akord generujemy z użyciem unigramów (1-gramów). Przygotowujemy sobie zatem najpierw likelihoody dla każdego możliwego stopnia, a następnie losujemy z uwzględnieniem tych likelihoodów. Wzór na likelihood jest w tym przypadku dość prosty:

likelihoodX=p(X)

gdzie
X oznacza dowolny stopień harmoniczny
p(X) to prawdopodobieństwo 1-gramu X

My w tym przypadku wylosowaliśmy IV stopień (w tej tonacji F-dur).

Drugi akord generujemy z użyciem bigramów oraz unigramów, z wagą większą dla bigramów:

likelihoodX=waga2gramp(X v IV)+waga1gram*p(X)

gdzie:

  • p(X v IV) to prawdopodobieństwo przebiegu (IV, X)
  • wagaNgram to przyjęta waga N-gramu (im większa tym większy wpływ tego modelu n-gramowego, a mniejszy wpływ innych modeli)

Wagi n-gramów możemy przyjąć takie, jakie chcemy. Na potrzeby przykładu wybraliśmy takie:

n-gram12345
waga0.0010.010.115

Kolejny akord jaki wylosowaliśmy to: vi stopień (a-moll).

Generowanie trzeciego akordu przebiega podobnie, z tym że możemy już wykorzystać 3-gramy:

likelihoodX=waga3gramp(X v IV, vi)+waga2gramp(X v IV)+waga1gram*p(X)

I tak kontynuujemy, aż wygenerujemy wszystkie potrzebne akordy. W naszym przypadku wylosowaliśmy:

IV,  vi, I, iii, IV, vi (w przyjętej tonacji C-dur to są kolejno akordy F-dur, a-moll, C-dur, e-moll, F-dur, a-moll)

Nie jest to jakiś bardzo często spotykany przebieg akordów, ale jak się okazuje występuje w 5 popularnych piosenkach (https://www.hooktheory.com/trends#node=4.6.1.3.4.6&key=rel)

Podsumowanie

Udało nam się wygenerować rytmy i akordy, które są składowymi harmonii utworu. Należy tutaj jednak zwrócić jeszcze uwagę, że dla uproszczenia, nie wzięliśmy pod uwagę dwóch ważnych czynników:

  • Przebiegi harmoniczne poprzednika i następnika są bardzo często w jakiś sposób powiązane. Harmonia następnika może być identyczna do tej poprzednika lub ewentualnie lekko zmieniona, aby sprawiać wrażenie, że te dwa zdania są ze sobą w jakiś sposób powiązane.
  • Poprzednik i następnik kończą się prawie zawsze na konkretnych stopniach harmonicznych. Nie jest to ścisła reguła, ale niektóre stopnie harmoniczne są o wiele bardziej prawdopodobne od innych na końcach zdań muzycznych.

Na potrzeby przykładu można jednak uznać zadanie za zakończone. Harmonię utworu mamy już gotową, teraz należy jedynie stworzyć melodię do tej harmonii. W trzeciej części naszego artykułu można dowiedzieć się, jak właśnie taką melodię skomponować.

Nowe rozwiązania w komputerach stacjonarnych

Współczesny rynek technologiczny prężnie rozwija się w zakresie komputerów stacjonarnych. Firmy technologiczne próbują wyróżniać swoje produkty poprzez wprowadzanie do nich innowacyjnych rozwiązań. W ostatnim czasie duży rozgłos zyskał Mac M1 Ultra.

Nowy komputer od Apple, odznacza się przede wszystkim swoją wielkością i mobilnością. Zaprezentowany na początku marca produkt jest pełnoprawnym desktopem zamkniętym w obudowie o wymiarach 197 x 197 x 95 mm. Porównując to do kart graficznych Nvidii z serii RTX, np. Gigabyte GeForce RTX 3090 Ti 24GB GDDR6X, gdzie samo GPU ma wymiary 331 x 150 x 70 mm, okazuje się, że otrzymujemy cały komputer o rozmiarach karty graficznej. [4]

Apple M1 Ultra  - przedni panel
Rys. 1 – Apple M1 Ultra  – przedni panel [5]

Różnica w budowie

Rdzenie to fizyczne elementy procesora w których zachodzą procesy i obliczenia, im więcej rdzeni tym szybciej pracować będzie komputer. Proces technologiczny wyrażony w nm oznacza wielkość bramki tranzystora i przekłada się na zapotrzebowanie energii oraz ciepło generowane przez procesor. Zatem im mniejsza wartość jest wyrażona w nm, tym wydajniejszy jest procesor.

Procesor M1 Ultra ma 20 rdzeni i tyle samo wątków, a wykonany jest w technologii 5nm. [4][6] Dla porównania AMD oferuje maksymalnie 16 rdzeni i 32 wątki w technologii 7nm [7] (nowe procesory AMD z serii ZEN4 mają mieć technologię 5nm, jednak na  ten moment nie znamy dokładnej specyfikacji [3]) a Intel 16 rdzeni i 32 wątki w technologii 14nm [8]. Wobec powyższego, w teorii produkt od Apple ma znaczną przewagę nad konkurencją w kwestiach wydajności pojedynczego wątku. [Rys. 2]

Wydajność nowego komputera Apple

Według zapewnień producenta, GPU od Apple miało przewyższać najlepszą, na tamten moment, dostępną kartę graficzną – RTX 3090.

Wykres  wydajności procesora od ilości zużytego prądu
Rys. 2 – Wykres  wydajności procesora od ilości zużytego prądu [9] . Wykres pokazany przez Apple podczas prezentacji nowego produktu

Zintegrowana karta graficzna miała zapewniać lepszą wydajność przy zużyciu ponad 200W mniej mocy. [Rys. 3] Po premierze, użytkownicy sprawdzili jednak szybko zapewnienia producenta i okazało się, że RTX znacznie przewyższa w testach benchmarkowych produkt Apple.

Wykres wydajności karty graficznej od ilości zużytego prądu
Rys. 3 – Wykres wydajności karty graficznej od ilości zużytego prądu [9]. Wykres pokazany przez Apple podczas prezentacji nowego produktu. Porównany z RTX 3090

Problemem jest to, że te benchmarki w większości wykorzystują programy niezoptymalizowane pod Mac OS, przez co produkt Apple nie wykorzystuje całości swojej mocy. W testach wykorzystujących całą moc GPU M1 Ultra wypada bardzo podobnie do swojego dedykowanego rywala. Niestety nie wszystkie aplikacje są napisane pod system operacyjny Apple, co mocno ogranicza zastosowania, w których wykorzystamy pełną moc komputera.[10]

Na poniższym wykresie zostało przedstawione porównanie liczby klatek na sekundę w “Shadow of the Tomb Raider” z 2018 roku. [Rys. 4] Im więcej klatek tym płynniejszy jest obraz. [2]

Liczba klatek na sekundę w grze z serii Tomb Raider
Rys. 4 – Liczba klatek na sekundę w grze z serii Tomb Raider (im więcej tym lepiej)[2]

Pobór energii nowego Mac Studio M1 Ultra w porównaniu do standardowych PC

Pomimo dużej mocy obliczeniowej, nowy produkt Apple jest bardzo energooszczędny. Producent podaje, że jego maksymalny ciągły pobór mocy wynosi 370W. Standardowe PC na współczesnych podzespołach nie schodzą poniżej 500W a rekomendowana moc dla sprzętu z najlepszymi częściami wynosi 1000W [Tab. 1] ( Nvidia GeForce RTX 3090 Ti + AMD R7/9 lub Intel i7/9 ).  

Intel i5
AMD R5
Intel i7
AMD R7
Intel i9 K
AMD R9
NVIDIA RTX 3090 Ti850W1000W1000W
NVIDIA RTX 3090 750W850W850W
NVIDIA RTX 3080 Ti750W850W850W
NVIDIA RTX 3080 750W850W850W
NVIDIA RTX 3070 Ti750W850W850W
NVIDIA RTX 3070 650W750W750W
Lower graphic cards650W650W650W
Tab. 1 – Tabela rekomendowanej mocy zasilacza zależnie od użytego procesora i karty graficznej. W kolumnach procesory AMD i Intel, w wierszach karty graficzne NVIDIA z serii RTX. [1]

Oznacza to znacznie mniejsze koszty utrzymania takiego komputera. Zakładając, że nasz komputer pracuje 8h dziennie i średni koszt kWh na poziomie 0,77 PLN, otrzymujemy oszczędność na poziomie 1500 zł rocznie. W krajach, które nie są zasilane zieloną energią oznacza to również mniejszą ilość zanieczyszczeń.

Problemy produktu od Apple

Produkty od Apple mają dedykowany software, co oznacza lepszą kompatybilność z hardware i przekłada się na lepszą wydajność, ale oznacza też, że dużo programów nie napisanych pod Mac OS nie jest w stanie całkowicie wykorzystać potencjału M1 Ultra. Produkt nie pozwala na korzystanie z dwóch systemów operacyjnych lub samodzielne zainstalowanie Windowsa/Linuxa. Okazuje się więc, że to co pozwala M1 Ultra osiągnąć tak dobre wyniki w niektórych warunkach, jest też powodem przez który nie jest w stanie konkurować wydajnością w innych programach. [10]

Podsumowanie

Apple M1 Ultra jest silnym komputerem w małej obudowie. Technologia 5nm zapewnia najlepszą energooszczędność wśród produktów aktualnie dostępnych na rynku. Jednak przez swoją niską kompatybilność i wysoką cenę nie zastąpi standardowych komputerów. Aby uzyskać maksymalną wydajność potrzebne są programy dedykowane pod system operacyjny Apple. Decydując się na ten komputer trzeba to mieć na myśli. Z tego powodu, pomimo wielu zalet jest to raczej produkt przeznaczony dla profesjonalnych grafików, muzyków lub edytorów wideo.

Bibliografia

[1] https://www.msi.com/blog/we-suggest-80-plus-gold-1000w-and-above-psus-for-nvidia-geforce-rtx-3090-Ti

[2] https://nano.komputronik.pl/n/apple-m1-ultra/

[3] https://www.tomshardware.com/news/amd-zen-4-ryzen-7000-release-date-specifications-pricing-benchmarks-all-we-know-specs

[4] https://www.x-kom.pl/p/730594-nettop-mini-pc-apple-mac-studio-m1-ultra-128gb-2tb-mac-os.html

[5] https://dailyweb.pl/apple-prezentuje-kosmicznie-wydajny-mac-studio-z-nowym-procesorem-m1-ultra/

[6] https://geex.x-kom.pl/wiadomosci/apple-m1-ultra-specyfikacja-wydajnosc/

[7] https://www.amd.com/pl/partner/ryzen-5000-series-desktop

[8] https://www.cpu-monkey.com/en/

[9] https://www.apple.com/pl/newsroom/2022/03/apple-unveils-m1-ultra-the-worlds-most-powerful-chip-for-a-personal-computer/

[10] https://youtu.be/kVZKWjlquAU?t=301

Chmura obliczeniowa a środowisko

Termin chmury obliczeniowej trudno jest jednoznacznie zdefiniować. Inne podejście do chmury będą miały przedsiębiorstwa czy osoby prywatne. Zwykle mówimy o chmurze obliczeniowej jako o sieci dostępnych na żądanie zasobów serwerowych – mocy obliczeniowej oraz przestrzeni dyskowej, ale również i oprogramowania – dostarczanych przez zewnętrzne podmioty, czyli tzw. dostawców chmury (ang. cloud provider). Dostarczane zasoby są dostępne przez Internet oraz zarządzane przez dostawcę, eliminując tym samym wymóg kupowania sprzętu oraz bezpośredniego zarządzania fizycznymi serwerami przez firmy. Dodatkowo, chmura jest rozproszona na wiele centrów danych w wielu rejonach świata, dzięki czemu możemy liczyć na mniejszą awaryjność oraz większą dostępność naszych usług [1].

Podstawowe działanie chmury

Zasoby dostępne w chmurze są współdzielone przez wielu klientów, dzięki czemu można lepiej wykorzystać dostępną moc obliczeniową oraz przy odpowiednim użyciu, może okazać się ona korzystniejsza cenowo. Takie podejście do współdzielenia zasobów może budzić pewne obawy, jednak dzięki wykorzystaniu technologii wirtualizacji, chmura zapewnia wyższe bezpieczeństwo niż w klasycznym modelu obliczeniowym. Wirtualizacja pozwala na tworzenie symulowanych komputerów, tzw. maszyn wirtualnych, które zachowują się tak jak ich fizyczne odpowiedniki, jednak znajdują się na jednym serwerze i są od siebie w pełni odizolowane. Współdzielenie zasobów i wirtualizacja pozwalają na efektywne wykorzystanie sprzętu oraz ostatecznie ograniczenie poboru prądu przez serwerownie. Oszczędności finansowe możemy natomiast odczuć ze względu na powszechnie stosowany przez dostawców model biznesowy “pay-as-you-go” polegający na rozliczaniu użytkowników za faktycznie wykorzystane zasoby (np. za minuty czy nawet sekundy wykorzystanego czasu obliczeniowego) w przeciwieństwie do stałego abonamentu. 

Samo określenie “chmury” zapoczątkowało się jako termin slangowy. Często na schematach technicznych infrastrukturę sieciową i serwerową reprezentujemy jako ikonę chmury [2]. Aktualnie “chmura obliczeniowa” jest powszechnie przyjętym określeniem w środowisku IT oraz popularnym modelem obliczeniowym. Przystępność cenowa chmury oraz brak konieczności samodzielnego zarządzania nią, sprawia, że ten model obliczeniowy jest coraz częściej wybierany przez firmy informatyczne, co pozytywnie przekłada się na aspekty środowiskowe [3].

Mniejsze zużycie energii elektrycznej 

Wzrastające zapotrzebowanie na rozwiązania z obszaru IT niesie za sobą równocześnie większe zapotrzebowanie na energię elektryczną – zasób strategiczny z punktu widzenia utrzymania chmury. Utrzymywanie swojej własnej serwerowni w przedsiębiorstwie wiąże się jednak z ogromnymi nakładami energetycznymi, które generuje nie tylko sam sprzęt komputerowy, ale także system do chłodzenia serwerowni. 

Wbrew pozorom większe serwerownie, które przeliczają na raz ogromne ilości danych są bardziej przyjazne środowisku niż lokalne serwerownie w przedsiębiorstwach [4]. Według badań Accenture, przeniesienie własności przedsiębiorstwa do chmury może zredukować zużycie energii nawet o prawie 65%. Jest to wynikiem tego, że największe rozwiązania chmurowe budowane są zazwyczaj w przeznaczonym do tego miejscu, co pozwala na lepszą organizację infrastruktury i zarządzanie zasobami [5]. Dostawcy dużych usług chmurowych mogą z wyprzedzeniem zaplanować system chłodzenia, który będzie dawać najlepsze efekty. Dodatkowo dysponują nowoczesnym, często dużo wydajniejszym prądowo sprzętem niż przeciętna serwerownia. W badaniach przeprowadzonych w 2019 roku, stwierdzono, że chmura AWS była 3,6 razy bardziej efektywna pod względem wykorzystywanej energii niż mediana badanych centrów danych przedsiębiorstw w USA [6].

Co więcej, ze względu na to, że chmura jest środowiskiem współdzielonym, można efektywnie sterować mocą. Skala użytkowników jednej chmury obliczeniowej pozwala na bardziej rozważne rozdysponowanie zużywanej energii pomiędzy poszczególnymi przypadkami. Zrównoważone zarządzanie zasobami umożliwia również nasz produkt Data Engineering, który zbiera i analizuje dane w celu maksymalizacji wydajności i efektywności pracy.

Zmniejszenie emisji szkodliwych substancji

Poprzez budowę centrów przetwarzania danych, które korzystają z ekologicznych źródeł energii oraz opierają się na niskoemisyjnych rozwiązaniach, można chociażby kontrolować emisję dwutlenku węgla i innych gazów mających wpływ na efekt cieplarniany. Zgodnie z danymi z raportu “The Green Behind Cloud” [7] migracje do chmury publicznej mogą zredukować globalną emisję dwutlenku węgla o 59 mln ton rocznie, co jest porównywalne do usunięcia 22 milionów samochodów z drogi.

Warto również zainteresować się migracją do dostawców mających na uwadze swój ślad węglowy. Dla przykładu chmura firmy Google jest w pełni neutralna pod względem emisji dwutlenku węgla wykorzystując energię odnawialną, a od roku 2030 zobowiązuje się do wykorzystywania wyłącznie energii bezemisyjnej przez całą dobę we wszystkich centrach danych [8]. Chmura Azure firmy Microsoft jest neutralna emisyjnie od 2012 roku, a klienci mogą śledzić emisję swoich usług w specjalnie przygotowanym kalkulatorze [9].

Redukcja hałasu związanego z użytkowaniem sprzętu IT 

Hałas klasyfikowany jest jako zanieczyszczenie środowiska. Mimo że na pierwszy rzut oka wydaje się on całkiem niepozorny i nieszkodliwy, ma on negatywny wpływ na zdrowie człowieka i jakość środowiska. W odniesieniu do człowieka, zwiększa on ryzyko chorób takich jak nowotwór, zawał serca czy nadciśnienie. Z kolei z perspektywy środowiskowej ma on wpływ na zmianę zachowania zwierząt, migracji ptaków czy też ich reprodukcję.

Głównym źródłem hałasu w rozwiązaniach przechowywania danych w serwerach w firmie jest specjalny system chłodzenia, który pozwala utrzymać odpowiednią temperaturę w serwerowni. Wykorzystanie rozwiązań chmurowych pozwala zredukować emitowany hałas przez urządzenia chłodzące w miejscach pracy, co w konsekwencji przyczynia się do zmniejszenia zanieczyszczenia środowiska hałasem.

Jeśli chcesz dowiedzieć się więcej o dostępnych rozwiązaniach pozwalających na redukcję hałasu przemysłowego, sprawdź nasz produkt Intelligent Acoustics.

Redukcja poziomu odpadów 

Zastosowanie chmury obliczeniowej w swojej działalności, w przeciwieństwie do posiadania tradycyjnych serwerów w zasobach firmowych, wpływa również na zmniejszenie ilości produkowanych odpadów komputerowych. Wynika to głównie z faktu, iż chmura obliczeniowa nie wymaga zakupu dodatkowego wyposażenia czy też przygotowania infrastruktury do serwerowni w firmie, co w późniejszej perspektywie ogranicza ilość sprzętu do utylizacji.  

Ponadto, stosowane mechanizmy wirtualizacji, polegające na zastępowaniu większej liczby serwerów z małą mocą obliczeniową na mniejsze ilości serwerów, które później skuteczniej wykorzystują ową moc, optymalizują i zwiększają wydajność serwera, a to w rezultacie zmniejsza zapotrzebowanie na zasoby sprzętowe.  

Podsumowanie 

Aktualnie działanie zrównoważone jest ważnym czynnikiem przy wyborze technologii. Ochrona środowiska staje się dla firm, a także producentów urządzeń sieciowych czy telekomunikacyjnych, sprawą priorytetową, co przekłada się na szukanie bardziej ekologicznych rozwiązań. Chmura obliczeniowa zdecydowanie wpisuje się w ten trend. Nie tylko przyczynia się do ograniczenia zużycia zasobów sprzętowych, energetycznych, a także redukuje emisję szkodliwych substancji do ekosystemu czy emitowany hałas do środowiska.  

Bibliografia

[1] https://www.wit.edu.pl/dokumenty/wydawnictwa_naukowe/zeszyty_naukowe_WITZ_06/0006_Joszczuk-Januszewska.pdf 

[2] https://rocznikikae.sgh.waw.pl/p/roczniki_kae_z36_21.pdf 

[3] http://yadda.icm.edu.pl/yadda/element/bwmeta1.element.ekon-element-000171363539  

[4] Paula Bajdor, Damian Dziembek “Środowiskowe i społeczne efekty zastosowania chmury obliczeniowej w przedsiębiorstwach”, 2018 

[5] https://www.accenture.com/_acnmedia/PDF-135/Accenture-Strategy-Green-Behind-Cloud-POV.pdf  

[6] “Reducing carbon by moving to AWS” https://www.aboutamazon.com/news/sustainability/reducing-carbon-by-moving-to-aws

[7] https://www.accenture.com/us-en/insights/strategy/green-behind-cloud

[8] “Operating on 24/7 Carbon-Free Energy by 2030.” https://sustainability.google/progress/energy/

[9] https://www.microsoft.com/en-us/sustainability/emissions-impact-dashboard