Dolina niesamowitości 

Dolina niesamowitości (ang. uncanny valley) to pojęcie odnoszące się do powszechnego, niepokojącego wrażenia doświadczanego przez ludzi w sytuacji, kiedy robot w bardzo dużym stopniu przypomina człowieka, ale nie jest dostatecznie przekonująco realistyczny [1]. Zjawisko to po raz pierwszy pojawiło się w latach 70. XX wieku, kiedy to japoński robotyk Masahiro Mori zaobserwował, że roboty stają się tym bardziej interesujące, im bardziej przypominają swoim wyglądem człowieka, ale tendencja ta utrzymuje się tylko do pewnego momentu. Określił on wówczas ten fenomen jako bukimi no tani (pol. dolina niesamowitości). Po „osiągnięciu” bukimi no tani poczucie zainteresowania zamienia się w poczucie obcości, niepokoju lub nawet strachu [2].

Rys. 1. Wykres obrazujący zjawisko doliny niesamowitości. 

Źródło: https://www.linkedin.com/pulse/uncanny-valley-personalization-mac-reddin-/  

Dlaczego doświadczamy zjawiska doliny niesamowitości?

Na dzień dzisiejszy nie jest nam znana jedna, konkretna odpowiedź na to pytanie. Istnieje natomiast kilka teorii, które pozwalają lepiej zrozumieć przyczyny występowania tego zjawiska. Przyczyny te dzielimy na: 

  • Neurologiczne 

W badaniu przeprowadzonym w 2019 roku, Fabian Grabenhorst wraz z zespołem neurologów poddali analizie neurologiczny aspekt doliny niesamowitości. Zbadali oni wzorce mózgowe u 21 osób wykorzystując funkcjonalne obrazowanie metodą rezonansu (fMRI), czyli technikę pomiaru zmian w przepływie krwi w różnych obszarach mózgu. Podczas testów uczestnicy określali swój poziom zaufania względem ludzi oraz robotów o różnym poziomie ludzkiego podobieństwa. Wyniki pokazały, że pewne konkretne części mózgu były szczególnie ważne w kontekście uncanny valley. Dwie części przyśrodkowej kory przedczołowej – odpowiedzialnej za uwagę i zmysły – wykazały pewną niestandardową aktywność. Jedna z nich przekształciła „sygnał podobieństwa do człowieka” w „sygnał wykrycia człowieka” oraz nadmiernie wyeksponowała granicę między człowiekiem a nie-człowiekiem. Z kolei druga, skorelowała ten sygnał z oceną sympatii. Połączenie to utworzyło mechanizm, który ściśle przypomina to, czym charakteryzuje się dolina niesamowitości.

  • Psychologiczne

Okazuje się, że już w 1919 roku Sigmund Freud zaobserwował zjawisko, które opisał jako „dziwna emocja odczuwana przez ludzi, którą budzą pewne przedmioty”. Sugerował, że uczucie, które nam wtedy towarzyszy może być związane z wątpliwościami co do tego, czy coś nieożywionego, co obserwujemy, posiada duszę. Co ciekawe, w tamtym czasie jego spostrzeżenie odnosiło się oczywiście nie do robotów, lecz do realistycznych lalek czy też figur woskowych, co sugeruje, że zjawisko to może być starsze niż nam się wydaje oraz występować na większej ilości płaszczyzn niż tylko wśród maszyn. Dzisiaj podobny mechanizm wykorzystywany jest w branży filmowej. Wiele horrorów nadaje cechy ludzkie postaciom, które ludźmi nie są.

  • Ewolucyjne

Uncanny valley może być również powiązana z ewolucją. Roboty, które klasyfikujemy do doliny niesamowitości, wyglądają jak ludzie, ale posiadają również cechy, które wyraźnie nie są ludzkie. Niektóre z tych cech, takie jak skóra pozbawiona życia, nienaturalne rysy twarzy czy też głos nieadekwatny do wyglądu, mogą kojarzyć się nam z czymś odstającym od normy, czy nawet niebezpiecznym. To z kolei wywołuje w nas uczucie niechęci, strachu. Kiedy mamy do czynienia z czymś, co jest ludzkie, ale nierealistyczne, nie „jak żywe”, budzi to w nas odczucie podobne do takiego, którego doświadczamy, kiedy stykamy się z czymś, co jest martwe.

  • Kognitywne

Zjawisko doliny niesamowitości może również wynikać z egzystencjonalnego strachu przed zastąpieniem ludzi przez roboty. Widok robota, który swoim wyglądem przypomina człowieka, ale człowiekiem nie jest, zaburza nasze oczekiwania względem tego, jak wygląda człowiek, a jak wygląda robot. Budzi to w nas wątpliwości odnośnie do tego, kim jest człowiek, jak powinien wyglądać oraz jak powinien się zachowywać. Warto zauważyć, że niepokój nie wynika z samego faktu istnienia robotów, lecz z faktu istnienia takich robotów, które łączą w sobie elementy zazwyczaj nie występujące razem. Przykładowo, roboty „brzmiące jak roboty” nie stanowią dla nas problemu, natomiast roboty posługujące się typowo ludzkim głosem, już tak [2] [3].

Dolina niesamowitości w rzeczywistości

Fenomen doliny niesamowitości obecny jest w wielu różnych dziedzinach. Poza obszarem robotyki, zaobserwować możemy go również w grach komputerowych, czy filmach wykorzystujących technologię CGI, czyli obrazy generowane komputerowo. Efekt ten wykracza poza świat technologii i powodować go mogą przedmioty takie jak realistyczne lalki, manekiny czy figury woskowe.

  • Sophia

Fot. 1. Zdjęcie przedstawiające robota Sophia. 

Źródło: https://pl.wikipedia.org/wiki/Plik:Sophia_%28robot%29.jpg  

Sophia jest najbardziej zaawansowanym robotem humanoidalnym, jaki dotychczas powstał. Stworzona przez Hanson Robotics, po raz pierwszy aktywowana została w 2016 roku. Uzyskała obywatelstwo Arabii Saudyjskiej, stając się tym samym pierwszym robotem-obywatelką na świecie. Przyznany został jej tytuł Ambasadorki Innowacji Programu Rozwoju Narodów Zjednoczonych. Rozpoznawalność zyskała również dzięki występom w programach telewizyjnych, takich jak Good Morning Britain czy The Tonight Show [4]. Sophia posiada umiejętność wyrażania różnych złożonych emocji, przybierania ludzkich wyrazów twarzy i wchodzenia w interakcje z innymi ludźmi. Wyposażona jest w umiejętność przetwarzania oraz posługiwania się językiem naturalnym, rozpoznawania twarzy oraz śledzenia wizualnego [5]. Jej „skóra” wykonana jest ze specjalnego materiału, opracowanego przez naukowców z Hanson Robotics, który nazwany został Frubber. Jest to rodzaj gumy, która swoją fakturą i elastycznością przypomina ludzką skórę [6]. Z powodu jej wyglądu i zachowań, które są bardzo bliskie tym odpowiadającym człowiekowi, wciąż są zbyt nienaturalne. Sophia jest klasyfikowana do doliny niesamowitości, mogąc budzić w nas tym samym uczucie dyskomfortu oraz niepokoju.

  • Ekspres polarny

Rys. 2. Komputerowo wygenerowany kadr z filmu Ekspres polarny. 

Źródło: https://collider.com/worst-cases-of-uncanny-valley-movies/ 

Ekspres polarny to film animowany w reżyserii Roberta Zemeckisa, powstały w 2004 roku. Film zrealizowany został z wykorzystaniem technologii CGI, która zdaniem wielu wykorzystana została w sposób nietrafny. Sami producenci ekranizacji mieli sprzeczną wizję, wobec tego w jaki sposób powinien powstać film. Robert Zemeckis w wywiadzie dla Wired powiedział, że „live-action wyglądałoby okropnie i byłoby niemożliwe do zrealizowania – kosztowałoby 1 miliard dolarów zamiast 160 milionów dolarów”. Natomiast Tom Hanks, odgrywający w filmie rolę aż siedmiu postaci, twierdził, iż film nie powinien powstać w wersji animowanej [7]. Twórcy znaleźli pewnego rodzaju porozumienie, łączące ze sobą te dwa podejścia. Wykorzystali oni technologię przechwytywania ruchu (ang. motion capture), czyli metodę polegająca na rejestrowaniu ruchów aktorów, a następnie zapisywaniu ich w komputerze. Jednak krytycy twierdzą, iż twórcom nie udało się dobrze odzwierciedlić postaci, przez co wydają się one niedostatecznie realistyczne. Bohaterom brakuje ludzkich emocji oraz mimiki, poruszają się w sposób nienaturalny, a ich oczy wydają się być ciągle „nieobecne”.

Konsekwencje doliny niesamowitości

Zjawisko doliny niesamowitości ma znaczący wpływ na przyszłość wielu różnych obszarów naszego życia. Dzięki obecnej wiedzy, jakie niechciane uczucia może powodować to zjawisko, robotycy, producenci filmów oraz projektanci gier wideo mogą uwzględniać ten problem w swoich działaniach. Na ten moment wiadomo już, że warto tworzyć roboty, które nie powodują braku zaufania pomiędzy maszyną, a użytkownikiem. W przeciwnym razie narażone będą one na zły odbiór oraz mniejszą przydatność w osiągnięciu zamierzonego celu. Z kolei w filmach, zbyt realistyczne postacie wygenerowane komputerowo w najlepszym przypadku wywołać mogą brak sympatii ze strony widza, a w najgorszym uczucia takie jak niepokój, czy nawet strach. Dlatego właśnie twórcy filmów często decydują się na wręcz zbyt przesadne uwydatnienie niektórych cech fizycznych swoich bohaterów. Nadawanie postaciom charakterystyk takich jak przesadnie duże oczy, nienaturalny kolor skóry czy nadmiernie dynamiczne ruchy stanowi jeden ze sposobów na radzenie sobie z uniknięciem efektu wywołanego przez dolinę niesamowitości. Podobne mechanizmy zachodzą również w grach komputerowych – projektanci mogą chcieć starać się tworzyć swoje postacie z myślą o niezbyt przesadnym realizmie, gdyż w przeciwnym razie mogą spotkać się z negatywnym odbiorem ze strony graczy. Choć istnieją również wyjątki – w niektórych przypadkach filmowcy lub projektanci gier mogą chcieć uzyskać postacie, które celowo „wpadają” do uncanny valley. Dzięki temu mogą mieć kontrolę chociażby nad tym, w jaki sposób odbierane będą czarne charaktery. Bohater, który przejawiał będzie pewne nienaturalne, lecz jednocześnie zbyt realistyczne cechy, wywoływał będzie poczucie niechęci wśród odbiorców [8] [9].

Dolina niesamowitości a UX

Bardzo ciekawe zagadnienie w kontekście uncanny valley stanowi również jej wpływ na projektowanie interfejsów użytkownika. Dodanie pewnych elementów realistycznych do wyglądu interfejsu może mieć pozytywne skutki. Przykładowo, światło i cień nadają poczucia możliwości naciśnięcia danego elementu, a dźwięk może stanowić odpowiednik danego odgłosu, który usłyszymy również w prawdziwym życiu. Jednak dodanie zbyt dużej ilości realizmu może prowadzić do powstania zbyt cienkiej granicy pomiędzy tym co wirtualne, a tym co rzeczywiste. Przykładowo, bardzo detaliczna aplikacja kalendarza, którego faktura przypomina prawdziwy papier. Fakt, że nie jesteśmy w stanie go dotknąć, a jedynie „przewijać” na ekranie komputera czy też smartfona, może sprawiać dla nas wrażenie czegoś dziwnego, „niepasującego”. Dlatego tak istotne jest, aby nie dążyć do osiągnięcia elementów, które wręcz w całkowity sposób odzwierciedlają realne obiekty. Dzięki zachowaniu odpowiedniego balansu pomiędzy realizmem a fikcją, doświadczenie użytkownika staje się przyjemne oraz pozbawione dylematów [10].

Rys. 3. Grafika przedstawiająca bardzo realistyczne logo Google Chrome z 2008 roku oraz jego unowocześnioną, znacznie mniej realistyczną wersję z 2011. 

Źródło: https://bpando.org/2011/03/17/the-new-chrome-logo/  

Podsumowanie

Ludzie doświadczają niepokoju, gdy napotykają wyglądające niemal jak prawdziwe, ale wciąż niedostatecznie realistyczne jednostki przypominające ludzi – zjawisko to określane jest jako dolina niesamowitości. Ma ono kluczowe znaczenie w różnych dziedzinach. Jego przykłady obejmują zaawansowane roboty, postacie generowane komputerowo czy nawet formy wykraczające poza sferę technologii, takie jak lalki czy figury woskowe. Konsekwencje uncanny valley mogą w znaczącym stopniu wpływać na akceptację oraz użyteczność danej technologii. W kontekście UX, świadomość istnienia doliny niesamowitości jest kluczowa dla projektantów, którzy starają się zminimalizować niepożądane efekty poprzez odpowiednie zaprojektowanie interfejsów tak, aby użytkownicy czuli się komfortowo oraz byli zaangażowani w interakcje z produktami.

Bibliografia

[1] https://www.techtarget.com/whatis/definition/uncanny-valley  

[2] https://spectrum.ieee.org/what-is-the-uncanny-valley  

[3] https://www.sciencefocus.com/news/uncanny-valley-what-is-it-and-why-do-we-experience-it  

[4] https://aidriven.pl/ai/etyka-i-prawo/robot-sophia-jak-humanoidy-zmieniaja-nasze-postrzeganie-ai/ 

[5] https://robotsguide.com/robots/sophia 

[6] https://www.hansonrobotics.com/the-making-of-sophia-frubber/ 

[7] https://faroutmagazine.co.uk/the-disturbing-valley-robert-zemeckis-polar-express/  

[8] https://www.techtarget.com/whatis/definition/uncanny-valley  

[9] https://www.verywellmind.com/what-is-the-uncanny-valley-4846247 

[10] https://cassidyjames.com/blog/uncanny-valley-curve/

Społeczeństwo 5.0

Idea Society 5.0 polega na stworzeniu superinteligentnego społeczeństwa, w którym różne społeczne wyzwania rozwiązywane są poprzez wdrożenie innowacji czwartej rewolucji przemysłowej – takich jak: IoT, Big Data, Sztuczna Inteligencja (AI), robotyka czy ekonomia współdzielenia – do każdej branży oraz w życie społeczne. W tak wyglądającym świecie, ludzie, maszyny oraz ich otoczenie, są ze sobą połączone i potrafią komunikować się między sobą [1]. W praktyce, Społeczeństwo 5.0 będzie m.in. dążyło do zapewnienia lepszej opieki seniorom. Na przykład w Japonii społeczeństwo starzeje się bardzo szybko. Jeśli kiedykolwiek w przyszłości miałoby zabraknąć rąk do zajmowania się osobami starszymi, to właśnie nowa jakość przetwarzania danych będzie w stanie podnieść standard opieki zdrowotnej dla emerytów [2]. Społeczeństwo 5.0 to termin odnoszący się do nowej idei społeczeństwa. W takiej koncepcji rozwój technologiczny koncentruje się na człowieku i poszukuje wartościowych rozwiązań dla życia ludzi na całym świecie.

Rozwiązania dla Lepszego Życia

Rys. 1. Ilustracja przedstawiająca plan transformacji społecznej Japonii – Society 5.0. 
Źródło: https://www.japan.go.jp/abenomics/_userdata/abenomics/pdf/society_5.0.pdf

[Dostęp: 07.03.2024] 

Historia rozwoju społeczeństwa

Społeczeństwo 5.0 jest wynikiem niczego innego, jak ewolucji obejmującej pięć etapów rozwoju społecznego: 

  • Society 1.0: Społeczeństwo zbieracko-łowieckie (sposób życia pierwszych ludzi, trwał do około 12 000 lat temu) – społeczeństwo, które swój styl życia opiera na polowaniu i łowieniu zwierząt oraz poszukiwaniu dzikiej roślinności i innych rodzajów składników odżywczych [3]. 
  • Society 2.0: Społeczeństwo rolnicze (pierwszy raz pojawia się około 10 000 – 8 000 lat temu) – społeczeństwo, które koncentruje swoją gospodarkę przede wszystkim na rolnictwie i uprawie dużych pól [4]. 
  • Society 3.0: Społeczeństwo przemysłowe (od końca XVIII wieku) – społeczeństwo, w którym dominującym sposobem organizacji życia są technologie produkcji masowej, wykorzystywane do wytwarzania ogromnych ilości towarów w fabrykach [5]. 
  • Society 4.0: Społeczeństwo informacyjne (od drugiej połowy XX wieku) – społeczeństwo, w którym tworzenie, rozpowszechnianie, wykorzystywanie, integrowanie i zarządzanie informacją jest istotnym aspektem działalności gospodarczej, politycznej czy kulturalnej [6].

Integracja technologiczna dla lepszej jakości życia

Koncepcja zbierania danych z otaczającego nas świata, przetwarzania ich przez komputery oraz wykorzystywania ich w praktyce nie jest w dzisiejszym świecie nowością. Na dokładnie takiej zasadzie oparte jest działanie, przykładowo, klimatyzatorów. Regularnie wykonują one pomiar temperatury w pomieszczeniu, a następnie porównują odczyt z wcześniej zaprogramowaną temperaturą. W zależności od tego, czy zmierzona temperatura jest większa, czy mniejsza od pierwotnie ustawionej, urządzenie wstrzymuje lub uruchamia przepływ powietrza. Mechanizm ten wykorzystuje zautomatyzowane systemy komputerowe. Termin „społeczeństwo informacyjne” (Society 4.0) odnosi się zatem do społeczeństwa, w którym każdy z takich systemów pozyskuje dane, przetwarza je, a następnie wykorzystuje w swoim własnym, sprecyzowanym środowisku.

Wiedząc już dokładnie, na czym polega idea Społeczeństwa 4.0, możemy zrozumieć, co w istocie odróżnia je od Społeczeństwa 5.0. Zasadnicza różnica polega na tym, że Society 5.0 zamiast wykorzystywać systemy działające w zdefiniowanym, ograniczonym zakresie, wykorzystywać będzie takie, które funkcjonują w zintegrowany sposób, wpływając przy tym na życie całego społeczeństwa. Dane przetwarzane będą przez zaawansowane systemy informatyczne, takie jak Sztuczna Inteligencja. Systemy te przystosowane są do przetwarzania tak dużej ilości danych. Głównym celem wykorzystania gromadzonych danych będzie zapewnienie wszystkim szczęścia oraz komfortu [7]. W BFirst.Tech również widzimy te potrzeby i odpowiadamy na nie stosując konkretne narzędzia. Nasze obszary – Data Engineering oraz Data Architecture & Management wykorzystują innowacyjne rozwiązania technologiczne do zbierania, analizowania i zarządzania danymi, aby wspierać efektywne i zrównoważone gospodarowanie procesami. Taki sposób gospodarowania ma istotny wpływ na bezpieczeństwo, wiarygodność danych oraz strategiczne podejmowanie decyzji. Przyczynia się to do wzrostu dobrobytu w społeczeństwie.

Nowa era dobrobytu a stojące przed nią wyzwania

Społeczeństwo 5.0 ma za cel wykorzystanie najnowocześniejszych technologii w taki sposób, aby zapewnić dobrobyt wszystkim ludziom. Idea ta zakłada, że rozwój technologiczny może być narzędziem do przeciwdziałania nierównościom społecznym, poprawy jakości życia oraz stworzenia bardziej zrównoważonej społeczności. Główne cele, jakich realizację przewiduje, to: 

  • zmniejszenie nierówności społecznych, 
  • przyspieszenie usług medycznych oraz zwiększenie precyzji zabiegów i operacji, 
  • zwiększenie produkcji żywności przy jednoczesnej redukcji marnotrawstwa 
  • poprawa bezpieczeństwa publicznego, 
  • rozwiązywanie problemów spowodowanych katastrofami naturalnymi, 
  • promowanie uczestnictwa społeczeństwa w opracowywaniu pomysłów i projektów, 
  • zapewnienie transparentnego dostępu do danych oraz utrzymanie bezpieczeństwa informacji. 

Społeczeństwo 5.0 stawia sobie za cel stworzenie harmonijnej równowagi między rozwojem technologicznym a potrzebami społecznymi. Niesie to jednak ze sobą swoje wyzwania. Jednym z najbardziej istotnych warunków do skutecznego wdrożenia tej wizji jest zaangażowanie oraz przywództwo rządów. Jest tak, ponieważ to rządy odpowiedzialne są za aspekty takie jak finansowanie, wdrażanie technologii w życie publiczne czy tworzenie nowych przepisów związanych z bezpieczeństwem. Kolejne istotne wyzwanie stanowią ryzyka związane z cyberbezpieczeństwem. Należy mieć na uwadze, że działania hackerów, czy też kwestie związane z kradzieżą danych, mogą skutecznie zahamować rozwój innowacji, dlatego kluczowe jest zadbanie o należyty poziom ochrony danych [8].

Cele Zrównoważonego Rozwoju Organizacji Narodów Zjednoczonych

Społeczeństwo 5.0 oraz Cele Zrównoważonego Rozwoju Organizacji Narodów Zjednoczonych to dwie, oddzielne inicjatywy, które zmierzają w bardzo podobnym kierunku. Te dwa innowacyjne podejścia dzielą bowiem jeden wspólny cel – eliminowanie problemów społecznych w zrównoważony sposób. Można powiedzieć, że Society 5.0 w pewien sposób realizować będzie Cele Zrównoważonego Rozwoju, poprzez określone działania. Te działania, zestawione z konkretnymi celami, to:

  • dążenie do dokładniejszego oraz skuteczniejszego diagnozowania chorób poprzez wykorzystanie zaawansowanych technologii (takich jak Big Data czy Sztuczna Inteligencja), 
Ilustracja Celu 3. Zrównoważonego Rozwoju UN.

Rys. 2. Ilustracja przedstawiająca 3. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • upowszechnianie e-learningu oraz zapewnianie większej dostępności edukacji, 
Ilustracja Celu 4. Zrównoważonego Rozwoju UN.

Rys. 3. Ilustracja przedstawiająca 4. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • tworzenie nowych miejsc pracy związanych z dziedzinami takimi jak robotyka, Sztuczna Inteligencja czy analiza danych, 
Ilustracja Celu 8. Zrównoważonego Rozwoju UN.

Rys. 4. Ilustracja przedstawiająca 8. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • promowanie innowacji oraz inwestowanie w nową infrastrukturę (taką jak inteligentne sieci czy szybki Internet),
Ilustracja Celu 9. Zrównoważonego Rozwoju UN.

Rys. 5. Ilustracja przedstawiająca 9. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • tworzenie inteligentnych miast, które wykorzystują czujniki i analizę danych w celu optymalizacji przepływu ruchu, zmniejszenia zużycia energii oraz poprawy bezpieczeństwa,
Ilustracja Celu 11. Zrównoważonego Rozwoju UN.

Rys. 6. Ilustracja przedstawiająca 11. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

  • redukowanie emisji gazów cieplarnianych oraz promowanie zrównoważonego transportu.
Ilustracja Celu 13. Zrównoważonego Rozwoju UN.

Rys. 7. Ilustracja przedstawiająca 13. cel zrównoważonego rozwoju ONZ. 

Źródło: https://www.un.org.pl/download 

Wspólny kierunek

Niezwykle istotne jest, aby korzyści wynikające z idei Society 5.0 były równo dostępne dla każdego, tak, aby wszyscy mieli taką samą szansę skorzystania z jej potencjału. Tylko dzięki takiemu podejściu udział Społeczeństwa 5.0 w realizowaniu Celów Zrównoważonego Rozwoju ma szansę na efektywny rezultat [9]. BFirst.Tech jako partner merytoryczny United Nations Global Compact Network Poland (UN GCNP) również dba o realizację Celów Zrównoważonego Rozwoju. W obszarach, które skupiają się na przetwarzaniu, projektowaniu i zarządzaniu danymi, czyli Data Engineering oraz Data Architecture & Management, nasza firma wciela w życie cele, pokrywające się z celami uskutecznianymi przez Society 5.0, takie jak: Cel 9 – w zakresie zabezpieczania, agregowania i analizy dużych zbiorów danych, optymalizacji oraz zarządzania i kontroli jakości procesów z wykorzystaniem AI; Cel 11 – w zakresie zabezpieczania kluczowych informacji mających wpływ na poprawę warunków życia mieszkańców miast; oraz Cel 13 – w zakresie zmniejszania zużycia zasobów i emisji odpadów poprzez zwiększanie efektywności produkcji.

Zmiany wpływające na wiele obszarów

Dzięki wdrożeniu koncepcji Society 5.0 możliwa jest modernizacja wielu różnych płaszczyzn życia społecznego. Jedną z nich jest wspominana wcześniej opieka zdrowotna. W obliczu starzejącego się społeczeństwa Japonii, kraj ten zmaga się obecnie ze wzrastającymi wydatkami oraz potrzebą opieki nad seniorami. Społeczeństwo 5.0 rozwiązuje ten problem, poprzez wprowadzenie Sztucznej Inteligencji. Gromadzi ona, a następnie analizuje dane dotyczące pacjenta, co zapewnia najwyższy poziom diagnostyki oraz leczenia. Z kolei zdalne konsultacje medyczne wpływają pozytywnie na wygodę osób starszych. Zapewnia im to możliwość kontaktu z lekarzem nawet z własnego miejsca zamieszkania.

Kolejną płaszczyznę stanowi mobilność. Większość obszarów wiejskich Japonii nie ma dostępu do transportu publicznego. Wpływ na to ma między innymi spadek liczby ludności przyczyniający się do coraz słabszego zaludnienia tych obszarów. Problem stanowi również narastający brak kierowców, związany z ciągle rozwijającym się sektorem e-commerce. Rozwiązaniem, jakie proponuje na te kwestie Society 5.0, jest wdrożenie autonomicznych pojazdów, takich jak taksówki czy autobusy. Warto wspomnieć również o obszarze infrastruktury. W Społeczeństwie 5.0 to czujniki, Sztuczna Inteligencja oraz roboty będą autonomicznie kontrolować i konserwować drogi, tunele, mosty oraz tamy. Ostatni już obszar warty uwagi stanowią technologie finansowe (FinTech). W Japonii w dalszym ciągu większość transakcji pieniężnych odbywa się za pomocą gotówki bądź procedur bankowych. Potrafi to trwać znacząco zbyt długo. Społeczeństwo 5.0 proponuje zaimplementowanie technologii Blockchain do transakcji pieniężnych oraz wprowadzenie powszechnych, dostępnych wszędzie płatności za pośrednictwem smartfona [10].

Podsumowanie

Society 5.0 to koncepcja społeczeństwa, które wykorzystuje zaawansowane technologie, aby stworzyć społeczeństwo oparte na zrównoważonym rozwoju, innowacjach społecznych oraz cyfrowej transformacji. Celem Society 5.0 jest nie tylko osiągnięcie wzrostu gospodarczego, ale także poprawa jakości życia obywateli. Za rozwojem tej idei stoją również pewne wyzwania. Są one związane przede wszystkim z bezpieczeństwem danych, czy też wprowadzaniem odpowiednich regulacji zapewniających płynną oraz komfortową dla wszystkich transformację. Society 5.0 w dużym stopniu dzieli wizję przyszłości z Celami Zrównoważonego Rozwoju (SDG), ogłoszonymi przez Organizację Narodów Zjednoczonych. Wiele z nich można osiągnąć poprzez wdrażanie tej koncepcji. Społeczeństwo 5.0 obejmuje szeroki zakres obszarów życia społecznego, w tym opiekę zdrowotną, mobilność, infrastrukturę oraz technologie finansowe. Dzięki wykorzystaniu zaawansowanych technologii w tych dziedzinach, dąży się do stworzenia zrównoważonego i innowacyjnego społeczeństwa, które będzie miało pozytywny wpływ na jakość życia obywateli.

Bibliografia

[1] https://www.japan.go.jp/abenomics/_userdata/abenomics/pdf/society_5.0.pdf [Dostęp: 07.03.2024] 

[2] https://sektor3-0.pl/blog/japonski-czlowiek-nowej-ery-czyli-spoleczenstwo-5-0/ 

[3] https://education.nationalgeographic.org/resource/hunter-gatherer-culture/ 

[4] https://www.thoughtco.com/agrarian-society-definition-3026047 

[5] https://www.thoughtco.com/industrial-society-3026359 

[6] https://www.techtarget.com/whatis/definition/Information-Society 

[7] Atsushi Deguchi, Chiaki Hirai, Hideyuki Matsuoka, Taku Nakano, Kohei Oshima, Mitsuharu Tai, Shigeyuki Tani „What is Society 5.0?” 

[8] https://www.sydle.com/blog/society-5-0-5fc163e1725a642683ed9230 

[9] https://media.inti.asia/read/society-50-and-the-sustainable-development-goals-a-roadmap-for-a-better-future 

[10] https://medium.com/@jacobprakoso/japan-super-smart-society-5-0-9b9e8ba49a7  

SEO

Co sprawia, że niektóre strony internetowe wyświetlają się od razu po wpisaniu szukanej frazy, a inne giną w gąszczu pozostałych witryn? Jak sprawić, aby użytkownik mógł łatwiej znaleźć naszą stronę? Pozycjonowanie nie ma nic wspólnego z losowością. Za te i inne aspekty odpowiada SEO. Nieważne, czy dopiero rozpoczynamy naszą przygodę z prowadzeniem portalu internetowego, czy robimy to od dawna, zajmujemy się wszystkim sami, czy zlecamy to komuś innemu. Podstawowe zasady, jakimi rządzi się pozycjonowanie, warto znać.  Po zapoznaniu się z tym artykułem dowiesz się czym jest SEO, z czego się składa oraz jak je wykorzystywać w odpowiedni sposób. 

Czym jest SEO? 

Zacznijmy od tego, czym tak naprawdę jest SEO i z czego się składa. SEO (Search Engine Optimization) to ogół działań podejmowanych w celu poprawy pozycjonowania strony internetowej w wynikach wyszukiwania [1]. Składa się na nie szereg praktyk i strategii, takich jak odpowiednie redagowanie tekstu czy budowanie profilu linkowego. SEO również odpowiada za dostosowanie witryny do algorytmów, stosowanych przez wyszukiwarki. To one decydują o tym, które strony będą wyświetlane na pierwszej stronie wyników wyszukiwania i w jakiej kolejności. Poprzez optymalizację, dana strona internetowa może zyskać lepszą pozycję w wynikach wyszukiwania, co zwiększa jej widoczność. Należy oczywiście pamiętać, że narzędzia SEO to jedynie jeden ze sposobów na poprawę popularności witryny. Nie daje on tak szybkich efektów jak, na przykład, płatne reklamy, ale jest relatywnie tani. Poza tym wypracowany efekt utrzyma się na dłużej i nie zniknie po wygaśnięciu danej subskrypcji, jak ma to miejsce w przypadku wielu innych technik marketingowych. 

Pozycjonowanie on-site

SEO możemy podzielić na dwa rodzaje: on-site oraz off-site. On-site SEO to wszystkie działania, które mają miejsce na danej stronie internetowej. To wszystkie kwestie redakcyjne, techniczne czy takie, które wpływają na szybkość ładowania treści. Dzięki dbaniu o te aspekty, strona jest czytelniejsza zarówno dla użytkownika, jak i robotów Google. Aby mówić o dobrym on-site SEO należy zadbać o:

  • Metadane i opis ALT – nawet jeśli strona będzie czytelna dla użytkownika, co z algorytmami wyszukiwarek? Aby i dla nich była czytelna, warto zadbać o tytuły i opisy meta, które pomogą wyszukiwarkom znaleźć naszą witrynę. Poza tym, warto również zadbać o opisy ALT, zwane również tekstem alternatywnym. Algorytmy nie rozumieją, co znajduje się na obrazkach. Dzięki temu krótkiemu opisowi, będą w stanie przyporządkować jego treść do wyszukiwanej frazy i poprawić pozycjonowanie. 
  • Nagłówki – to kolejna rzecz, która wpływa nie tylko na ludzką percepcję. Odpowiednie rozłożenie nagłówków i optymalizacja treści w nich mogą znacząco przyczynić się do poprawy pozycjonowania. 
  • Hiperłącza – czyli ogół odnośników, zwany również profilem linkowym. Możemy tutaj wyróżnić linkowanie zewnętrzne i wewnętrzne. Linkowanie zewnętrzne to linki pochodzące z innych stron internetowych niż nasza i zaliczane jest ono do off-site SEO. Natomiast wewnętrzne to odnośniki, które w obrębie jednej witryny przekierowują użytkownika do innych zakładek czy artykułów [2].  

Pozycjonowanie off-site

Off-site SEO natomiast odnosi się do wszystkich działań podejmowanych poza stroną, w celu zwiększenia jej widoczności i rozpoznawalności w sieci. Dzięki temu zyskujemy ruch na stronie z zewnętrznych źródeł. Takie działania to na przykład:

  • Hiperłącza – ponownie, profil linkowy budujący popularność i rozpoznawalność strony w sieci. Do off-site SEO zaliczane jest linkowanie zewnętrzne, czyli pochodzące z innych źródeł. Warto zadbać, aby były one dobrej jakości, czyli pochodzące z rzetelnych źródeł. Minęły czasy, kiedy liczyła się tylko ilość. Teraz algorytmy wyszukiwarek zwracają dużo większą uwagę właśnie na wartość.
  • Marketing internetowy – chodzi o takie działania, jak prowadzenie profili na Social Mediach, prowadzenie dyskusji z użytkownikami na forach czy współpracowanie z influencerami. To aspekty, które bezpośrednio nie wpływają na wyniki wyszukiwania, lecz pośrednio mogą bardzo przyczynić się do podbicia ilości zapytań o naszą stronę. 
  • Opinie – po jakimś czasie w naturalny sposób pojawiają się w sieci opinie na temat naszej strony czy prowadzonego biznesu. Warto o nie zadbać i odpowiedzieć użytkownikom, którzy je zostawili. Dbanie o dobrą opinię klienta to jeden z aspektów budowania wizerunku marki godnej zaufania [3].

Link building a pozycjonowanie

Link building to proces zdobywania odnośników, które będą prowadziły do naszej witryny. Mogą to być linki z zewnętrznych źródeł (tzw. backlinki) lub linkowanie wewnętrzne. Wtedy mówimy o odnośnikach, które będą przekierowywały nas w obrębie danej strony internetowej. Dobrze zbudowany profil linkowy znacząco wpływa na pozycjonowanie, o czym więcej można przeczytać wyżej [4]. Jak natomiast zmieniało się znaczenie takich praktyk? 

Przez wiele lat Google pozwalało pozycjonerom na wiele pod tym względem. Na porządku dziennym można było spotkać strony, do których prowadziły nawet setki tysięcy linków, gdyż ich liczba miała ogromne znaczenie dla pozycjonowania, a ich jakość już nie do końca. Zdecydowana większość z nich była linkami niskiej jakości, które były umieszczane w sieci na forach, w księgach gości, katalogach, komentarzach itp. Często nie zajmował się tym człowiek, wykorzystywano specjalne aplikacje, które robiły to automatycznie. Takie rozwiązanie przynosiło znaczące efekty, a mogło być przeprowadzone stosunkowo niewielkim kosztem. Wszystko zmieniło się w kwietniu 2012. Doszło wtedy do pewnej rewolucji – Google wprowadził nowy algorytm o nazwie Pingwin.[5]

Jak Pingwin zmienił SEO?

Czym jest Pingwin? To algorytm stworzony przez Google i wprowadzony 24 kwietnia 2012 roku, w celu zwalczania nieetycznego pozycjonowania stron internetowych. Specjaliści SEO próbowali oszukać skrypt Google poprzez kupowanie linków i umieszczanie ich w miejscach do tego nieprzeznaczonych, jednakże Pingwin skutecznie to wyłapywał. 

Spróbujmy odpowiedzieć na pytanie jak działa Pingwin. Ten skrypt analizuje linki, jakie prowadzą na daną stronę internetową i decyduje o ich wartości. Jeśli uzna je za linki o niskiej jakości, obniży rankingi witryn, do których prowadzą. Takie linki to na przykład te kupione (również pochodzące z wymiany linków) czy stworzone przez boty. Tak samo postąpi w przypadku linków będących spamem, na przykład umieszczanych w komentarzach na forach czy stronach zupełnie niezwiązanych tematycznie. Jego działanie jednak nie jest permanentne – kiedy niskowartościowe linki zostaną usunięte, dana witryna może odzyskać swoją pozycję. Warto wspomnieć, że Pingwin nie został stworzony tylko w celu wykrywania oszustw i obniżania widoczności stron internetowych. Jego rolą jest także nagradzanie uczciwie prowadzonych witryn – jeśli uzna profil linkowy za wartościowy, zwiększy widoczność takich stron [6].

SEO etyczne i nieetyczne

W zależności od tego, na czym opieramy nasze techniki pozycjonowania, można wyróżnić White Hat SEO oraz Black Hat SEO. Te określenia nawiązują do dobrych i złych postaci z westernowych bajek. Według przyjętej kulturowo konwencji, nosiły one zazwyczaj odpowiednio białe i czarne kapelusze, stąd takie skojarzenie. Co jednak oznaczają i czym różnią się te techniki? White Hat SEO to etyczne pozycjonowanie, stosowane według wytycznych zalecanych przez wyszukiwarki. Chodzi o takie zabiegi jak tworzenie treści dobrej jakości (niezawierającej duplikatów), stosowanie nagłówków, wypunktowań, czy dbanie o odpowiednią długość akapitów. Black Hat SEO natomiast charakteryzuje się nieetycznymi zachowaniami, mającymi sztucznie podbijać popularność. Są to takie praktyki jak nadużywanie fraz kluczowych poza kontekstem, ukrywanie tekstu czy kupowanie linków. Takie działania mogą skutkować zmniejszeniem poziomu zaufania do strony, nałożeniem filtrów obniżających pozycję, czy nawet wykluczeniem z wyników wyszukiwania [7].

Podsumowanie

Kluczem do zapewnienia sobie większego ruchu na stronie internetowej i lepszego jej pozycjonowania w wynikach wyszukiwania jest umiejętne wykorzystanie narzędzi SEO. To zabiegi bezpośrednio na stronie oraz poza nią, dzięki którym możemy liczyć na znacznie większe zasięgi. Podczas wykorzystywania SEO należy pamiętać, aby robić to odpowiednio. Stosując się do zaleceń wyszukiwarek i dopasowując treść zarówno do użytkownika jak i algorytmów, możemy liczyć na pozytywne efekty i poprawę statystyk. Nieetyczne praktyki mogą natomiast prowadzić do odwrotnych skutków.

Bibliografia

[1] https://searchengineland.com/guide/what-is-seo 

[2]https://www.semstorm.com/pl/blog/seo-and-ppc/czym-sie-rozni-on-site-seo-od-off-site-seo 

[3]https://www.semrush.com/blog/off-page-seo/?kw=&cmp=EE_SRCH_DSA_Blog_EN&label=dsa_pagefeed&Network=g&Device=c&utm_content=676606914923&kwid=dsa-2185834089536&cmpid=18361923498&agpid=157305243831&BU=Core&extid=105138960331&adpos=&gad_source=1&gclid=CjwKCAjw7-SvBhB6EiwAwYdCAQvsJcp7q2JoIQMf2RzGg_HVRjTFb7AB2sTcZ2khQdIN3qvCREr9GhoCzOIQAvD_BwE 

[4]https://greenparrot.pl/blog/co-to-jest-off-site-seo/ 

[5] https://1stplace.pl/blog/algorytm-google-pingwin/ 

[6] https://www.business2community.com/infographics/history-google-penguin-infographic-01468714 

[7]https://www.semrush.com/blog/black-hat-seo/?kw=&cmp=EE_SRCH_DSA_Blog_EN&label=dsa_pagefeed&Network=g&Device=c&utm_content=683809340380&kwid=dsa-2264710307245&cmpid=18361923498&agpid=156456448517&BU=Core&extid=105138960709&adpos=&gad_source=1&gclid=CjwKCAjw7-SvBhB6EiwAwYdCAZln5MkdcE3R2XZq-FUhanEKkDWUbpUoZxIowWHslE3ETaNFW88vPBoCJ5sQAvD_BwE 

Dylematy moralne związane ze sztuczną inteligencją

Sztuczna inteligencja jest jednym z najbardziej ekscytujących zagadnień technologicznych ostatnich lat. Ma potencjał na fundamentalne zmienienie naszego sposobu pracy oraz korzystania z nowoczesnych technologii w wielu dziedzinach, takich jak generatory tekstów i obrazów, różnego rodzaju algorytmy czy autonomiczne samochody. Wraz z coraz większym rozpowszechnianiem wykorzystywania sztucznej inteligencji, warto jednak również mieć świadomość potencjalnych problemów, jakie ze sobą niesie. Biorąc pod uwagę wzrastające uzależnienie naszych systemów od sztucznej inteligencji, podejście do tych dylematów może mieć kluczowy wpływ na przyszły obraz społeczeństwa. W niniejszym artykule przedstawimy te dylematy moralne. Omówimy również problemy związane z wprowadzaniem do ruchu drogowego pojazdów autonomicznych, zagrożenia wynikające z użycia sztucznej inteligencji do siania dezinformacji oraz obawy dotyczące styku sztucznej inteligencji i sztuki.

Problem pozyskiwania danych i ich skrzywienia

Co do zasady, ludzkie osądy są obciążone subiektywnym spojrzeniem, od maszyn i algorytmów oczekuje się większej obiektywności. Jednak to, w jaki sposób działają algorytmy uczenia maszynowego zależy w dużej mierze od danych, na których algorytm jest uczony. W związku z tym, wybrane do trenowania algorytmu dane z jakimkolwiek, nawet nieświadomym uprzedzeniem mogą spowodować niepożądane działania algorytmu. Zapraszamy do zapoznania się z naszym wcześniejszym artykułem, gdzie znajdziesz więcej informacji na ten temat.

Poziomy automatyzacji w samochodach autonomicznych

W ostatnich latach obserwowaliśmy duże postępy w rozwoju samochodów autonomicznych. W sieci pojawiało się wiele materiałów przedstawiających prototypy pojazdów będących w ruchu bez pomocy kierowcy lub nawet jego obecności. Rozmawiając o samochodach autonomicznych warto zaznaczyć, że istnieje wiele poziomów autonomiczności, dlatego warto przed dyskusją określić o którym poziomie mowa. [1]

  • Poziom 0 oznacza pojazdy, które wymagają pełnej kontroli kierowcy, wykonującego wszystkie działania związane z kierowaniem pojazdu (sterowanie, hamowanie przyspieszanie itd.). Pojazd może natomiast informować kierowcę o zagrożeniach znajdujących się na drodze. Użyje do tego systemów takich jak system ostrzegania przed kolizją czy ostrzegania o opuszczaniu pasa ruchu.
  • Poziom 1 zawiera pojazdy, będące już dziś powszechne na drogach. Kierowca nadal kontroluje pojazd, który jest wyposażony w systemy wspierające jazdę, jak np. tempomat czy układ utrzymujący samochód w granicach pasa ruchu.
  • Poziom 2, oprócz posiadania możliwości poprzednich poziomów, jest -pod pewnymi warunkami – w stanie przejąć częściową kontrolę nad pojazdem. Może on wpływać na prędkość czy kierunek jazdy, pod ciągłym nadzorem kierowcy. Wśród funkcji wspomagających można wymienić sterowanie autem w korku lub na autostradzie.
  • Poziom 3 autonomiczności to pojazdy, które nie są jeszcze dostępne komercyjnie. Samochody tego typu są w stanie prowadzić się w pełni autonomicznie, pod okiem kierowcy. Prowadzący pojazd nadal musi być gotowy w razie potrzeby przejąć sterowanie nad pojazdem.
  • Poziom 4 oznacza wykonywanie przez komputer pokładowy wszystkich czynności związanych z prowadzeniem pojazdu, jednak tylko na określonych, uprzednio zatwierdzonych trasach. W takiej sytuacji wszystkie osoby w pojeździe sprawują funkcję pasażerów, choć przejęcie kontroli nad pojazdem przez człowieka jest nadal możliwe.
  • Poziom 5 to najwyższy poziom autonomiczności – komputer pokładowy jest w pełni odpowiedzialny za prowadzenie pojazdu we wszystkich warunkach, bez jakiejkolwiek potrzeby ingerencji ludzkiej. [2]

Dylematy moralne w obliczu pojazdów autonomicznych

Pojazdy o poziomach autonomiczności 0-2 nie wzbudzają zbyt wielkich kontrowersji. Technologie takie jak sterowanie autem na autostradzie są już dostępne i ułatwiają podróżowanie. Potencjalne wprowadzenie do powszechnego ruchu drogowego pojazdów o wyższych stopniach autonomiczności wzbudza jednak pewne dylematy moralne. Jednym z problemów jest to, co dzieje się w sytuacji, kiedy autonomiczne auto, będące pod opieką prowadzącego, uczestniczy w wypadku. Kto ponosi wtedy odpowiedzialność za jego spowodowanie? Kierowca? Producent pojazdu? A może samo auto? Nie jest to pytanie, na które istnieje jednoznaczna odpowiedź.

Wprowadzenie na ulicę pojazdów autonomicznych wprowadza również inny problem – pojazdy te mogą posiadać luki w zabezpieczeniach. Coś takiego może potencjalnie prowadzić do wycieku danych lub nawet przejęcia kontroli nad pojazdem przez hakera. Przejęty w ten sposób samochód może zostać użyty do celowego spowodowania wypadku, a nawet przeprowadzenia ataku terrorystycznego.  Tu również pojawia się problem podzielenia odpowiedzialności pomiędzy producentem, hakerem i użytkownikiem. [3]

Jednym z najważniejszych problemów związanych z autonomicznymi pojazdami jest etyczne wyszkolenie pojazdów do podejmowania decyzji w wypadku zagrożenia życia i mienia. Kto powinien podejmować decyzje na ten temat – programiści tworzący oprogramowanie, etycy i filozofowie, czy może rządzący krajami? Decyzje te będą miały wpływ na to, kto przeżyje w razie nieuniknionego wypadku. Wiele sytuacji, z jakimi mogą się spotkać autonomiczne pojazdy, będzie wymagać podjęcia decyzji, którym brak jednej oczywistej odpowiedzi (rysunek 1). Czy pojazd powinien nadawać priorytet w ratowaniu pieszych czy pasażerów, młodych czy starych? Jak ważny jest brak ingerencji pojazdu w tok wydarzeń? Czy przestrzeganie prawa przez drugą stronę wypadku powinno mieć wpływ na decyzję? [4]

Rys. 1. Ilustracja jednego z przypadków jakie mogą spotkać autonomiczne pojazdy. Źródło: https://www.moralmachine.net/ 

Deepfake – czym jest i dlaczego prowadzi do dezinformacji?

Współczesny człowiek korzystający z nowoczesnych technologii jest bombardowany zewsząd informacjami. Ogromna ilość i prędkość dostarczania informacji powoduje, że nie wszystkie z nich mogą być zweryfikowane. Fakt ten umożliwia osobom fabrykującym fałszywe wiadomości dotarcie do stosunkowo dużej grupy osób. Dzięki temu mogą zmanipulować swoje ofiary tak, aby zmieniły nastawienie odnośnie jakiegoś tematu lub nawet padły ofiarą oszustwa. Choć praktyka ta występowała już od jakiegoś czasu, pojawienie się sztucznej inteligencji drastycznie ułatwia proces kreowania fałszywych informacji, a co za tym idzie pozwala na szybsze ich tworzenie i rozpowszechnianie.

Spośród technik dezinformacji, sztuczna inteligencja może być używana szczególnie efektywnie do produkcji tzw. deepfake’ów. Deepfake to technika obróbki obrazu przedstawiającego ludzi, oparta na sztucznej inteligencji. Przy pomocy algorytmów uczenia maszynowego na istniejące materiały źródłowe nakładane są modyfikowane obrazy, tworząc tym samym realistyczne filmy i obrazy, przedstawiające nie mające miejsca zdarzenia. Dotychczas, technologia pozwalała głównie na obróbkę obrazów statycznych, a edycja wideo była zdecydowanie trudniejsza do wykonania. Popularyzacja sztucznej inteligencji rozwiązała te bariery techniczne, co przełożyło się na drastyczny wzrost częstotliwości występowania tego zjawiska. [5]

Film1. Deepfake w formie materiału wideo wykorzystujący wizerunek prezydenta Obamy. 

Dylematy moralne związane z deepfake

Deepfake mógłby być wykorzystany do osiągnięcia różnych celów. Technologia ta może zostać użyta w nieszkodliwych projektach, wśród których można wymienić materiały edukacyjne takie jak filmik przedstawiający prezydenta Obamę ostrzegającego o zagrożeniach związanych z deepfake’ami (patrz rysunek 2). Oprócz tego, znajduje zastosowanie w branży rozrywkowej, jak używanie cyfrowych kopii aktorów (choć to zastosowanie może wzbudzać dylematy moralne), czego przykładem jest użycie cyfrowego podobieństwa zmarłego aktora Petera Cushinga do odegrania roli Wielkiego Moffa Tarkina w filmie Łotr 1. Gwiezdne wojny – historie (patrz rysunek 2).

Rys. 2. Cyfrowa kopia aktora Petera Cushinga w roli Wielkiego Moffa Tarkina. Źródło: https://screenrant.com/star-wars-rogue-one-tarkin-ilm-peter-cushing-video/ 

Istnieje jednak również wiele innych zastosowań deepfake’ów, które mogą potencjalnie stanowić poważnie zagrożenie dla społeczeństwa. Takie spreparowane filmy mogą być używane do skompromitowania danej osoby, chociażby poprzez wykorzystanie jej podobieństwa w filmach pornograficznych. Fałszywe materiały mogą być również używane we wszelkiego rodzaju oszustwach, takich jak próby wyłudzenia pieniędzy. Przykładem takiego zastosowania jest chociażby przytoczona przez nas w poprzednim artykule sprawa lekarza, którego wizerunek został użyty w reklamie pseudoleków kardiologicznych [6]. Dużo emocji wzbudza również wykorzystywanie deepfake’ów w celach siania dezinformacji, w szczególności w obszarze polityki. Odpowiednio użyte fałszywe materiały mogą prowadzić do incydentów dyplomatycznych, zmieniać reakcję społeczeństwa na pewne tematy polityczne, dyskredytować polityków, a nawet wpływać na wyniki wyborów. [7]

Ze względu na swoją naturę, rozpowszechnienie deepfake’ów nie jest czymś, czemu można łatwo zapobiec. Rozwiązania prawne nie są w pełni skuteczne ze względu na globalną skalę problemu i naturę działania sieci społecznościowych. Wśród innych proponowanych rozwiązań problemu można wymienić opracowywanie algorytmów wykrywających sfałszowane materiały oraz edukację społeczeństwa na ten temat.

Sztuka generowana przez AI

Obecnie na rynku istnieje wiele generatorów tekstu, obrazów czy filmów wykorzystujących AI. Midjourney, DALL-E, Stable Diffuion oraz wiele innych, pomimo różnych implementacji i algorytmów za nimi stojących, łączy jedno – potrzebują ogromnych ilości danych, które, ze względu na swoje rozmiary, mogą być zdobyte wyłącznie z Internetu – często bez zgody autorów tych dzieł.  W związku z tym, wielu artystów i firm postanowiło wytoczyć pozwy wobec firm tworzących modele sztucznej inteligencji. Według pozywających, nielegalnie używają milionów zdjęć pozyskanych z Internetu, które są objęte prawami autorskimi. Najgłośniejszym przypadkiem pozwu jest ten, który wytoczyła Getty Images – agencja oferująca zdjęcia do celów biznesowych – przeciwko Stability AI, twórcy open-source’owego generatora obrazów Stable Diffusion. Agencja oskarża Stability AI o skopiowanie ponad 12 milionów obrazów z ich bazy danych bez uprzedniej zgody lub rekompensaty (patrz rysunek 3). Wyniki tej i innych spraw sądowych związanych z generowaniem obrazów przy pomocy AI ukształtują przyszłe zastosowania i możliwości tej technologii. [8]

Rys. 3. Ilustracja użyta w pozwie Getty Images przedstawiająca oryginalne zdjęcie oraz podobny obraz z widocznym znakiem wodnym Getty Images stworzony przez Stable Diffusion. Źródło: https://www.theverge.com/2023/2/6/23587393/ai-art-copyright-lawsuit-getty-images-stable-diffusion 

Oprócz prawnych problemów związanych z trenowaniem generatywnych modelów na podstawie danych objętych prawami autorskimi, istnieją również dylematy moralne na temat dzieł sztuki wykonywanych za pomocą sztucznej inteligencji. [9]

Czy AI zastąpi artystów?

Wielu artystów uważa, że sztuczna inteligencja nie jest w stanie odwzorować emocjonalnych aspektów sztuki, jakie oferują ludzkie dzieła. Oglądając filmy, słuchając muzyki oraz grając w gry odczuwamy pewne emocje, czego algorytmy nie są w stanie nam zapewnić. Nie są kreatywne w taki sam sposób jak ludzie. Istnieją również obawy co do sytuacji materialnej wielu artystów. Następują one zarówno z powodu nieotrzymywania rekompensaty za stworzone dzieła będące w zbiorach treningowych algorytmów, jak i zmniejszoną liczbę zleceń w związku z popularnością i łatwością użycia generatorów. [10]

Z drugiej strony, niektórzy artyści uważają, że inny sposób ‘myślenia’ sztucznej inteligencji jest jej atutem. Może ona tworzyć dzieła, których człowiek nie jest w stanie wytworzyć. Między innymi w ten sposób generatywne modele mogą stać się kolejnym narzędziem w rękach artystów. Dzięki nim będą mogli doprowadzić do tworzenia nieistniejących do tej pory form i gatunków sztuki, rozszerzając ludzką kreatywność.

Jak widać, popularność i możliwości generatywnej sztucznej inteligencji stale rosną. Co za tym idzie, pojawiają się liczne debaty na tematy prawne i etyczne, związane z tą technologią. Przewidujemy, że będą się one stawać coraz głośniejsze. Technologia ta ma potencjał drastycznie zmienić sposób, w jaki obcujemy ze sztuką.

Podsumowanie

Odpowiednie wykorzystywanie sztucznej inteligencji ma potencjał zostać ważnym i powszechnie wykorzystywanym narzędziem w rękach ludzkości. Może zwiększyć produktywność, ułatwić wykonywanie wielu czynności oraz rozwinąć nasze możliwości kreatywne. Technologia ta niesie ze sobą jednak pewne zagrożenia, których nie należy lekceważyć. Nierozważne wykorzystywanie pojazdów autonomicznych, sztuki AI lub deepfake’ów może doprowadzić do wielu problemów. Mogą to być straty finansowe czy wizerunkowe, ale nawet zagrożenia dla zdrowia i życia. Aby zredukować występowanie tych problemów, ważne będą dalsze postępy technologii wykrywających deepfaki. Ponad to nowe rozwiązania prawne, a także edukacja społeczeństwa na temat zagrożeń związanych ze sztuką AI oraz nowymi metodami dezinformacji i fałszywymi materiałami wideo.

Bibliografia

[1] https://www.nhtsa.gov/vehicle-safety/automated-vehicles-safety

[2] https://blog.galonoleje.pl/pojazdy-autonomiczne-samochody-bez-kierowcow-juz-sa-na-ulicach

[3] https://www.forbes.com/sites/naveenjoshi/2022/08/05/5-moral-dilemmas-that-self-driving-cars-face-today/

[4] https://www.bbc.com/news/technology-45991093

[5] https://studiadesecuritate.uken.krakow.pl/wp-content/uploads/sites/43/2019/10/2-1.pdf

[6] https://www.medonet.pl/zdrowie/wiadomosci,kolejny-lekarz-ofiara-oszustow–zostal-twarza-pseudolekow–dr-sutkowski–to-jest-kradziez,artykul,26668977.html

[7] https://businessinsider.com.pl/technologie/nowe-technologie/deepfakes-historia-falszywych-filmow-i-pomysly-na-walke-z-nimi/s17z2p0

[8] https://apnews.com/article/getty-images-artificial-intelligence-ai-image-generator-stable-diffusion-a98eeaaeb2bf13c5e8874ceb6a8ce196

[9] https://www.benchmark.pl/aktualnosci/dzielo-sztucznej-inteligencji-docenione.html

[10] https://businessinsider.com.pl/technologie/digital-poland/sztuczna-inteligencja-w-sztuce-szansa-czy-zagrozenie/7lq70sx

Jezioro Danych – zastosowanie uczenia maszynowego

W erze cyfryzacji rośnie zapotrzebowanie na zaawansowane technologie nie tylko do gromadzenia, ale przede wszystkim analizy danych. Przedsiębiorstwa akumulują coraz większe ilości różnorodnych informacji, które mogą zwiększać ich efektywność i innowacyjność. Produkt Data Engineering oferowany przez firmę BFirst.Tech może odgrywać kluczową rolą w procesie wykorzystywania tych danych dla dobra firmy.  Jest to jedna z najnowocześniejszych technologii do efektywnego zarządzania i przetwarzania informacji. W niniejszym artykule przedstawimy jedną z możliwości oferowanych przez Jezioro Danych.

Data Engineering – najnowsza technologia do zbierania i analizowania informacji 

Inżynieria danych to proces projektowania oraz wdrażania systemów do efektywnego zbierania, przechowywania i przetwarzania obszernych zbiorów danych. Wspiera to akumulację informacji, takich jak analiza ruchu na stronach internetowych, dane z czujników IoT, czy trendy zakupowe konsumentów. Zadaniem inżynierii danych jest zapewnienie, że informacje są zręcznie gromadzone i magazynowane oraz łatwo dostępne i gotowe do analizy. Dane mogą być efektywnie przechowywane w jeziorach, hurtowniach czy składnicach danych, a tak zintegrowane źródła danych mogą służyć do tworzenia analiz lub zasilania silników sztucznej inteligencji. Zapewnia to wszechstronne wykorzystanie zgromadzonych informacji (patrz szczegółowy opis produktu Data Engineering (rys. 1)).

Data Engineering, sustainable data management

rys. 1 – Data Engineering

Jezioro Danych w przechowywaniu zbiorów informacji  

Jezioro Danych pozwala na przechowywanie ogromnych ilości surowych danych w ich pierwotnym, nieprzetworzonym formacie. Dzięki możliwościom, jakie oferuje Data Engineering, Jezioro Danych jest zdolne do przyjmowania i integracji danych z różnorodnych źródeł. Mogą to być dokumenty tekstowe, ale także obrazy, aż po dane pochodzące z czujników IoT. To umożliwia analizę i wykorzystanie złożonych zbiorów informacji w jednym miejscu. Elastyczność Jezior Danych oraz ich zdolność do integracji różnorodnych typów danych sprawiają, że stają się one niezwykle cenne dla organizacji, które stoją przed wyzwaniem zarządzania i analizowania dynamicznie zmieniających się zbiorów danych. W przeciwieństwie do hurtowni danych, Jezioro Danych oferuje większą wszechstronność w obsłudze różnorodnych typów danych. Jest to możliwe dzięki zaawansowanym technikom przetwarzania i zarządzania danymi stosowanym w inżynierii danych. Jednakże, ta wszechstronność rodzi również wyzwania w zakresie przechowywania i zarządzania tymi złożonymi zbiorami danych, wymagając od inżynierów danych ciągłego dostosowywania i innowacyjnych podejść. [1, 2] 

Jezioro Danych a przetwarzanie informacji i wykorzystanie uczenia maszynowego

Rosnąca ilość przechowywanych danych oraz ich różnorodność stanowią wyzwanie w zakresie efektywnego przetwarzania i analizy. Tradycyjne metody często nie nadążają za tą rosnącą złożonością, prowadząc do opóźnień i ograniczeń w dostępie do kluczowych informacji. Uczenie maszynowe, wsparte przez innowacje w dziedzinie inżynierii danych, może znacząco usprawnić te procesy. Wykorzystując obszerne zbiory danych, algorytmy uczenia maszynowego identyfikują wzorce, przewidują wyniki i automatyzują decyzje. Dzięki integracji z Jeziorami Danych (rys. 2), mogą one pracować z różnymi typami danych, od strukturalnych po niestrukturalne, umożliwiając przeprowadzanie bardziej złożonych analiz. Ta wszechstronność pozwala na głębsze zrozumienie i wykorzystanie danych, które byłyby inaczej niedostępne w tradycyjnych systemach.

Zastosowanie uczenia maszynowego w Jeziorach Danych umożliwia głębszą analizę i efektywniejsze przetwarzanie dzięki zaawansowanym narzędziom i strategiom inżynierii danych. Pozwala to organizacjom transformować ogromne ilości surowych danych w użyteczne i wartościowe informacje. Jest to istotne dla zwiększenia ich efektywności operacyjnej i strategicznej. Ponadto, wykorzystanie uczenia maszynowego wspomaga interpretację zgromadzonych danych i przyczynia się do bardziej świadomego podejmowania decyzji biznesowych. W efekcie, firmy mogą dynamiczniej dostosowywać się do rynkowych wymogów i innowacyjnie tworzyć strategie oparte na danych. 

Jezioro danych

rys. 2 – Jezioro Danych

Podstawy uczenia maszynowego oraz kluczowe techniki i ich zastosowania  

Uczenie maszynowe, będące integralną częścią tzw. sztucznej inteligencji, umożliwia systemom informatycznym samodzielne uczenie się i doskonalenie na podstawie danych. W tej dziedzinie wyróżniamy typy uczenia takie jak uczenie nadzorowane, uczenie nienadzorowane i uczenie ze wzmocnieniem. W uczeniu nadzorowanym każdy przykład danych ma przypisaną etykietę lub wynik, który pozwala maszynom na naukę rozpoznawania wzorców i przewidywania. Stosowane jest to m.in. w klasyfikacji obrazów lub prognozowaniu finansowym. Z kolei uczenie nienadzorowane, pracujące na danych bez etykiet, skupia się na znajdowaniu ukrytych wzorców. Jest to użyteczne w zadaniach takich jak grupowanie elementów czy wykrywanie anomalii. Natomiast uczenie ze wzmocnieniem opiera się na systemie nagród i kar, pomagając maszynom optymalizować swoje działania w dynamicznie zmieniających się warunkach, jak np. w grach czy automatyce. [3]

Co jeśli chodzi o algorytmy? Sieci neuronowe są doskonałe do rozpoznawania wzorców skomplikowanych danych – jak obrazy czy dźwięk – i stanowią podstawę wielu zaawansowanych systemów AI. Drzewa decyzyjne są używane do klasyfikacji i analizy predykcyjnej, na przykład w systemach rekomendacji lub prognozowaniu sprzedaży. Każdy z tych algorytmów ma swoje unikalne zastosowania. Może być dostosowany do specyficznych potrzeb zadania lub problemu, co czyni uczenie maszynowe wszechstronnym narzędziem w świecie danych. 

Przykłady zastosowań uczenia maszynowego 

Zastosowanie uczenia maszynowego w Jeziorach Danych, otwiera szerokie spektrum możliwości, od detekcji anomalii po personalizację ofert i optymalizację łańcuchów dostaw. W sektorze finansowym algorytmy te skutecznie analizują wzorce transakcji, identyfikując nieprawidłowości i potencjalne oszustwa w czasie rzeczywistym, co ma kluczowe znaczenie w zapobieganiu oszustwom finansowym. W handlu detalicznym i marketingu, uczenie maszynowe pozwala na personalizację ofert dla klientów poprzez analizę zachowań zakupowych i preferencji, zwiększając satysfakcję klienta i efektywność sprzedaży. [4] W przemyśle, algorytmy te przyczyniają się do optymalizacji łańcuchów dostaw, analizując dane z różnych źródeł, jak prognozy pogody czy trendy rynkowe, co pomaga w przewidywaniu popytu i zarządzaniu zapasami oraz logistyką [5].

Można je też wykorzystać do wstępnego projektowania czy optymalizacji produktów. Innym, interesującym zastosowaniem uczenia maszynowego w Jeziorach Danych jest analiza obrazów. Algorytmy uczenia maszynowego są w stanie przetwarzać i analizować duże zbiory zdjęć czy obrazów, znajdując zastosowanie w takich dziedzinach jak diagnostyka medyczna, gdzie mogą pomagać w wykrywaniu i klasyfikowaniu zmian chorobowych na obrazach radiologicznych, czy w systemach bezpieczeństwa, gdzie analiza obrazu z kamer może służyć do identyfikacji i śledzenia obiektów lub osób.  

Podsumowanie

Artykuł ten zwraca uwagę na rozwój w obszarze analizy danych, podkreślając jak uczenie maszynowe, Jeziora Danych i inżynieria danych wpływają na sposób w jaki organizacje przetwarzają i wykorzystują informacje. Wprowadzenie tych technologii do biznesu ulepsza istniejące procesy oraz otwiera drogę do nowych możliwości. Data Engineering wprowadza modernizację w przetwarzaniu informacji, która charakteryzuje się większą precyzją, głębszymi wnioskami i bardziej dynamicznym podejmowaniem decyzji. To podkreśla rosnącą wartość inżynierii danych w nowoczesnym świecie biznesu, co jest ważnym czynnikiem w dostosowywaniu się do zmieniających się wymagań rynkowych i tworzeniu strategii opartych na danych. 

Bibliografia

[1] https://bfirst.tech/data-engineering/ 

[2] https://www.netsuite.com/portal/resource/articles/data-warehouse/data-lake.shtml 

[3] https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained 

[4] https://www.tableau.com/learn/articles/machine-learning-examples 

[5]https://neptune.ai/blog/use-cases-algorithms-tools-and-example-implementations-of-machine-learning-in-supply-chain