Efekt technologicznych złudzeń na postrzeganie rzeczywistości przez ludzi

Rozpoczęta w latach 90. XX wieku komputeryzacja wprowadziła ludzkość w epokę, w której praca i codzienne obcowanie z technologią jest powszechne i naturalne. Sztuczna Inteligencja odpowiada na nasze pytania, a Internet postrzegany jest jako nieskończone źródło informacji. Choć można pomyśleć, że rozwój technologii pomaga nam w zrozumieniu otaczającego świata, istnieją zjawiska pokazujące, jak często nasze intuicje zawodzą. Technologie, na pierwszy rzut oka proste i oczywiste, potrafią skrywać paradoksy i złudzenia, których dostrzeżenie, jak i zrozumienie, może być trudniejsze niż się wydaje. Artykuł ten przybliży trzy ciekawe zjawiska: efekt Elizy, paradoks Moraveca oraz efekt Streisand. Każde z nich pokazuje, w jaki sposób technologia może zmieniać naszą percepcję rzeczywistości, wpływając na to jak widzimy maszyny, dane i informacje. Poznanie tych zjawisk pozwoli spojrzeć z innej strony na rozwój technologii oraz pomoże bardziej świadomie z niej korzystać. 

Efekt Elizy

W latach 60-tych XX wieku Joseph Weizenbaum w Massachusetts Institute of Technology napisał program ELIZA [1]. Program ten był jednym z pierwszych chatbotów – w naturalny sposób naśladował zwykłą konwersację. Mimo prostoty algorytmu, który na podstawie wprowadzanych słów kluczowych tworzył odpowiedzi działając zgodnie z ustalonymi z góry schematami, wielu użytkowników programu zgłaszało, iż odnoszą wrażenie, że Eliza naprawdę ich rozumie. Dzięki sprytnemu doborowi odpowiedzi, użytkownicy potrafili być mocno zaangażowani w rozmowę, zadowoleni faktem, iż rozmówca rozumie i słucha. Sam twórca był zaskoczony, jak bardzo ludzie byli przekonani, że Eliza jest człowiekiem, nie maszyną.  

Właśnie od tego chatbota wziął swoją nazwę efekt Elizy – zjawisko skłonności do przypisywania przez człowieka maszynom, programom (w tym Sztucznej Inteligencji) zdolności do rozumienia, empatii i inteligencji, czyli ich antropomorfizacji [2]. Wśród przykładów tego zjawiska można wymienić wyświetlanie komunikatów “witaj” czy “dziękuję” przez bankomaty i kasy samoobsługowe, które są predefiniowanymi tekstami do wyświetlenia, a nie wyrazem wdzięczności maszyny; czy komunikacja z asystentami głosowymi – dziękowanie im, mówienie “ona” o asystencie Alexa, która mimo używania żeńskiego głosu w dalszym ciągu pozostaje bezpłciowym algorytmem. Podstaw tego efektu można doszukiwać się w naszej naturze – to co ludzkie wydaje się znajome, bliższe, mniej straszne, co widać chociażby w sposobie przedstawiania dawnych bóstw i porównywaniu ich do ludzi i zwierząt, przypisywaniu im zjawisk pogodowych czy żywiołów [3].  

Takie spoufalanie się z – nieraz bardzo skomplikowanymi – technologiami pozwala na przełamanie obaw przed nowościami, zachęca do interakcji i buduje przywiązanie do używanego produktu. Jednocześnie efekt ten może powodować przecenienie zdolności danego algorytmu (ze względu na założenie, że maszyna wie i rozumie więcej niż w rzeczywistości), nadmierną ufność w otrzymywane informacje, czy niezdrowe do granic traktowanie tworu jak ludzkiej istoty, np. przez traktowanie chatbota jak terapeuty czy zawieranie ślubów z AI [4]. 

Paradoks Moraveca

Kolejne interesujące zjawisko wzięło swoją nazwę od nazwiska kanadyjskiego naukowca, Hansa Moraveca, autora prac w dziedzinie technologii, futurologii i transhumanizmu. We współpracy z Rodney’em Brooksem oraz Marvinem Minskym w 1988 roku sformułował stwierdzenie: „Stosunkowo łatwo sprawić, żeby komputery przejawiały umiejętności dorosłego człowieka w testach na inteligencję albo w grze w warcaby, ale jest trudne albo wręcz niemożliwe zaprogramowanie im umiejętności rocznego dziecka w percepcji i mobilności” [5]. Oznacza ono, że zadania uważane za trudne, wymagające wiedzy, inteligencji i logicznego myślenia, są stosunkowo proste do rozwiązania z wykorzystaniem Sztucznej Inteligencji, natomiast te czynności, które uważamy za proste i naturalne – chodzenie, rozpoznawanie twarzy i przedmiotów czy koordynacja ruchowa – są bardzo problematyczne i trudne do zaimplementowania w maszynach.  

Naukowcy doszukują się wyjaśnienia tego paradoksu w procesie ewolucji człowieka. Zdolności motoryczne człowieka rozwijały się przez miliony lat, były niezbędne do przetrwania oraz powoli, lecz ciągle poprawiane za sprawą selekcji naturalnej. Ludzki mózg miał dużo czasu na przyswojenie i zaadaptowanie się do czynności takich jak chwytanie narzędzi, rozpoznawanie twarzy i emocji, chodzenie czy koordynacja ruchowa, dlatego są one zautomatyzowane na głębokim poziomie, wykonujemy je bez świadomego wysiłku. Z kolei abstrakcyjne myślenie, matematyka, logika to zdolności stosunkowo nowe, nie zakorzenione tak głęboko i wymagające świadomego wysiłku intelektualnego. Z racji tego, że te zdolności nie są zakorzenione w ludziach tak głęboko, łatwiej jest zastosować w ich przypadku inżynierię wsteczną i zaimplementować je w postaci programu. Ponadto komputery są najbardziej skuteczne w odwzorowywaniu procesów logicznych, schematycznych, z określonymi krokami. Z tych powodów mamy już programy wybitne, w porównaniu do ludzi, jeśli chodzi o złożone obliczenia, szachy, symulacje, jednak, jeśli chodzi o mobilność, koordynację, rozpoznawanie obiektów i twarzy, czy inne “podstawowe” czynności, które uznajemy za naturalne i proste już dla kilkuletniego dziecka – tutaj rozwój następuje bardzo powoli. Dopiero od niedawna ilość danych i technologia pozwala na stopniowy rozwój w tym obszarze, co pokazuje chociażby przykład firmy Boston Dynamics, zajmującej się robotyką [6].

Efekt Streisand

Kolejne zjawisko, na którym się skupimy to efekt Streisand. Głosi ono, iż im bardziej staramy się usunąć bądź ocenzurować jakąś informację w Internecie, tym większy zyskuje ona rozgłos i zainteresowanie. Efekt ten zawdzięcza swoją nazwę Barbrze Streisand i sytuacji z 2003 roku, gdy fotograf Kenneth Adelman wykonywał zdjęcia wybrzeża Kalifornii, w celu udokumentowania postępującej erozji [7]. Fotografie te zostały upublicznione na stronie poświęconej tematowi erozji wybrzeża. Zbiegiem okoliczności na jednym ze zdjęć widoczna była rezydencja Barbry Streisand. Pozwała ona fotografa za naruszenie prywatności, żądając odszkodowania i usunięcia fotografii, gdyż nie chciała, by ktokolwiek ją zobaczył. Sytuacja potoczyła się jednak całkiem nie po jej myśli – przegrała proces sądowy i musiała zwrócić fotografowi koszty, zaś fotografia nie tylko nie została usunięta, lecz zyskała jeszcze większy rozgłos i o wiele więcej wyświetleń niż przed całym zamieszaniem.  

Efekt ten można tłumaczyć na kilka sposobów, opierających się w głównej mierze na ludzkiej psychologii, roli mediów społecznościowych oraz ogólnym mechanizmom obiegu informacji w sieci. Ludzie bardzo niechętnie znoszą wszelkie ograniczenia narzucone na ich wolność, również w zakresie dostępu do informacji. Często w sytuacjach wymuszonej cenzury ludzie celowo działają na przekór – chcą zdobyć jak najwięcej wiadomości na temat “zakazanej” informacji, chętnie się nią dzielą i udostępniają dalej. Podobnie działa mechanika “zakazanego owocu” – przez próbę ukrycia informacja wydaje się jeszcze ciekawsza i bardziej intrygująca, mimo że bez owej próby wiadomość prawdopodobnie przeszłaby bez echa. W dzisiejszych czasach, z racji łatwości dostępu do informacji i mnogości różnych mediów, wiadomości są powszechne i szybko mogą stać się viralem, przyciągając ogromne ilości odbiorców. Internet również zmienił nieco odbiór różnych treści. Fakt, iż każdy użytkownik może treść zapisać, udostępnić, w teorii uniemożliwia usunięcie czegoś z sieci, gdy już raz tam trafiło. Dodając do tego fakt, jak szybko media wychwytują i nagłaśniają przypadki cenzury, staje się dość oczywiste, dlaczego próba ukrycia czy zamaskowania czegoś kończy się zazwyczaj odwrotnym skutkiem. 

Istnieje wiele przykładów efektu Streisand. W 2013 roku po występie na Super Bowl zespół do spraw wizerunku wokalistki Beyonce uznał jedno ze zdjęć za szczególnie niekorzystne i podjął próby usunięcia go z sieci. Efekt był dokładnie przeciwny, fotografia stała się dużo bardziej rozchwytywana niż pierwotnie, zaczęła służyć również jako szablon do internetowych memów. Nie brak też przypadków ze świata technologii. W 2007 roku jeden z użytkowników internetowego serwisu Digg ujawnił, iż system ochrony praw autorskich Advanced Access Content System (AACS) używany w odtwarzaczach HD DVD może być złamany ciągiem znanym jako 09 F9. Przedstawiciele przemysłu wykorzystującego to zabezpieczenie zażądali usunięcia wpisu na Digg i grozili konsekwencjami prawnymi. W efekcie w Internecie rozgorzały wielkie dyskusje, a informacja o kodzie (który przez chwilę był nazywany “najbardziej znanym numerem w Internecie”) mocno się rozprzestrzeniła i była powielana w postaci filmów, nadruków na koszulkach czy nawet piosenek [8]. 

Podsumowanie

Omówione w artykule zjawiska pokazują, że chociaż technologie, takie jak Sztuczna Inteligencja i Internet są potężnymi narzędziami, to mogą zniekształcać ludzką percepcję i tworzyć mylne wrażenia. Łatwo jest wpaść w rozmaite pułapki związane z technologią, dlatego świadomość wspomnianych zjawisk jest ważna, gdyż pozwala na bardziej krytyczne podejście do interakcji z technologią i informacją, lepsze wykorzystanie ich potencjału oraz zdrowe i rozsądne korzystanie z nich.

Bibliografia

[1] https://web.stanford.edu/class/cs124/p36-weizenabaum.pdf 

[2] https://modelthinkers.com/mental-model/eliza-effect 

[3] https://builtin.com/artificial-intelligence/eliza-effect 

[4] https://www.humanprotocol.org/blog/what-is-the-eliza-effect-or-the-art-of-falling-in-love-with-an-ai  

[5] https://www.researchgate.net/publication/286355147_Moravec%27s_Paradox_Consideration_in_the_Context_of_Two_Brain_Hemisphere_Functions  

[6] https://www.scienceabc.com/innovation/what-is-moravecs-paradox-definition.html  

[7] https://www.forbes.com/2007/05/10/streisand-digg-web-tech-cx_ag_0511streisand.html  

[8] https://web.archive.org/web/20081211105021/http://www.nytimes.com/2007/05/03/technology/03code.html 

Jezioro Danych – zastosowanie uczenia maszynowego

W erze cyfryzacji rośnie zapotrzebowanie na zaawansowane technologie nie tylko do gromadzenia, ale przede wszystkim analizy danych. Przedsiębiorstwa akumulują coraz większe ilości różnorodnych informacji, które mogą zwiększać ich efektywność i innowacyjność. Produkt Data Engineering oferowany przez firmę BFirst.Tech może odgrywać kluczową rolą w procesie wykorzystywania tych danych dla dobra firmy.  Jest to jedna z najnowocześniejszych technologii do efektywnego zarządzania i przetwarzania informacji. W niniejszym artykule przedstawimy jedną z możliwości oferowanych przez Jezioro Danych.

Data Engineering – najnowsza technologia do zbierania i analizowania informacji 

Inżynieria danych to proces projektowania oraz wdrażania systemów do efektywnego zbierania, przechowywania i przetwarzania obszernych zbiorów danych. Wspiera to akumulację informacji, takich jak analiza ruchu na stronach internetowych, dane z czujników IoT, czy trendy zakupowe konsumentów. Zadaniem inżynierii danych jest zapewnienie, że informacje są zręcznie gromadzone i magazynowane oraz łatwo dostępne i gotowe do analizy. Dane mogą być efektywnie przechowywane w jeziorach, hurtowniach czy składnicach danych, a tak zintegrowane źródła danych mogą służyć do tworzenia analiz lub zasilania silników sztucznej inteligencji. Zapewnia to wszechstronne wykorzystanie zgromadzonych informacji (patrz szczegółowy opis produktu Data Engineering (rys. 1)).

Data Engineering, sustainable data management

rys. 1 – Data Engineering

Jezioro Danych w przechowywaniu zbiorów informacji  

Jezioro Danych pozwala na przechowywanie ogromnych ilości surowych danych w ich pierwotnym, nieprzetworzonym formacie. Dzięki możliwościom, jakie oferuje Data Engineering, Jezioro Danych jest zdolne do przyjmowania i integracji danych z różnorodnych źródeł. Mogą to być dokumenty tekstowe, ale także obrazy, aż po dane pochodzące z czujników IoT. To umożliwia analizę i wykorzystanie złożonych zbiorów informacji w jednym miejscu. Elastyczność Jezior Danych oraz ich zdolność do integracji różnorodnych typów danych sprawiają, że stają się one niezwykle cenne dla organizacji, które stoją przed wyzwaniem zarządzania i analizowania dynamicznie zmieniających się zbiorów danych. W przeciwieństwie do hurtowni danych, Jezioro Danych oferuje większą wszechstronność w obsłudze różnorodnych typów danych. Jest to możliwe dzięki zaawansowanym technikom przetwarzania i zarządzania danymi stosowanym w inżynierii danych. Jednakże, ta wszechstronność rodzi również wyzwania w zakresie przechowywania i zarządzania tymi złożonymi zbiorami danych, wymagając od inżynierów danych ciągłego dostosowywania i innowacyjnych podejść. [1, 2] 

Jezioro Danych a przetwarzanie informacji i wykorzystanie uczenia maszynowego

Rosnąca ilość przechowywanych danych oraz ich różnorodność stanowią wyzwanie w zakresie efektywnego przetwarzania i analizy. Tradycyjne metody często nie nadążają za tą rosnącą złożonością, prowadząc do opóźnień i ograniczeń w dostępie do kluczowych informacji. Uczenie maszynowe, wsparte przez innowacje w dziedzinie inżynierii danych, może znacząco usprawnić te procesy. Wykorzystując obszerne zbiory danych, algorytmy uczenia maszynowego identyfikują wzorce, przewidują wyniki i automatyzują decyzje. Dzięki integracji z Jeziorami Danych (rys. 2), mogą one pracować z różnymi typami danych, od strukturalnych po niestrukturalne, umożliwiając przeprowadzanie bardziej złożonych analiz. Ta wszechstronność pozwala na głębsze zrozumienie i wykorzystanie danych, które byłyby inaczej niedostępne w tradycyjnych systemach.

Zastosowanie uczenia maszynowego w Jeziorach Danych umożliwia głębszą analizę i efektywniejsze przetwarzanie dzięki zaawansowanym narzędziom i strategiom inżynierii danych. Pozwala to organizacjom transformować ogromne ilości surowych danych w użyteczne i wartościowe informacje. Jest to istotne dla zwiększenia ich efektywności operacyjnej i strategicznej. Ponadto, wykorzystanie uczenia maszynowego wspomaga interpretację zgromadzonych danych i przyczynia się do bardziej świadomego podejmowania decyzji biznesowych. W efekcie, firmy mogą dynamiczniej dostosowywać się do rynkowych wymogów i innowacyjnie tworzyć strategie oparte na danych. 

Jezioro danych

rys. 2 – Jezioro Danych

Podstawy uczenia maszynowego oraz kluczowe techniki i ich zastosowania  

Uczenie maszynowe, będące integralną częścią tzw. sztucznej inteligencji, umożliwia systemom informatycznym samodzielne uczenie się i doskonalenie na podstawie danych. W tej dziedzinie wyróżniamy typy uczenia takie jak uczenie nadzorowane, uczenie nienadzorowane i uczenie ze wzmocnieniem. W uczeniu nadzorowanym każdy przykład danych ma przypisaną etykietę lub wynik, który pozwala maszynom na naukę rozpoznawania wzorców i przewidywania. Stosowane jest to m.in. w klasyfikacji obrazów lub prognozowaniu finansowym. Z kolei uczenie nienadzorowane, pracujące na danych bez etykiet, skupia się na znajdowaniu ukrytych wzorców. Jest to użyteczne w zadaniach takich jak grupowanie elementów czy wykrywanie anomalii. Natomiast uczenie ze wzmocnieniem opiera się na systemie nagród i kar, pomagając maszynom optymalizować swoje działania w dynamicznie zmieniających się warunkach, jak np. w grach czy automatyce. [3]

Co jeśli chodzi o algorytmy? Sieci neuronowe są doskonałe do rozpoznawania wzorców skomplikowanych danych – jak obrazy czy dźwięk – i stanowią podstawę wielu zaawansowanych systemów AI. Drzewa decyzyjne są używane do klasyfikacji i analizy predykcyjnej, na przykład w systemach rekomendacji lub prognozowaniu sprzedaży. Każdy z tych algorytmów ma swoje unikalne zastosowania. Może być dostosowany do specyficznych potrzeb zadania lub problemu, co czyni uczenie maszynowe wszechstronnym narzędziem w świecie danych. 

Przykłady zastosowań uczenia maszynowego 

Zastosowanie uczenia maszynowego w Jeziorach Danych, otwiera szerokie spektrum możliwości, od detekcji anomalii po personalizację ofert i optymalizację łańcuchów dostaw. W sektorze finansowym algorytmy te skutecznie analizują wzorce transakcji, identyfikując nieprawidłowości i potencjalne oszustwa w czasie rzeczywistym, co ma kluczowe znaczenie w zapobieganiu oszustwom finansowym. W handlu detalicznym i marketingu, uczenie maszynowe pozwala na personalizację ofert dla klientów poprzez analizę zachowań zakupowych i preferencji, zwiększając satysfakcję klienta i efektywność sprzedaży. [4] W przemyśle, algorytmy te przyczyniają się do optymalizacji łańcuchów dostaw, analizując dane z różnych źródeł, jak prognozy pogody czy trendy rynkowe, co pomaga w przewidywaniu popytu i zarządzaniu zapasami oraz logistyką [5].

Można je też wykorzystać do wstępnego projektowania czy optymalizacji produktów. Innym, interesującym zastosowaniem uczenia maszynowego w Jeziorach Danych jest analiza obrazów. Algorytmy uczenia maszynowego są w stanie przetwarzać i analizować duże zbiory zdjęć czy obrazów, znajdując zastosowanie w takich dziedzinach jak diagnostyka medyczna, gdzie mogą pomagać w wykrywaniu i klasyfikowaniu zmian chorobowych na obrazach radiologicznych, czy w systemach bezpieczeństwa, gdzie analiza obrazu z kamer może służyć do identyfikacji i śledzenia obiektów lub osób.  

Podsumowanie

Artykuł ten zwraca uwagę na rozwój w obszarze analizy danych, podkreślając jak uczenie maszynowe, Jeziora Danych i inżynieria danych wpływają na sposób w jaki organizacje przetwarzają i wykorzystują informacje. Wprowadzenie tych technologii do biznesu ulepsza istniejące procesy oraz otwiera drogę do nowych możliwości. Data Engineering wprowadza modernizację w przetwarzaniu informacji, która charakteryzuje się większą precyzją, głębszymi wnioskami i bardziej dynamicznym podejmowaniem decyzji. To podkreśla rosnącą wartość inżynierii danych w nowoczesnym świecie biznesu, co jest ważnym czynnikiem w dostosowywaniu się do zmieniających się wymagań rynkowych i tworzeniu strategii opartych na danych. 

Bibliografia

[1] https://bfirst.tech/data-engineering/ 

[2] https://www.netsuite.com/portal/resource/articles/data-warehouse/data-lake.shtml 

[3] https://mitsloan.mit.edu/ideas-made-to-matter/machine-learning-explained 

[4] https://www.tableau.com/learn/articles/machine-learning-examples 

[5]https://neptune.ai/blog/use-cases-algorithms-tools-and-example-implementations-of-machine-learning-in-supply-chain 

Nowe rozwiązania w komputerach stacjonarnych

Współczesny rynek technologiczny prężnie rozwija się w zakresie komputerów stacjonarnych. Firmy technologiczne próbują wyróżniać swoje produkty poprzez wprowadzanie do nich innowacyjnych rozwiązań. W ostatnim czasie duży rozgłos zyskał Mac M1 Ultra.

Nowy komputer od Apple, odznacza się przede wszystkim swoją wielkością i mobilnością. Zaprezentowany na początku marca produkt jest pełnoprawnym desktopem zamkniętym w obudowie o wymiarach 197 x 197 x 95 mm. Porównując to do kart graficznych Nvidii z serii RTX, np. Gigabyte GeForce RTX 3090 Ti 24GB GDDR6X, gdzie samo GPU ma wymiary 331 x 150 x 70 mm, okazuje się, że otrzymujemy cały komputer o rozmiarach karty graficznej. [4]

Apple M1 Ultra  - przedni panel
Rys. 1 – Apple M1 Ultra  – przedni panel [5]

Różnica w budowie

Rdzenie to fizyczne elementy procesora w których zachodzą procesy i obliczenia, im więcej rdzeni tym szybciej pracować będzie komputer. Proces technologiczny wyrażony w nm oznacza wielkość bramki tranzystora i przekłada się na zapotrzebowanie energii oraz ciepło generowane przez procesor. Zatem im mniejsza wartość jest wyrażona w nm, tym wydajniejszy jest procesor.

Procesor M1 Ultra ma 20 rdzeni i tyle samo wątków, a wykonany jest w technologii 5nm. [4][6] Dla porównania AMD oferuje maksymalnie 16 rdzeni i 32 wątki w technologii 7nm [7] (nowe procesory AMD z serii ZEN4 mają mieć technologię 5nm, jednak na  ten moment nie znamy dokładnej specyfikacji [3]) a Intel 16 rdzeni i 32 wątki w technologii 14nm [8]. Wobec powyższego, w teorii produkt od Apple ma znaczną przewagę nad konkurencją w kwestiach wydajności pojedynczego wątku. [Rys. 2]

Wydajność nowego komputera Apple

Według zapewnień producenta, GPU od Apple miało przewyższać najlepszą, na tamten moment, dostępną kartę graficzną – RTX 3090.

Wykres  wydajności procesora od ilości zużytego prądu
Rys. 2 – Wykres  wydajności procesora od ilości zużytego prądu [9] . Wykres pokazany przez Apple podczas prezentacji nowego produktu

Zintegrowana karta graficzna miała zapewniać lepszą wydajność przy zużyciu ponad 200W mniej mocy. [Rys. 3] Po premierze, użytkownicy sprawdzili jednak szybko zapewnienia producenta i okazało się, że RTX znacznie przewyższa w testach benchmarkowych produkt Apple.

Wykres wydajności karty graficznej od ilości zużytego prądu
Rys. 3 – Wykres wydajności karty graficznej od ilości zużytego prądu [9]. Wykres pokazany przez Apple podczas prezentacji nowego produktu. Porównany z RTX 3090

Problemem jest to, że te benchmarki w większości wykorzystują programy niezoptymalizowane pod Mac OS, przez co produkt Apple nie wykorzystuje całości swojej mocy. W testach wykorzystujących całą moc GPU M1 Ultra wypada bardzo podobnie do swojego dedykowanego rywala. Niestety nie wszystkie aplikacje są napisane pod system operacyjny Apple, co mocno ogranicza zastosowania, w których wykorzystamy pełną moc komputera.[10]

Na poniższym wykresie zostało przedstawione porównanie liczby klatek na sekundę w “Shadow of the Tomb Raider” z 2018 roku. [Rys. 4] Im więcej klatek tym płynniejszy jest obraz. [2]

Liczba klatek na sekundę w grze z serii Tomb Raider
Rys. 4 – Liczba klatek na sekundę w grze z serii Tomb Raider (im więcej tym lepiej)[2]

Pobór energii nowego Mac Studio M1 Ultra w porównaniu do standardowych PC

Pomimo dużej mocy obliczeniowej, nowy produkt Apple jest bardzo energooszczędny. Producent podaje, że jego maksymalny ciągły pobór mocy wynosi 370W. Standardowe PC na współczesnych podzespołach nie schodzą poniżej 500W a rekomendowana moc dla sprzętu z najlepszymi częściami wynosi 1000W [Tab. 1] ( Nvidia GeForce RTX 3090 Ti + AMD R7/9 lub Intel i7/9 ).  

Intel i5
AMD R5
Intel i7
AMD R7
Intel i9 K
AMD R9
NVIDIA RTX 3090 Ti850W1000W1000W
NVIDIA RTX 3090 750W850W850W
NVIDIA RTX 3080 Ti750W850W850W
NVIDIA RTX 3080 750W850W850W
NVIDIA RTX 3070 Ti750W850W850W
NVIDIA RTX 3070 650W750W750W
Lower graphic cards650W650W650W
Tab. 1 – Tabela rekomendowanej mocy zasilacza zależnie od użytego procesora i karty graficznej. W kolumnach procesory AMD i Intel, w wierszach karty graficzne NVIDIA z serii RTX. [1]

Oznacza to znacznie mniejsze koszty utrzymania takiego komputera. Zakładając, że nasz komputer pracuje 8h dziennie i średni koszt kWh na poziomie 0,77 PLN, otrzymujemy oszczędność na poziomie 1500 zł rocznie. W krajach, które nie są zasilane zieloną energią oznacza to również mniejszą ilość zanieczyszczeń.

Problemy produktu od Apple

Produkty od Apple mają dedykowany software, co oznacza lepszą kompatybilność z hardware i przekłada się na lepszą wydajność, ale oznacza też, że dużo programów nie napisanych pod Mac OS nie jest w stanie całkowicie wykorzystać potencjału M1 Ultra. Produkt nie pozwala na korzystanie z dwóch systemów operacyjnych lub samodzielne zainstalowanie Windowsa/Linuxa. Okazuje się więc, że to co pozwala M1 Ultra osiągnąć tak dobre wyniki w niektórych warunkach, jest też powodem przez który nie jest w stanie konkurować wydajnością w innych programach. [10]

Podsumowanie

Apple M1 Ultra jest silnym komputerem w małej obudowie. Technologia 5nm zapewnia najlepszą energooszczędność wśród produktów aktualnie dostępnych na rynku. Jednak przez swoją niską kompatybilność i wysoką cenę nie zastąpi standardowych komputerów. Aby uzyskać maksymalną wydajność potrzebne są programy dedykowane pod system operacyjny Apple. Decydując się na ten komputer trzeba to mieć na myśli. Z tego powodu, pomimo wielu zalet jest to raczej produkt przeznaczony dla profesjonalnych grafików, muzyków lub edytorów wideo.

Bibliografia

[1] https://www.msi.com/blog/we-suggest-80-plus-gold-1000w-and-above-psus-for-nvidia-geforce-rtx-3090-Ti

[2] https://nano.komputronik.pl/n/apple-m1-ultra/

[3] https://www.tomshardware.com/news/amd-zen-4-ryzen-7000-release-date-specifications-pricing-benchmarks-all-we-know-specs

[4] https://www.x-kom.pl/p/730594-nettop-mini-pc-apple-mac-studio-m1-ultra-128gb-2tb-mac-os.html

[5] https://dailyweb.pl/apple-prezentuje-kosmicznie-wydajny-mac-studio-z-nowym-procesorem-m1-ultra/

[6] https://geex.x-kom.pl/wiadomosci/apple-m1-ultra-specyfikacja-wydajnosc/

[7] https://www.amd.com/pl/partner/ryzen-5000-series-desktop

[8] https://www.cpu-monkey.com/en/

[9] https://www.apple.com/pl/newsroom/2022/03/apple-unveils-m1-ultra-the-worlds-most-powerful-chip-for-a-personal-computer/

[10] https://youtu.be/kVZKWjlquAU?t=301

ANC – finansowe aspekty

Dzisiejsze realia w coraz większym stopniu angażują ludzi do rozmowy o finansach. Zarówno, jeżeli chodzi o nasze prywatne domowe budżety, jak i o wielkie inwestycje na szczeblu globalnym. Nie sposób nie zauważyć faktu, że dbałość o finanse zaowocowała wypracowaniem nowatorskich metod ich analizy. Począwszy od prostych aplikacji, które pozwalają nam monitorować codzienne wydatki, kończąc na olbrzymich systemach rachunkowo księgowych, które obsługują globalne korporacje. Rozmowy o pieniądzach dotyczą również szeroko pojętych inwestycji. Bardzo często związane są one z wdrożeniami nowoczesnych technologii, które w domyśle mają przynosić jeszcze większe korzyści, z finalnym efektem w postaci większego zysku. W jaki sposób możemy zdefiniować zysk? I czy rzeczywiście jest on najważniejszym czynnikiem w dzisiejszym postrzeganiu biznesu? Jak aktywna redukcja hałasu może wpłynąć na wydajność i zysk?

Co to jest zysk?

Sięgając do literatury czytamy, że „zysk stanowi nadwyżkę przychodów nad kosztami” [1]. Innymi słowy zysk stanowi dodatni wynik finansowy. Potocznie rzecz biorąc jest to stan, w którym więcej sprzedajemy niż wydajemy. I oczywiście jest to zjawisko zdecydowanie pożądane, bowiem w zamyśle firma powinna przynosić zysk. Stanowi on podstawę do kolejnych inwestycji, aby w dalszym ciągu mieć możliwość zaspokajać potrzeby klientów. Mówiąc o zysku możemy wyróżnić kilka jego rodzajów [2]:

  1. Zysk brutto, czyli różnicę pomiędzy przychodami netto ze sprzedaży a kosztami sprzedanych produktów. Dzięki niemu możemy zobaczyć jak jednostka naszego wyrobu przekłada się na wynik finansowy. Ma to szczególne znaczenie dla przedsiębiorstw produkcyjnych, które często poszukują takich usprawnień, które w efekcie pozwolą im na zachowanie efektu skali.
  2. Zysk netto, czyli nadwyżkę, która zostaje po odjęciu wszystkich kosztów. W bilansowym ujęciu jest to różnica między kosztami całkowitymi a przychodem ze sprzedaży. W dzisiejszym świecie bardzo często pojmowany jako czynnik, który świadczy o dobrej kondycji finansowej przedsiębiorstwa.
  3. Zysk operacyjny, czyli specyficzny rodzaj zysku, który skupia się tylko i wyłącznie na wyniku w obszarze podstawowej działalności firmy. Bardzo często odzwierciedlony w rachunku zysków i strat w postaci EBIT-u.

Zysk a wydajność

Wydajność w takim rozumieniu wiąże się z zagwarantowaniem w długim okresie czasu, że praca nie zaszkodzi życiu lub zdrowiu pracowników. Ogólna klasyfikacja Centralnego Instytutu Ochrony Pracy wymienia czynniki takie jak [3]:

  • hałas i drgania mechaniczne,
  • czynniki mechaniczne,
  • czynniki chemiczne i pyły,
  • obciążenia mięśniowo – szkieletowe,
  • stres,
  • oświetlenie,
  • promieniowanie optyczne,
  • prąd elektryczny.

Klasyfikacja wymienia również obciążenia termiczne, pole elektromagnetyczne, czynniki biologiczne oraz zagrożenia wybuchem i pożarem. Najczęstszym jednak problemem jest kwestia hałasu przemysłowego i drgań, których często nawet ludzkie ucho nie jest w stanie wychwycić. Bardzo często w wyniku przebywania w środowisku wiecznie hałaśliwym koncentracja i poziom senności wzrastały. Stąd możemy wywnioskować, że nawet coś tak niepozornego jak hałas i drgania generują dla przedsiębiorcy spore koszty, zwłaszcza jeśli chodzi o koszty jednostkowe (przy masowej produkcji), dlatego istotnym jest podjęcie działań w kierunku redukcji hałasu. Jeśli chcesz dowiedzieć się więcej na temat tego jak walczyć z hałasem zapisz się na szkolenie tutaj.

Jak zapobiec generowaniu kosztów?

Dzisiejsze firmy z branży R&D, inżynierowie i specjaliści wnikliwie badają i usprawniają systemy produkcyjne, oferując im rozwiązania, które eliminują nawet te najtrudniejsze do rozwiązania problemy, dotyczące efektywności pracy człowieka. Świadomość lepszej opieki nad pracownikiem pogłębia się z roku na rok. Stąd też przysłowiowy „boom” na rozwiązania z zakresu sztucznej inteligencji oraz systemów, które będą ułatwiały pracę człowiekowi. Rozwiązania tego typu to jednak spora inwestycja, stąd starania inżynierów finansowych do optymalizacji kosztów takich rozwiązań.

Krok 1 – Zapoznanie się z charakterystyką wydajności systemu produkcyjnego fabryki w ujęciu produkcyjnym oraz ekonomicznym.

Każdy z procesów produkcyjnych ma swoją wydajność i charakterystykę, która w określonym stopniu przekłada się na wyniki produkcji. Aby te procesy były mierzalne, należy wcześniej je za pomocą mierników. Na bazie wiedzy o procesie oraz danych, które określone są przy użyciu wspomnianych mierników warto określić poziom wydajności procesu w dwóch ujęciach, produkcyjnym oraz ekonomicznym. Pierwsze z nich określi poziom wydajności pracy zespołu człowiek – maszyna, drugie natomiast spojrzy na problem wydajności w perspektywie zysków lub strat. Bardzo często na tym etapie wyłapywane są tzw. wąskie gardła produkcji, które stanowią o wydajności danego procesu. Warto w tym momencie sporządzić raporty, dotyczące stanu wydajności produkcji.

Krok 2 – Określenie założeń techniczno – ekonomicznych

Podstawą do określenia założeń będzie raport z charakterystyki wydajności procesu. Dzięki niemu będziemy w stanie określić najmniej i najbardziej wydajny proces. Określenie założeń ma na celu sporządzenie aktualnych celów dla zarządzających konkretnymi procesami. W obszarze technicznym założenia dotyczą najczęściej optymalizacji produkcji w wąskich gardłach, natomiast w obszarze ekonomicznym swoją uwagę warto skupić na optymalizacji kosztowej, wynikającej z prowadzonych rachunków kosztów w ramach rachunkowości zarządczej. Założenia techniczno-ekonomiczne są podstawą do wdrożenia innowacyjnych rozwiązań, dają bowiem zielone światło dla zmian, które należy przeprowadzić, aby proces był rentowny.

Krok 3 – Prognozy wartości dochodów i nakładów inwestycyjnych a aktywna redukcja hałasu

Następnie przystępujemy do badania prognostycznego. Ma ono na celu zbadać jaki rozkład w czasie będą miały dochody oraz nakłady inwestycyjne, poniesione zarówno na wdrożenie i późniejsze działanie systemu w warunkach przemysłowych.

Nakład z aktywnej redukcji hałasu jest wyższy na przestrzeni lat od zwykłego nakładu
Rys. 1 Prognozowane nakłady na lata 2017-2027
Dochód z aktywnej redukcji hałasu utrzymuje się na podobnym poziomie, a dochód bez anc jest niestabilny
Rys. 2 Prognozowany dochód na lata 2017-2027

Wdrożenie systemu aktywnej redukcji hałasu jest w stanie, z punktu widzenia ekonomicznego, uspokoić wahania dochodów w czasie.  Trend na podstawie analizy poprzednich okresów wyraźnie pokazuje cykliczność i tendencję liniową do zarówno wzrostów jak i spadków. Stabilizacja koreluje z wdrożeniem opisywanego systemu. Może się to wiązać ze stałym dodatkowym wzrostem mocy produkcyjnych związanych z implementacją systemu do procesu produkcyjnego. Stąd też wniosek, że poprawa wydajności produkcyjnej przynosi w rezultacie stabilizację dochodów w czasie. Z drugiej strony poziom nakładów jest wyższy w przypadku wdrożenia systemu. Mimo tego faktu poziom ten ma tendencje spadkowe z roku na rok.

Na podstawie tych danych jesteśmy w stanie obliczyć podstawowe mierniki opłacalności inwestycji. W tym momencie również przeprowadzamy obliczenia wprowadzające, mające na celu sprowadzenie dochodów oraz nakładów do jednego momentu w czasie. Zabieg ten pozwoli na obliczenia stopy dyskonta oraz pozwoli zaprognozować przyszłe okresy inwestycji [1].

Krok 4 – Ocena efektywności inwestycji metodami statycznymi

Mierniki opłacalności inwestycji liczymy, chcąc sprawdzić, czy to, w co chcemy włożyć nasz kapitał, przyniesie nam odpowiednie i satysfakcjonujące zyski. Inwestowanie w takie rozwiązania jest konieczne, przy znaczącej konkurencji. Oczywiście podejmowane decyzje mogą przechylić szalę w dwojaki sposób. Zwiększenie zysków, obniżenie kosztów czy też mocniejsza pozycja na rynku to jedne, z wielu pozytywnych aspektów inwestowania. Istnieje też druga strona medalu. Złe decyzje, opierane najczęściej na nieprzygotowanych analizach, lub nawet braku takich analiz, wiążą się niejednokrotnie z utraconymi zyskami, często ponosimy koszty alternatywne. Jeszcze częściej nieprzemyślane ruchy inwestycyjne powodują obniżanie się wartości firmy. W ujęciu statycznym mówimy o następujących wskaźnikach:

  • Roczna stopa zwrotu,
  • Księgowa stopa zwrotu,
  • Prosty okres zwrotu.

W omawianym przypadku, czyli wdrożeniu systemu aktywnej redukcji hałasu, mówimy o rocznej oraz księgowej stopie zwrotu na poziomie ok. 200% wartości. Okres zwrotu oscyluje na poziomie niecałego roku. Jest to związane z dużą dysproporcją pomiędzy nakładami poniesionymi na wdrożenie systemu, a korzyściami jego implementacji. Jednak aby mieć stuprocentową pewność wdrożenia, należy policzyć jeszcze przede wszystkim zaktualizowaną wartość netto (NPV) oraz wewnętrzną stopę zwrotu (IRR). Określą one wydajność inwestycji na przestrzeni kolejnych badanych okresów.

Krok 5 – Ocena efektywności metodami dynamicznymi

W tej części należy zastanowić się jak efektywna jest inwestycja i jaki przez to ma wpływ na jej wartość przyszłą. Dlatego obliczone zostaną wskaźniki takie jak:

  • Zaktualizowana wartość netto (NPV),
  • Zdyskontowana stopa zysku (NPVR),
  • Wewnętrzna stopa zwrotu (IRR),

Realizując politykę wprowadzania innowacyjności w spółkach przemysłowych firmy stoją przed wyzwaniem maksymalizacji wskaźników efektywności. Widząc zatem korelację pomiędzy możliwościami zastosowania metod aktywnej redukcji hałasu, które poprawiają jakość warunków pracy – wpływając na realizację zadań przez pracowników, można stwierdzić, że poprawa wydajności pracy odbija się na wynikach finansowych co ma bezpośredni wpływ na ocenę efektywności realizacji takiego projektu. Mimo wysokich nakładów początkowych korzyści mają charakter długoterminowy, wpływając na poprawę stabilizacji produkcji.

Czy warto prowadzić wstępne kalkulacje zyskowności inwestycji?

Odpowiedź jest krótka, warto. Pomagają one w procesach decyzyjnych. Stanowią dla decydentów pierwsze przetarcie, wstępną selekcję inwestycji opłacalnych oraz nieopłacalnych. W tym momencie zarząd jest w stanie ustalić prognozowaną zyskowność, którą są w stanie kreować już na pułapie operacyjnym działalności. Reagując na ubytki wydajności szefowie są w stanie wychwycić uciekające źródła dochodów oraz wcześniej zareagować na potencjalne nowinki technologiczne. Wstępna ocena opłacalności jest pomocnym narzędziem w podejmowaniu trafnych i obiektywnych decyzji.

Bibliografia

[1] D.Begg, G.Vernasca, S.Fischer „Mikroekonomia” PWE Warszawa 2011
[2] mfiles.pl/pl/index.php/Zysk

[3] Felis P., 2005: Metody i procedury oceny efektywności inwestycji rzeczowych przedsiębiorstw. Wydawnictwo Wyższej Szkoły Ekonomiczno-Informatycznej. Warszawa.

Cyfrowe przetwarzanie obrazów

Przetwarzanie sygnałów towarzyszy każdemu człowiekowi codziennie. Wszystkie bodźce (sygnały) odbierane z otaczającego nas świata, tj. dźwięk, światło, temperatura są przetwarzane w impulsy elektryczne, przesyłane następnie do mózgu. Tam następuje analiza i interpretacja odebranych sygnałów, w wyniku której otrzymujemy informacje płynące z danego rodzaju sygnału (np. rozpoznajemy kształt przedmiotu, odczuwamy ciepło itp.).

W podobny sposób działa Cyfrowe Przetwarzanie Sygnałów (CPS). W tym przypadku sygnał analogowy konwertuje się na sygnał cyfrowy przez przetwornik analogowo-cyfrowy. Następnie przy użyciu komputera przetwarzane są dostarczone sygnały. W systemach CPS wykorzystuje się również komputerowe urządzenia peryferyjne, wyposażone w procesory sygnałowe, dzięki którym możliwe jest przetwarzanie sygnałów w czasie rzeczywistym. Niekiedy potrzebna jest ponowna konwersja sygnału do postaci analogowej (np. do sterowania jakiegoś urządzenia). W tym celu wykorzystuje się przetworniki cyfrowo-analogowe.

Cyfrowe przetwarzanie sygnałów ma bardzo szerokie zastosowanie. Może być wykorzystywane m.in. do przetwarzania dźwięku, rozpoznawania i przetwarzania mowy, czy do przetwarzania obrazów. To ostatnie zagadnienie będzie przedmiotem tego artykułu, a konkretnie omówimy w nim podstawową operację wykonywaną w procesie cyfrowego przetwarzania obrazów, tj. filtrację splotową.

Czym jest przetwarzanie obrazów?

Mówiąc w najprostszy sposób, przetwarzanie obrazów polega na przekształceniu obrazu wejściowego w obraz wyjściowy. Celem tego procesu jest selekcja informacji – wybranie najistotniejszych (np. kształtu) oraz wyeliminowanie zbędnych (np. szumów). Proces cyfrowego przetwarzania obrazów obejmuje szereg różnorodnych operacji, m.in.:

  • filtrację,
  • binaryzację,
  • segmentację,
  • transformację geometryczną,
  • kodowanie,
  • kompresję.

Jak już wspominaliśmy, w tym artykule omówimy szerzej operację filtracji obrazów.

Filtracja splotowa

Zarówno w domenie jednowymiarowej, przykładowo dla sygnałów audio, tak również dla dwóch wymiarów istnieją odpowiednie narzędzia służące przeprowadzeniu operacji na sygnałach, w tym przypadku na obrazach. Jednym z takich narzędzi jest filtracja. Polega ona na wykonaniu na pikselach obrazu wejściowego pewnych operacji matematycznych, w wyniku których otrzymywany jest nowy obraz. Najczęściej filtrację wykorzystuje się w celu poprawy jakości obrazu lub wydobycia z niego istotnych cech.

Podstawową operacją w metodzie filtracji jest operacja splotu 2D. Pozwala ona na aplikowanie przekształceń obrazu z użyciem odpowiednio przygotowanych do tego filtrów w postaci macierzy współczynników. Wykorzystanie filtrów polega na obliczeniu nowej wartości punktu na podstawie wartości punktów znajdujących się w jego otoczeniu. Do obliczeń wykorzystuje się tzw. maski, zawierające wagi pikseli z otoczenia danego piksela. Najczęściej spotykane rozmiary masek to 3×3, 5×5 i 7×7. Poniżej przybliżono proces przeprowadzenia konwolucji obrazu oraz filtra.

Przyjmując, że obraz reprezentowany jest przez macierz o wymiarach 5×5, zawierającą wartości kolorów, a filtr reprezentowany macierzą 3×3, przeprowadzono modyfikację obrazu poprzez splecenie jednej z nich z drugą.

Pierwsze, co należy wykonać to zamiana wierszy, a następnie kolumn w macierzy filtra (wiersz/kolumna pierwsza → wiersz/kolumna ostatnia – i na odwrót). Należy również przyjąć, że środek jądra filtracji h(0,0) znajduje się w środku macierzy, tak jak to pokazano na poniższym rysunku. W związku z taką konwencją indeksy (m,n) oznaczające wiersze i kolumny macierzy filtra będą ujemne i dodatnie.

Przetwarzanie obrazów - schemat filtracji obrazu
Rys. 1 Schemat filtracji obrazu

Uznając macierz filtra (kolor niebieski) za odwróconą w pionie i poziomie, możemy przeprowadzić operację filtracji. Dokonujemy tego umieszczając element h(0,0) → h(m,n) macierzy niebieskiej w elemencie s(-2,-2) → s(i,j) macierzy obrazu (kolor żółty). Następnie wymnażamy nachodzące na siebie wartości obu macierzy i sumujemy. W ten sposób otrzymaliśmy wynik splotu dla komórki o(-2,2) obrazu wyjściowego.

Kolejne etapy procesu są analogiczne, przesuwamy środek macierzy niebieskiej do elementu s(-2,-1), wymnażamy nachodzące na siebie wartości, sumujemy, otrzymując wynik wyjściowy. Pola, które wykraczają poza obszar macierzy s(i,j) uznajemy za niezdefiniowane, w związku z tym wartości w tych miejscach nie istnieją, a więc nie dokonujemy mnożenia.

Zastosowanie filtracji splotowej

W zależności od rodzaju filtra wyróżnia się różne zastosowania filtracji splotowej. Filtry dolnoprzepustowe wykorzystywane są do usuwania szumów w obrazach, natomiast filtry górnoprzepustowe stosowane są do wyostrzania lub podkreślenia krawędzi.

W celu zobrazowania działania poszczególnych rodzajów filtrów spróbujmy zastosować praktyczny przypadek konwolucji na rzeczywistym obrazie. Poniższy obraz w formacie „.jpg” został wczytany jako macierz MxNx3 pikseli. Na jego przykładzie pokażemy podstawowe efekty możliwe do uzyskania, dzięki zastosowaniu filtracji splotowej.

Oryginalny obraz wejściowy
Rys. 2. Oryginalny obraz wejściowy

Rozmycie Gaussowskie

Aby dokonać rozmycia obrazu należy zastosować funkcję splotu, jak również odpowiednio przygotowany kernel – filtr. Jednym z najczęściej wykorzystywanych do tego filtrów dolnoprzepustowych jest filtr Gaussowski. Pozwala on na zmniejszenie ostrości obrazu, jak również stosuje się go przy redukcji szumu obecnego w obrazie.

W prezentowanym przypadku wykorzystano macierz o wymiarach 29×29, wygenerowaną na podstawie funkcji Gaussowskiej o odchyleniu standardowym równym 5. Rozkład normalny nadaje wagi otaczającym pikselom w procesie konwolucji. Działanie filtra dolnoprzepustowego polega na tłumieniu elementów obrazu charakteryzujących się wysoką częstotliwością i przepuszczaniu tych elementów, których częstotliwość jest mała. W rezultacie następuje redukcja szumów oraz rozmycie obrazu, a otrzymany obraz jest mniej wyraźny niż pierwotny.

Rozmyty obraz wejściowy
Rys. 3 Rozmyty obraz wejściowy

Wyostrzanie

Analogicznie jak przy rozmyciu Gaussowskim można sprawić, że obraz zostanie wyostrzony. W tym celu należy zastosować odpowiedni filtr górnoprzepustowy. Jego działanie polega na przepuszczaniu oraz wzmacnianiu elementów obrazu, które odznaczają się dużą częstotliwością, np. szumów czy krawędzi. Natomiast elementy o małej częstotliwości filtr wytłumia. W wyniku zastosowania filtru następuje wyostrzenie pierwotnego obrazu, co można łatwo zauważyć na przykład w okolicach ramienia.

Wyostrzony obraz wejściowy
Rys. 4 Wyostrzony obraz wejściowy

Detekcja krawędzi

Kolejnym zabiegiem możliwym do przeprowadzenia przy użyciu filtracji splotowej jest detekcja krawędzi. Do przeprowadzenia operacji wykrywania krawędzi wykorzystuje się filtry przesuwania i odejmowania. Ich działanie polega na przesunięciu obrazu i odjęciu obrazu pierwotnego od jego kopii. W wyniku tej operacji następuje detekcja krawędzi.

Detekcja krawędzi
Rys. 5 Detekcja krawędzi

BFirst.Tech a przetwarzanie obrazów

Jako firma posiadamy wykwalifikowaną kadrę, a także doświadczenie w dziedzinie cyfrowego przetwarzania obrazów.

Projektem, do realizacji którego wykorzystano przetwarzanie obrazów, jest platforma Webowa Virdiamed. Została ona stworzona we współpracy z firmą Rehasport Clinic. Platforma polega na rekonstrukcji 3D danych pochodzących z tomografu komputerowego, a także z rezonansu magnetycznego. Umożliwia ona podgląd danych 3D w przeglądarce internetowej. Więcej informacji o naszych projektach znajdziesz tutaj.

Cyfrowe przetwarzanie sygnałów, w tym także przetwarzanie obrazów, jest dziedziną techniki o szerokich możliwościach stosowania, a jej popularność ciągle rośnie. Nieustający postęp technologiczny sprawia, że również ta dziedzina cały czas się rozwija. Wiele technologii stosowanych na co dzień działa w oparciu o przetwarzanie sygnałów, dlatego też pewnym jest, że w przyszłości znaczenie CPS będzie ciągle rosnąć.

Bibliografia

[1] Leonowicz Z.: „Praktyczna realizacja systemów DSP”

[2] http://www.algorytm.org/przetwarzanie-obrazow/filtrowanie-obrazow.html