Data Engineering is an area with the latest Industrial Internet of Things (IIoT) products for collecting and analysing lots of data, supporting effective process management.
Build a reliable data source and then use it to power artificial intelligence (AI)
engines or create multidimensional analyses
Create secure access to data and ensure full protection of IT infrastructure
Process information, plan processes, choose appropriate mechanisms and tools and make the right decisions in advance
Aggregate data, create comprehensive reports, make strategic decisions by
anticipating events that will have a real impact on your business
The Data Warehouse is a digital product dedicated to business analysts as software support for Business Intelligence class systems (Power BI, Tableu, IBM Cognos and others). This Data Engineering product, thanks to its customisation capabilities, enables the configuration of a customised, optimised system for storing data from multiple sources (systems and machines), fully adapted to the company’s processes. It provides excellent support for sustainable management in the company, as well as for the production of management information in the form of financial and non-financial reports.
Data Lake is a digital product dedicated to R&D scientists and analysts as data storage software with secure access functionality. It provides a perfect support for the development of Artificial Intelligence (AI) engines and other Machine Learning (ML) algorithms used in broad process optimisation. This product, thanks to its customisation capabilities, enables the configuration of a customised, optimised system for storing data from multiple sources (systems and machines), fully adapted to the customer’s needs.
The product includes support for the design, planning and development of customized Data Warehouses and Data Lakes. The consulting covers both the evaluation of the application of a potential solution, but also the possibility of optimizing and developing existing Data Warehouses and Lakes. This Data Engineering product is ideally suited to support business analysts from the controlling department, in the process of designing a digital solution taking into account their specialized preferences.
This product supports the use of Data Warehouses and Data Lakes. As part of the training, users using the deployed Data Engineering solutions will gain the necessary knowledge of: authentication, data access, how to configure the Integrated Data Source, communication channels with the server team, etc.
The training also provides knowledge on how to store data, data exloparation, the possibility of adapting Artificial Intelligence AI to create multidimensional information processing models.
Using a Data Warehouse for Business Alytics
Ways to communicate with machines and databases
Knowledge of the latest trends
Using Data Lakes for R&D Developers
Recognizing data processing models for Data Warehouses (ETL) and Data Lakes (ELT)
Economic evaluation and technological aapect in terms of benefits for the company
BFirst.Tech Sp. z o.o.
Services
©2025 BFirst.Tech. All rights reserved.
Used to store data in a a dedicated database or multiple databases, in the case of a distributed database schema. Data is stored in a standardised form with secured access only for authorised users from the level of Business Intelligence class systems.
Software (engine) for automatic generation of reports. Depending on the company specifics and the purpose, these can be technical reports, control reports, management reports, etc. The purpose of this module is to automate systematically recurring processes by generating a ready-to-use report, which can be treated independently, but also serve as a component of more comprehensive statements. An example of this is the cyclical technical reports with an inventory of the infrastructure, including information on breakdowns, downtimes and machine runs.
Performs three main tasks data extraction (E – Extract), data transformation (T – Transform) and data transfer to the target data store (L -Load). In this module, the data are standardised to a preset structure regardless of their source (different databases) to be finally stored in an integrated data source.
Provides fast and secure communication with the source databases of systems used in firms such as CRM, ERP, RCP, etc. This tool is perfectly suited for handling datain the most popular database systems such as Firebird, MS SQL, PostgreSQL, mongoDB, Oracle, SQL, etc
Provides fast and secure communication with machines and equipment in the company in the OPC-UA standard and also via the ODBC interface. Fast and secure communication with machines enables the acquisition of previously lost key data directly from production lines.
Designed to support communication via an API (REST) to manage information in XML, HTML, JSON, etc. formats, as well as in a simplified manner using the SOAP receiver. This module is ideally suited for communication with cloud services (SaaS), such as Share Point, One Drive, NextCloud, etc.
Contains services for maintaining and servicing the warehouse by making updates to the relevant modules of the warehouse, checking the correctness of the processed data, and providing support in the event of failures.
Refers to advice on the selection and configuration of the infrastructure required to implement the Data Warehouse. Depending on the needs of the company, the optimal server infrastructure is proposed. In addition, other requirements related to the use of the software such as the number of users, data update time, data volume – also have a significant impact on the performance of the system, which influences the final architecture scheme.
This module can be used to create predictive models based on data from the Data Warehouse. It is an extension of the Data Mining Module, through machine learning methods, dedicated to the prediction of significant processes within the company. The use of the module can significantly support the decision-making process within the company, but also indicate possible areas where so-called bottlenecks occur.
Aims to optimise current processes by replacing them with new, automated solutions based on Artificial Intelligence (AI) and Machine Learning (ML). Therefore, legacy algorithms, methods and functions (mostly deterministic), can be replaced by a single multidimensional model, compatible with the latest AI infrastructure. In addition, for older algorithms where the source code is not available, the use of this module can replace an old inaccessible model implemented on an IT infrastructure that is no longer supported with a new one, without interfering with the target source code.
Software that supports the quality and consistency of the data retrieved from the source databases as well as from the machines. It is adapted to the database schema but also to the machine communication interface, taking into account customer specific requirements such as: list of supported file formats (e.g. JSON, XML, etc.); data characteristics (number of frames, sampling rate, etc.), format of variables (e.g. double, string, uint8 etc.).
Software that supports the data archiving process in the Data Warehouse. The purpose of archiving is to move (save) parts of the data, considered to be less relevant or outdated, to a dedicated location that is part of the Integrated Data Source. The essence of archiving is to streamline the Integrated Data Source, by removing obsolete data and leaving the current ones, according to the assumed level of data retention. This module also includes the so-called “quick access archives”, i.e. specially adapted space (with fast disk infrastructure), dedicated to designated fragments of archived data, which can be used as a component for the BI class system. The idea behind the “quick access archive” is to provide temporary access (e.g. for a few days) to the data stored on it.
Designed for examining large amounts of data (production, financial, market, etc.) in order to extract patterns and the interdependencies between them, and then analysing the results by comparing the models created with the new data. The module enables the design of a range of company dedicated metrics that make a measurable contribution to the assessment of customer behaviour, sales volumes, etc. This module is fully compatible with the Data Warehouse and can be an additional component of it.
Used to store and maintain data for analysts, R&D directors and board members. It supplements the Data Warehouse with additional secure storage space, perfect for saving projects of BI class systems, but also financial and non-financial reports. Among the very important functions is the version control of saved data through information on file version, date of creation, date of modification and activity of persons.
Software that supports the data archiving process in the Data Lake. The purpose of archiving is to move (save) parts of the data, considered less relevant or outdated, to a dedicated location that is part of the Integrated Data Source. The essence of archiving is to streamline the Integrated Data Source, by removing obsolete data and leaving the current ones, according to the assumed level of data retention.
Provides access to key information at each level of data processing in the Data Warehouse. It is used to monitor the technical status of the Warehouse in order to ensure its maximum level of availability. In the event of a failure of any of the above modules, the system will immediately locate and notify the administrator of the location of the failure and its cause. Its advantage is that it sends notifications of possible incidents, allowing the Warehouse administrator to react immediately without having to be in front of the monitor. Thanks to monitoring at the level of the Communication module of databases and machines, the system administrator will be the first to receive information about failures that have occurred.
Data Warehouse Continuous Monitoring module has the following variants:
Monitoring Dashboard variant – graphical interface of the Data Warehouse Continuous Monitoring module, thanks to which the administrator has a complete view of the system operation at each stage of data processing.
Communication variant (with logic) – communication logic dedicated to the Monitoring Dashboard, optimised for the architecture of the Warehouse. It includes notification classes (e.g. connection to source database, data processing error) as well as severity levels.
Notification variant – is responsible for creating and sending notifications according to the notification logic from the notification component in one of the following ways: to an email address, to the monitoring Dashboard or to an internal communicator (Zoom, Teams, Slack and others)
Software that supports the process of aggregating data that reaches the Integrated Data Source in the Warehouse. Aggregation can refer to simple mathematical operations and also support multidimensional data transformation methods, at the pre-processing level. The module includes Machine Learning (ML) methods and algorithms optimised to transform data “on the fly”, using the Paralell Computing paradigm, as well as Load Balancing.
Supports the use of the Data Lake by providing training in the use of the implemented solution. As part of the training, users (people using the Data Lake) will acquire the necessary knowledge in terms of: authentication, access to data, method of configuration and schema of the Integrated Data Source, communication channels with the service team, etc.
Used to store and maintain data for R&D engineers and R&D directors. A special place for storing data from the Data Lake with additional secure storage space, which is perfect for saving finished AI engines. Among the very important functions is the version control of saved data through information on file version, date of creation, date of modification and activity of persons.
Supports the redundancy of the Data Lake by adding a redundant architecture relating to data protection in the form of backups, but also replication of databases in the event of failure of their source versions. Redundancy is a key element of the system that ensures a high Service Level Agreement (SLA).
Software that supports the quality and consistency of the data retrieved from the source databases as well as from the machines. It is adapted to the database schema but also to the machine communication interface, taking into account customer specific requirements such as: list of supported file formats (e.g. JSON, XML, etc.); data characteristics (number of frames, sampling rate, etc.), format of variables (e.g. double, string, uint8 etc.).
This module can be used to upgrade elements of the production infrastructure to enable them to communicate with a modern server infrastructure. In this way, older industrial infrastructure (machinery, equipment, installations, etc.), can be upgraded by adding a communication layer thus extending its life cycle.
Used to create Artificial Intelligence (AI) engines used to optimise production processes. As part of the module, a feasibility analysis is performed to gain a thorough understanding of the problem and consequently identify so-called bottlenecks. Thanks to the application of the latest Machine Learning (ML) and Numerical Modelling techniques, the module can also be used to create multi-dimensional virtual models in order to identify the optimal parameters of the simulated process. The module also allows augmentation of the collected data, i.e. enrichmentwith additional non-existent combinations, to increase the effectiveness of the AI engines created.
Used to perform three main tasks: from data extraction (E – Extract), through data transfer to the target data store (L – Load) to data transformation (T – Transform) – ELT. It should be noted that here the data is transformed in a different way than in the case of the Data Warehouse, with an emphasis mainly on anonymisation and tokenisation. An example of such an operation could be the transformation of data from sensors, measuring devices, which, in order to be used to create AI engines, should not have sensitive data.
Supports the redundancy of the Data Warehouse by adding a redundant architecture relating to data protection in the form of backups, but also replication of databases in the event of failure of their source versions. Redundancy is a key element of the system that ensures a high Service Level Agreement (SLA).
To dedykowane środowisko rozwoju algorytmów Sztucznej Inteligencji (AI). Dotyczy on zarówno zaawansowanej analizy sygnałów, analizy obrazów jak i danych statystycznych, w zastosowaniu w przemyśle. Moduł ten to idealne narzędzie umożliwiające optymalizację produkcji, tworzenie dedykowanych silników Sztucznej Inteligencji (AI) lub rozwój obecnych rozwiązań o zaawansowane elementy Uczenia Maszynowego (ML).
Składa się z trzech wariantów:
Wariant analiza sygnałów – to dedykowane narzędzia i algorytmy do analizy sygnałów mowy, ultradźwięków lub innych sygnałów przemysłowych. Wspiera on tworzenie inteligentnych silników przetwarzania danych wielowymiarowych, z zastosowaniem najnowszych standardów Uczenia Maszynowego (ML), uwzględniając w tym sieci konwolucyjne, algorytmy ewolucyjne, metody samplingowe, metody augmentacji danych itp.
Wariant analiza obrazów – to zaawansowane narzędzia analizy obrazów w zastosowaniu w przemyśle. Poza automatyczną analizą obrazów wariant dotyczy również automatyzacji śledzenia oraz identyfikacji obiektów poprzez stworzenie dedykowanych silników Sztucznej Inteligencji (AI). Moduł ten idealnie nadaje się do rozwoju algorytmów wykorzystywanych w medycynie, systemach monitoringu oraz kontroli jakości skanowanych obiektów w firmach produkcyjnych. Unikalną wartością modułu jest możliwość augmentacji danych obrazowych, co ma istotny wpływ na wzrost skuteczności silników AI.
Wariant analiza danych – wspiera rozwiązania Data Mining oraz Predictive Analytics do zastosowania w przemyśle. Eksploracja danych, wnioskowanie na danych, wyszukiwanie niezależnych klas danych, predykcja zdarzeń – to jedne z wielu elementów modułu, który idealnie wpisuje się w zrównoważone zarządzanie, wspierając tworzenie wysokiej jakości informacji zarządczej.
Wspiera automatyczny proces tworzenia raportów bazując na danych uzyskanych w Module Automatycznej Identyfikacji Wad. Aby moduł był w pełni funkcjonalny, należy dokonać jego dostosowania poprzez wprowadzenie odpowiedniego szablonu, który będzie modelem w procesie generowania raportu automatycznego do najbardziej popularnych formatów *.pdf, *.xlsx oraz *.docx. Moduł ten ma zastosowanie w zrównoważonym zarządzaniu infrastrukturą przedsiębiorstwa poprzez automatyzację procesu oraz ograniczenie ingerencji ludzkiej w zawartość merytoryczną raportów
To oprogramowanie zawierające silnik Sztucznej Inteligencji (AI), który po wytrenowaniu, w sposób automatyczny dokonuje identyfikacji potencjalnych wad diagnozowanego obiektu. W zależności od rodzaju oraz stopnia uszkodzenia, oprócz bezpośredniego wyniku zidentyfikowanej wady, silnik zwraca także informację na temat pewności podjętej decyzji (ang. Confidence Level). Sam proces trenowania (optymalizacji silnika) uwzględnia fizykę problemu oraz kluczowe wymagania i ograniczenia obiektu zdefiniowane przez klienta.
To oprogramowanie służące do automatycznego wstępnego przetwarzania danych z urządzeń diagnostycznych (lub baz danych). Jego zaletą jest elastyczność, ponieważ moduł ten można optymalizować do indywidualnych formatów danych, które produkuje urządzenie diagnostyczne. Aby uzyskać ostateczną decyzję z urządzenia diagnostycznego, dane muszą zostać usystematyzowane do spójnych formatów wymaganych w dalszych etapach przetwarzania danych.
Bazuje na modelowaniu numerycznym, kluczowym w rozwiązywaniu skomplikowanych i niestandardowych problemów. Moduł umożliwia tworzenie dedykowanych modeli z użyciem Metody Elementów Skończonych (FEM) oraz przebudowę obecnych modeli numerycznych. Dodatkowo, pakiet wspiera Teorię Planowania Eksperymentu (ang. Design of Experiment – DoE), zaawansowane techniki optymalizacji modeli, a także analizy czasowe.
Składa się z dwóch wariantów:
Wariant FEM (analizy statyczne i dynamiczne) – to wsparcie modelowania numerycznego przy użyciu Metody Elementów Skończonych (ang. Finite Element Method – FEM), które uwzględniają zarówno analizy statyczne jak i dynamiczne. Moduł ten jest idealnym rozwiązaniem w procesie odwzorowywania rzeczywistego obiektu lub procesu w warunkach numerycznych, w celu identyfikacji parametrów wejściowych, ale także powiększania zbioru danych treningowych o dane symulacyjne. Narzędzia planowania eksperymentu (DoE) oraz algorytmów Uczenia Maszynowego (ML) umożliwiają budowanie precyzyjnych modeli oraz tworzenie reprezentatywnych zbiorów danych treningowych.
Wariant Symulacje Numeryczne – wspiera przeprowadzanie symulacji numerycznych w środowiskach bazujących na Metodzie Elementów Skończonych (ang. FEM), ale również opartych na analizie sygnałów i obrazów. Dzięki zaawansowanym narzędziom opartym na Sztucznej Inteligencji (AI), moduł ten umożliwia dobór optymalnych parametrów procesu, obiektu oraz narzędzi produkcyjnych. Jest idealnym rozwiązaniem do przeprowadzania Proof of Concept dla skomplikowanych zagadnień związanych z przemysłem.
Służy do integracji wszystkich danych mogących mieć istotne znaczenie w procesie wyodrębniania rutyn. Mogą to być dane sensoryczne, dane z urządzeń lub baz danych, które jednoznacznie wskazują na aktywności systemów lub użytkowników i posłużą do trenowania silników Sztucznej Inteligencji (AI). Dane mogą być zapisywane w postaci Jeziora Danych lub Hurtowni Danych, ale także ich dedykowanej kombinacji.
To wsparcie w zakresie projektowania, planowania i rozbudowy algorytmów Uczenia Maszynowego (ML) i Sztucznej Inteligencji (AI) dostosowanych do potrzeb Klienta oraz specyfiki zagadnienia. Doradztwo dotyczy zarówno oceny zastosowania potencjalnego algorytmu, ale także wsparcia w przeprowadzeniu Proof of Concept lub Studium Wykonalności, mających na celu wskazanie potencjalnych możliwości rozwoju poprzez wykorzystanie Sztucznej Inteligencji (AI). Moduł ten idealnie nadaje się do weryfikacji możliwości rozwojowych już istniejących rozwiązań, poprzez ich unowocześnienie oraz przedłużenie cyklu życia.
To wsparcie nowoczesnego podejścia w budowaniu rozwiązań opartych na Sztucznej Inteligencji (AI). Istotą modułu jest nowatorska metoda pozyskiwania danych oparta na łączeniu wstępnie estymowanych modeli rozproszonych w wielu lokalizacjach (np. wielu oddziałach firmy) w jeden główny, bez konieczności dostępu do danych źródłowych. Podejście to jest szczególnie przydatne w sytuacjach w których, często z powodów obostrzeń, ograniczony jest dostęp do danych źródłowych. Rozwiązanie wspiera także zaawansowane metody zabezpieczenia danych (Security), poprzez agregację informacji w sub-model, bez możliwości transformacji wstecznej.
To profesjonalne wsparcie w projektach badawczo-rozwojowych poprzez realizację zaplanowanych zadań. Wsparcie polega na wykonywaniu prac badawczo-rozwojowych uwzględniających implementację algorytmów w środowisku cloud oraz on-premises, tworzeniu raportów końcowych, przeprowadzaniu Proof of Concept, ale także zarządzaniu pracami zespołu R&D.
Szkolenie ma na celu podniesienie świadomości w zakresie korzyści wynikających z zastosowania algorytmów Sztucznej Inteligencji (AI). Dodatkowym elementem szkolenia jest przekazanie informacji na temat najnowszych trendów, możliwości jakie daje AI oraz samego sposobu realizacji projektu, w zakresie tworzenia nowego produktu lub rozwoju obecnego, podnoszenia gotowości wdrożeniowej konkretnego rozwiązania (TRL) czy też przeprowadzania Studium Wykonalności oraz Proof of Concept (PoC).
Wspiera optymalizację procesów przemysłowych, poprzez mapowanie procesów z uwzględnieniem odwzorowania faktycznego przepływu informacji modelowanej linii produkcyjnej w model wirtualny. Następnie z użyciem silników Sztucznej Inteligencji (AI), w szczególności ze wsparciem algorytmów ewolucyjnych, następuje iteracyjny dobór optymalnych parametrów procesu (na każdym etapie przepływu informacji), z oszacowaniem otrzymanego uzysku. Moduł ten wpływa na obniżenie kosztów, a także na ustabilizowanie procesów przemysłowych.
To oprogramowanie monitorujące zasoby i procesy Systemu BFT Diagnostics w celu wsparcia niezawodnego działania systemu zarówno w wersji API oraz wersji z Dashboardem. Ma on m.in. za zadanie umożliwiać zarządzanie kontami użytkowników czy zarządzanie autoryzacją nowych urządzeń diagnostycznych.
Zawiera usługę utrzymania systemu oraz jego serwisu, poprzez dokonywanie aktualizacji odpowiednich jego modułów, sprawdzanie poprawności danych, aktualizację silników obliczeniowych i wsparcie w przypadku awarii.
To wsparcie zdarzeń, które nie zostały odpowiednio zidentyfikowane przez oprogramowanie wbudowane w rejestratorze obrazu i dźwięku. Moduł ten umożliwia wytrenowanie własnego silnika AI, który uzupełnia system o identyfikację złożonych (niestandardowych) przypadków naruszeń obszarów monitorowanych.
To dodatkowe wsparcie dla produktu BFT Diagnostics poprzez wykorzystanie kanału komunikacji zwrotnej do urządzeń diagnostyki, dzięki któremu można dokonywać zdalnie ich serwisowania. Funkcjonalność ta pozwala na aktualizację oprogramowania wbudowanego (firmware) w urządzeniu diagnostycznym, podłączonym do systemu BFT Diagnostics.
To wsparcie w zakresie projektowania, planowania i rozbudowy systemów diagnostyki dostosowanych do potrzeb i specyfiki obiektów. Doradztwo dotyczy oceny zastosowania potencjalnego systemu diagnostyki oraz wsparcia w przeprowadzeniu Proof of Concept lub Studium Wykonalności, mającym na celu integrację obecnych zasobów (systemów lub urządzeń) z produktem BFT Diagnostics.
Posiada możliwość modyfikacji pod specyficzne potrzeby obszaru nadzorowanego, a także wytyczne Klienta. Jest on stworzony zgodnie z najnowszymi standardami UX/UI. Jego unikalną funkcjonalnością są karty szybkiego dostępu Favourites, którymi w pełni może zarządzać użytkownik systemu. Funkcjonalność ta połączona jest z mobilną wersja systemu w taki sposób, że użytkownik tworząc karty Favourites sam dostosowuje wygląd swojej aplikacji mobilnej.
Dashboard umożliwia zdalny nadzór nad obszarami monitorowanymi w czasie rzeczywistym. Posiada następujące sekcje:
Jest usprawnieniem zarządzania wieloma obszarami monitorowanymi w postaci integracji wszystkich zasobów wykorzystanych do nadzorowania obiektów (kamery, konta klienckie, notyfikacje itd.). Moduł ten jest w pełni kompatybilny z Dashboardem systemu i pozwala na bezpieczny dostęp do wielu miejsc w tym samym czasie, bez konieczności korzystania z osobnych systemów, obsługujących każdy obszar z osobna.
To oprogramowanie, które na podstawie danych z monitorowanych obszarów wyodrębnia potencjalne rutyny, które następnie rekomendowane są do oceny użytkownika systemu. W tej sytuacji użytkownik może zakwalifikować daną rutynę jako zdarzenie podejrzane, co następnie zostanie wykorzystane także do dotrenowania się silnika o tą informację w trybie automatycznym. Zastosowanie modułu wspomaga działania prewencyjne, dzięki czemu istnieje możliwość przeprowadzenia działań zaradczych, wyprzedzających działania niepożądane.
To oprogramowanie służące do magazynowania informacji przesyłanych z rejestratorów obrazu i dźwięku (kamer, czujników, sensorów). Jego rolą jest automatyczne uporządkowanie danych takich jak obraz, dźwięk, pomiary, informacje o zdarzeniach w celu zapisu ich w odpowiednich miejscach systemu (z wolnym lub szybkim dostępem).
Wspiera korzystanie z systemu diagnostyki poprzez przeprowadzenie szkoleń z zakresu użytkowania wdrożonego rozwiązania. W ramach szkolenia, użytkownicy zdobędą niezbędną wiedzę o sposobach autentykacji do serwisu, dostępie do danych, nawigacji Dashboard, kanałów komunikacji z zespołem serwisowym, korzystania z wersji API. Moduł ten jest idealną pomocą w bezpiecznym i sprawnym korzystaniu z systemu BFT Diagnostics.
Umożliwia rozszerzenie produktu BFT Diagnostics o funkcję przechowywania danych w specjalnie do tego przeznaczonych miejscach takich jak Jezioro Danych. Jezioro Danych jest produktem z obszaru Data Engineering i umożliwia magazynowanie danych w sposób bezpieczny i zintegrowany zarówno w przypadku danych surowych (pobranych z urządzeń), ale także wygenerowanych raportów. Moduł ten jest szczególnie przydatny do obsługi danych z wielu urządzeń diagnostycznych różnego typu, znajdujących się w wielu lokalizacjach w tym samym czasie. W takim przypadku, pomocnym jest zastosowanie modułu Dashboard Raportowy, co znacznie upraszcza zarządzanie dużą ilością danych.
Umożliwia tworzenie rozproszonej infrastruktury obliczeniowej poprzez wdrażanie zrównoleglania obliczeń: pionowe (Parallel Computing) oraz poziome (Load Balancing). Moduł uwzględnia także tworzenie rozbudowanych łańcuchów analiz wspierających asynchroniczność obliczeń. Dla zaawansowanych obliczeń numerycznych moduł dostarcza możliwość korzystania z usługi procesu roboczego (ang. workers), bazującej na obiektach w postaci kontenerów.
Służy do tworzenia dedykowanych silników opartych na Sztucznej Inteligencji (AI) oraz Uczeniu Maszynowym (ML), w zastosowaniu do systemów diagnostyki obiektów. Moduł ten ma zastosowanie do automatyzacji obecnych rozwiązań, łączenia wielu silników i podprocesów w jeden oraz budowania innowacyjnych silników obliczeniowych w przestrzeni wielowymiarowej.
Służy do przebudowania aktualnych aplikacji typu standalone, a także w postaci serwisów działających na infrastrukturze serwerowej zamkniętej (on-premises) do oprogramowania jako produktu w chmurze (ang. Product as a Service – PaaS). Moduł ten uwzględnia także zabezpieczenia aplikacji chmurowej pod względem security.
Odpowiedzialny za bezpieczny dostęp do systemu, wspierający standardy ISO takie jak: bezpieczny format haseł, wielostopniową autentykację itp. Moduł ten posiada także zaawansowaną warstwę autoryzacji, realizującą zdefiniowany dostęp do zasobów systemu oraz aktywności użytkowników na podstawie ról.
To interfejs użytkownika, umożliwiający zdalny dostęp do danych w bezpieczny sposób. Interaktywny Dashboard ułatwia użytkownikowi pobieranie już wygenerowanych raportów oraz zarządzanie danymi źródłowymi.
Dashboard posiada następujące funkcjonalności:
Dashboard jest modułem wspierającym optymalne zarządzanie danymi diagnostycznymi w koncepcji IoT. Umożliwia on dodatkowo edycję danych na poziomie generowania raportu, co nie jest możliwe w wersji API. Moduł ten spełnia najnowsze standardy UX/UI, dzięki czemu rozszerza produkt BFT Diagnostics o dodatkowe funkcjonalności, takie jak: magazynowanie danych, interaktywna obsługa danych źródłowych, edycja raportów, obsługa błędów.
Służy do integracji wszystkich danych mogących mieć istotne znaczenie w procesie wyodrębniania rutyn. Mogą to być dane sensoryczne, dane z urządzeń lub baz danych, które jednoznacznie wskazują na aktywności systemów lub użytkowników i posłużą do trenowania silników Sztucznej Inteligencji (AI). Dane mogą być zapisywane w postaci Jeziora Danych lub Hurtowni Danych, ale także ich dedykowanej kombinacji.
This page is using with cookies for providing a high-quality service. Further webpage using means that you approve their usage.