SPIS TREŚCI


Przemysł 4.0

IX Filarów Przemysłu 4.0


















[Jest nas już ( 155 ) zainteresowanych]



Przemysł 4.0


Przemysł 4.0: kolejna granica i jej wpływ technologiczny, rola globalnej normalizacji i zrównoważonego rozwoju

Czwarta rewolucja przemysłowa lub Przemysł 4.0 obejmuje branże oparte na produkcji, łączące zaawansowane techniki produkcji z transformacją cyfrową, napędzane przez technologie połączone w celu stworzenia inteligentnych systemów produkcyjnych, które nie tylko są ze sobą połączone, ale także mają zdolność komunikowania się, analizowania, prognozowania i wykorzystywania te informacje w celu prowadzenia dalszych inteligentnych działań. Nowe modele biznesowe i technologie, takie jak internet rzeczy (IoT), big data, sztuczna inteligencja (AI) (dokładna diagnoza w systemach opieki zdrowotnej, analiza danych rynkowych i finansowych, autonomiczne samochody itp.) oraz produkcja addytywna (lotnictwo i produkcja komponentów motoryzacyjnych, biokompatybilne materiały do niestandardowych implantów, urządzenia ratujące życie w sektorze medycznym, wydajna i przyjazna dla środowiska produkcja komponentów dla sektora energetycznego i energetycznego itp.) napędzają zmiany obecnych modeli biznesowych oraz zmiany globalnej ekonomii i struktur rynkowych. Według McKinsey, Industry 4.0: Reinvigorating ASEANManufacturing for the Future, Industry 4.0 ma przynieść globalnie od 1,2 do 3,7 bln USD zysków. Z tego Stowarzyszenie Narodów Azji Południowo-Wschodniej (ASEAN), którego gospodarki członkowskie spośród 10 krajów mają znaczące gospodarki oparte na produkcji, ma potencjał do wykorzystania dużych możliwości i wzrostu wydajności o wartości od 216 do 627 mld USD.

Globalna standaryzacja w Przemyśle 4.0

Przemysł 4.0 otwiera drzwi do łączności, innowacyjności i siły ekonomicznej, pozwalając firmom być bardziej elastycznym, wydajnym i oszczędzającym zasoby . Kluczowym składnikiem tej cyfrowej rewolucji są dane. Wydajne wykorzystanie przetwarzania surowych danych w znaczące informacje jest niezbędnym czynnikiem umożliwiającym przyszłe biznesy. Aby nadążyć za postępem Przemysłu 4.0 i przejściem do tej nowej ery, sektor produkcyjny musi na przykład przejść transformację cyfrową z wbudowanymi czujnikami w sprzęcie produkcyjnym i komponentach produktów, automatyzacją, wszechobecnymi systemami cyberfizycznymi i analizą wszystkich odpowiednie dane i informacje. Transformacje te są napędzane przez cztery główne klastry przełomowych technologii i czynników, a mianowicie dane, moc obliczeniowa i łączność; analityka i sztuczna inteligencja; interakcja człowiek-maszyna zarządzana przez interfejsy dotykowe i rzeczywistość rozszerzoną (AR) oraz konwersję cyfrowo-fizyczną, w której pojawia się zaawansowana robotyka i druk 3D . Tymczasem sektor energetyczny musi skoncentrować się na nadchodzących technologiach energetycznych, standaryzacji technologii wysokiego poziomu i szybkich prędkości z fuzją i konwergencją technologii informacyjno-komunikacyjnych (ICT), inteligentnymi i inteligentnymi sieciami energetycznymi, systemami magazynowania energii, dużymi danymi, sztuczną inteligencją i cyberbezpieczeństwo. Sektor energetyczny jest infrastrukturą krytyczną. Dlatego niezbędne jest zapewnienie sprawnego i ciągłego zasilania.

Szerokie zastosowanie nowych i zaawansowanych technologii wymaga inteligentnego systemu integracji, który można osiągnąć tylko wtedy, gdy odpowiednie technologie, interfejsy, ramy i formaty są zgodne z ogólnie przyjętymi standardami. Warunkiem interoperacyjności w środowisku Przemysłu 4.0 są międzynarodowe i akceptowane normy i standardy. Dlatego Przemysł 4.0 i standaryzacja muszą iść w parze.

Przemysł 4.0 wiąże się z globalną transformacją gospodarczą. Dlatego też krajowe działania normalizacyjne muszą być zharmonizowane z poziomem międzynarodowym, aby skoncentrować się na określeniu mechanizmów współpracy międzynarodowej i współpracy oraz wymiany informacji. Skupienie się na Przemyśle 4.0 wymaga skoordynowanych i skoordynowanych działań wszystkich odpowiednich interesariuszy oraz ministerstw i agencji rządowych, aby poprowadzić krajową transformację do Przemysłu 4.0 poprzez finansowanie i zachęty, talenty i kapitał ludzki, technologię i standardy oraz infrastrukturę cyfrową i ekosystem.

Technologiczny wpływ Przemysłu 4.0

Zbliżające się pojawienie się technologii bezprzewodowej 5G lub piątej generacji oferuje błyskawiczną prędkość, wyjątkowo niezawodne połączenia, niskie opóźnienia i jednocześnie umożliwia ogromną łączność. Oczekuje się, że sieci 5G doładują ekosystem IoT, zapewniając infrastrukturę sieciową niezbędną do przenoszenia ogromnej ilości danych i zaspokajając potrzeby komunikacyjne miliardów urządzeń podłączonych do IoT. Ta bezprzewodowa technologia otwiera szereg nowych możliwości, takich jak robotyka i systemy autonomiczne, technologie chmurowe, zdalna chirurgia i zdalne aplikacje medyczne, AR i pojazdy autonomiczne. Komitet techniczny (TC) 106 Międzynarodowej Komisji Elektrotechnicznej (IEC) otrzymał zadanie opracowania standardów testowania bezpieczeństwa dla urządzeń mobilnych, stacji bazowych i systemów komunikacji bezprzewodowej w celu wsparcia wdrażania i rozwoju sieci 5G. IoT to system powiązanych ze sobą urządzeń komputerowych, maszyn mechanicznych i cyfrowych, obiektów osadzonych w czujnikach, oprogramowania i technologii w celu łączenia i wymiany danych z innymi urządzeniami i systemami przez Internet. Te urządzenia połączone z Internetem Rzeczy obejmują zarówno przedmioty gospodarstwa domowego, takie jak urządzenia kuchenne i elektroniczne nianie, jak i zaawansowane narzędzia przemysłowe, takie jak inteligentne sieci energetyczne, inteligentna produkcja, połączona i inteligentna logistyka oraz konserwacja zapobiegawcza i predykcyjna. Firmy będą wdrażać tysiące lub miliony przewodowych i bezprzewodowych czujników, które wytwarzają duże ilości nieprzetworzonych danych, które są przekształcane w przydatne informacje zapewniające wartość dla użytkownika. Według IEC, roli IEC w IoT, szacuje się, że do 2020 r. zostanie połączonych 50 miliardów obiektów. ISO/IEC JTC 1/SC 41 zapewnia standaryzację w obszarze IoT i powiązanych technologii, w tym sieci czujników i technologii ubieralnych aby zapewnić, że połączone systemy są płynne, bezpieczne i odporne. Robotyka i systemy autonomiczne to obszary, które stale rozwijają się w branży rynkowej na całym świecie. Ze względu na nieograniczone możliwości przechowywania informacji, wraz z wdrażaniem sztucznej inteligencji i ulepszonymi interakcjami człowiek-komputer, robotyka i systemy autonomiczne są odczuwalne we wszystkich dziedzinach i mają niezliczone zastosowania. Technologie chmury są częścią czynnika umożliwiającego przełomowe innowacje, które integrują usługi i demokratyzują dostęp do informacji, uczenia się i komunikacji. Big data i analityka zostały uznane na całym świecie za towary cenniejsze niż ropa, ponieważ dane królują w dzisiejszej gospodarce cyfrowej. Dzisiejsze możliwości gromadzenia i przechowywania ogromnej ilości danych, szybsze i inteligentniejsze analizowanie danych, big data i analityka umożliwiają przekształcenie danych historycznych i danych czasu rzeczywistego w cenne informacje umożliwiające zrozumienie, produkcję, sprzedaż, przewidywanie i tak dalej. AR to integracja informacji cyfrowych ze środowiskiem użytkownika w czasie rzeczywistym, zapewniając interaktywne, oparte na rzeczywistości środowisko wyświetlania, które tworzy pomost między wirtualną rzeczywistością a danymi. Zastosowania AR są nieograniczone. Branże przyjmują technologie AR, aby umożliwić wirtualną produkcję, w której inżynierowie mogą projektować i oceniać nowe części do zastosowań przemysłowych w środowisku 3D; specjalistyczne i rozszerzone szkolenia i symulacje; inteligentne funkcje sterowania i konserwacji oraz wiele innych. Blockchain to zdecentralizowana baza danych, która jest zaszyfrowana, niezmienna, obopólna, weryfikowalna, przejrzysta i trwała. Istnieje niezliczona ilość potencjalnych zastosowań technologii blockchain, a jednym z nich jest "Bitcoin". W branży logistycznej blockchain jest używany do ustanawiania zaufanych informacji, takich jak: gdzie produkt został wyprodukowany, kiedy produkt został wyprodukowany, kiedy produkt został wysłany, gdzie produkt się znajduje i kiedy produkt dotrze. Technologia Blockchain została również wdrożona w sektorze energetycznym, takim jak handel energią odnawialną (RE) typu peer-to-peer (P2P) oraz infrastruktura ładowania pojazdów elektrycznych. Grupa robocza ISO/IEC JTC 1/SC 27 (WG) nadzoruje standardy rozwoju technologii blockchain i rozproszonej księgi rachunkowej. Główne filary lub napędy technologiczne Przemysłu 4.0 obejmują autonomię i sztuczną inteligencję, w których procesy produkcyjne lub produkcyjne będą coraz bardziej zdigitalizowane i połączone ze sobą cyberfizycznymi systemami. Uznanie branży i szerokie zastosowanie sztucznej inteligencji i automatyzacji na nowo zdefiniują sposób działania firm i branż. W związku z tym oczekuje się, że sztuczna inteligencja będzie jednym z najważniejszych czynników wspomagających i cyfrowej granicy w ewolucji technologii informacyjnej (IT). AI to nie tylko pojedyncza technologia, ale także różnorodne technologie oprogramowania i sprzętu wykorzystywane w aplikacjach. Sztuczna inteligencja jest ogólnie rozumiana jako odnosząca się do maszyny, która ma zdolność replikowania ludzkich funkcji poznawczych w celu uczenia się i rozwiązywania problemów. Komponenty sztucznej inteligencji, takie jak sieci neuronowe, przetwarzanie języka naturalnego, biometria, rozpoznawanie twarzy, rozpoznawanie gestów, miniboty i analityka wideo umożliwiają cyfrową transformację. Niedawny artykuł Forbesa "Sztuczna inteligencja pokona szum szumu oszałamiającym wzrostem" sugeruje, że inwestycje w sztuczną inteligencję rosną bardzo szybko. Firma ze Stamford w stanie Connecticut stwierdziła, że wdrożenia sztucznej inteligencji wzrosły o 37% w 2018 r. i 270% w ciągu ostatnich 4 lat. IDC Corp., międzynarodowa firma inwestycyjna, prognozuje, że wydatki na systemy kognitywne i sztucznej inteligencji wyniosą 77,6 mld USD do 2022 r. i zauważa, że 60% światowego PKB powinno zostać zdigitalizowane do 2022 r., co przyniesie prawie 7 bilionów USD wydatków na IT. Obecnie wszystkie sektory w dużym stopniu polegają na sztucznej inteligencji, od finansów, produkcji i robotyki po opiekę zdrowotną, transport, sprzęt AGD, a nawet smartfony, które nosimy wszędzie! Sztuczna inteligencja ewoluuje i rozszerza się znacznie szybciej, niż kiedykolwiek sobie wyobrażaliśmy. Dlatego ważne jest, aby standaryzacja technologii sztucznej inteligencji była potrzebna do osiągnięcia i przyspieszenia globalnego przyjęcia i transformacji cyfrowej.

Jakie decyzje moralne powinny być wykonane przez sztuczną inteligencję w autonomicznych samochodach w sytuacjach życia i śmierci? Na przykład, jeśli nagle zawodzą hamulce, czy samochód powinien skręcić w lewo i prawdopodobnie spowodować śmierć jednego człowieka, czy też powinien skręcić w prawo i spowodować obrażenia u 20 osób? Systemy sztucznej inteligencji muszą być przejrzyste, aby umożliwić użytkownikom zrozumienie, w jaki sposób podejmowane są decyzje związane z SI. Kluczowymi barierami we wdrażaniu sztucznej inteligencji są wiarygodność i względy etyczne systemu, ponieważ ludzie ufają maszynom. Ekosystem sztucznej inteligencji można podzielić na trzy kluczowe obszary obejmujące względy techniczne, społeczne i etyczne. Kwestia techniczna obejmuje podstawowe standardy i metody obliczeniowe, techniki, architektury i charakterystyki systemów sztucznej inteligencji. Względy społeczne i etyczne dotyczą tego, w jaki sposób przyjęcie sztucznej inteligencji wpływa i wpływa na życie ludzkie na siłę roboczą, prywatność, podsłuchiwanie, stronniczość algorytmiczną i bezpieczeństwo. IEC rozpoczęła opracowywanie norm inteligentnej produkcji z Międzynarodową Organizacją Normalizacyjną (ISO), takich jak udział wspólnego komitetu technicznego, ISO/IEC JTC 1 - środowisko opracowywania norm dla ICT w celu utworzenia grup roboczych w celu zbadania harmonizacji istniejących odniesień modeli i nadzoruje rozwój podstawowej architektury dla inteligentnej produkcji. Wspólny komitet techniczny IEC i ISO ds. sztucznej inteligencji, ISO/IEC JTC 1/SC 42, został powołany w celu opracowania międzynarodowych standardów obejmujących obszary obejmujące sztuczną inteligencję, duże zbiory danych, przypadki użycia, implikacje zarządzania, podejścia obliczeniowe sztucznej inteligencji oraz kwestie etyczne i społeczne. obawy. Grupy oceny standaryzacji IEC (SEG) są tworzone w celu identyfikacji nowych obszarów technicznych i przewidywania pojawiających się rynków lub technologii, takich jak inteligentna produkcja, technologie komunikacyjne i inteligentne systemy domu/biura. IEC SEG 10 - Etyka w zastosowaniach autonomicznych i sztucznej inteligencji - ma na celu ocenę prac obejmujących szeroki obszar nowych technologii w celu identyfikacji problemów etycznych i problemów społecznych w całej swojej pracy oraz współpracy z szerszymi komisjami technicznymi w ramach IEC opracowanie szeroko stosowanych wytycznych dla komitetów IEC dotyczących aspektów etycznych związanych z zastosowaniami autonomicznymi i sztuczną inteligencją. Stowarzyszenie Normalizacyjne Instytutu Inżynierów Elektryków i Elektroników (IEEE) (SA) pracowało nad projektami, które koncentrują się na dobrostanie człowieka w tworzeniu autonomicznych i inteligentnych technologii. IEEE-SA wydało wytyczne etyczne dla automatyzacji i inteligentnych systemów, zatytułowane "Ethically Aligned Design (EAD)". Niniejsze wytyczne skupiają się na ogólnych zasadach i zaleceniach dotyczących etycznego wdrażania autonomicznych i inteligentnych systemów, które są ujęte w ośmiu ogólnych zasadach: prawa człowieka, dobrostan, agencja danych, skuteczność, przejrzystość, odpowiedzialność, świadomość nadużyć i kompetencje. Sztuczna inteligencja pomaga usprawnić wydajność firm zajmujących się inteligentną produkcją, ponieważ może zapewnić wgląd w to, gdzie można wprowadzić ulepszenia i, co ważniejsze, gdzie firmy mogą pójść dalej w zakresie planowania produkcji. Standaryzacja ma kluczowe znaczenie dla Przemysłu 4.0, który wymaga bezprecedensowego stopnia integracji systemu ponad granicami domen, granicami hierarchicznymi i fazami cyklu życia. Międzynarodowe organizacje zajmujące się opracowywaniem standardów odgrywają kluczową rolę w przejściu na Przemysł 4.0. Centra danych są podstawą Przemysłu 4.0, ponieważ torują drogę aplikacjom Przemysłu 4.0. Ponieważ przetwarzanie w chmurze i ekosystemy wciąż stają się jedną z kluczowych strategii cyfrowej transformacji, hiperskalowe centra danych zwiększają swoją pojemność, aby sprostać wykładniczemu wzrostowi ilości danych. Centra danych są obecnie domem dla silników AI, rozległych ekosystemów chmurowych, technologii blockchain, zaawansowanych architektur łączności, wysokowydajnych platform obliczeniowych i wielu innych. ISO/IEC JTC 1/SC 38 służy jako jednostka skupiająca, proponująca i integrująca systemy w chmurze obliczeniowej i platformach rozproszonych. Aby przygotować się na kolejną granicę transformacji cyfrowej, centra danych muszą wdrożyć zaawansowaną infrastrukturę sieciową, aby ich sieci były szybsze, bardziej elastyczne, solidniejsze i bardziej niezawodne oraz bardziej odporne i bezpieczne. Centra danych o dużej skali są dużymi konsumentami energii elektrycznej. Niezbędne jest uczynienie centrów danych bardziej energooszczędnymi i mniej energochłonnymi, aby walczyć z rosnącą globalną emisją dwutlenku węgla. Norma ISO/IEC JTC 1/SC 39 została ustanowiona w celu opracowania nowej metryki, która mierzy i porównuje wydajność energetyczną i trwałość centrów danych. Aby to uchwycić, globalna standaryzacja wnosi istotny wkład w zapewnienie płynnej ekspansji transformacji cyfrowej i Przemysłu 4.0 oraz umożliwia łączenie i współdziałanie systemów różnych producentów bez potrzeby specjalnych wysiłków integracyjnych, a także łagodzenie zmian klimatycznych i ograniczanie globalnego poziomu emisji dwutlenku węgla. emisji, które są zgodne z celami zrównoważonego rozwoju Organizacji Narodów Zjednoczonych (ONZ)

Przemysł 4.0 i zrównoważony rozwój

Państwa członkowskie ONZ przyjęły agendę 2030 na rzecz zrównoważonego rozwoju, która stanowi wspólny plan dla pokoju i dobrobytu, obejmujący 17 celów zrównoważonego rozwoju, w ramach których wszystkie kraje rozwinięte i rozwijające się będą współpracować ze strategiami na rzecz poprawy zdrowia i edukacji, pobudzenia wzrostu gospodarczego, zmniejszenia nierówności , przeciwdziałanie zmianom klimatu i ochrona naszego środowiska.Badanie przeprowadzone przez Organizację Narodów Zjednoczonych ds. Rozwoju Przemysłowego (UNIDO) i partnerów wykazało, że Przemysł 4.0 może sprostać globalnym wyzwaniom dzięki zwiększonemu wykorzystaniu technologii informacyjnych i komunikacyjnych, ale ostrzega, że jego ograniczenia i zagrożenia dla zrównoważonego rozwoju muszą być lepiej zrozumiane. Zasada przewodnia Przemysłu 4.0 koncentruje się na zwiększeniu wydajności, wzrostu przychodów i konkurencyjności oraz musi przezwyciężyć wyzwania związane ze standaryzacją systemów, platform, protokołów, zmianami w organizacji pracy, cyberbezpieczeństwem, dostępnością i jakością wykwalifikowanych pracowników, badaniami i inwestycjami oraz przyjęciem odpowiednich ram prawnych, aby odnieść sukces. Przemysł 4.0 musi radzić sobie z produkcją w ramach ograniczeń środowiskowych, aby napędzać zrównoważony rozwój. Tempo eksploatacji zasobów naturalnych nie może przekraczać tempa regeneracji; wyczerpywanie się zasobów nieodnawialnych musi wymagać porównywalnych alternatyw i tak dalej. Rosnący trend zapotrzebowania na energię wynikający z postępu transformacji cyfrowej wymaga pilnego przyjęcia niskoemisyjnych systemów energetycznych. SDG 7 promuje niedrogą i czystą energię. Energia odnawialna i efektywność energetyczna to dwa główne elementy systemów zrównoważonej energii. SDG 7 ma na celu zwiększenie udziału odnawialnych źródeł energii w globalnym miksie energetycznym i znaczne podwojenie globalnego tempa poprawy efektywności energetycznej. Połączenie Przemysłu 4.0 i zrównoważonej energii kierowanej przez cele zrównoważonego rozwoju poprzez transformację sektora energetycznego z transformacją cyfrową znacząco zmieni sposób, w jaki ludzie żyją, konsumują, produkują i handlują. Rozwój technologii ICT, sieci 5G i technologii blockchain otwiera nowe możliwości i zapewnia rozwiązania integrujące odnawialne źródła energii, od wiatru po energię słoneczną, do małych i dużych sieci energetycznych. Technologie cyfrowe zapewniają możliwość monitorowania i efektywnego zarządzania wytwarzaniem, dostawą i zużyciem energii w celu zaspokojenia różnych wymagań użytkowników końcowych. Przemysł 4.0 ma również możliwość wspomagania sektora produkcyjnego w oszczędzaniu energii poprzez przekształcanie procesów biznesowych. Niektóre z podejść, takie jak magazynowanie energii, oferują korzyści związane z bezpieczeństwem dostaw, elastycznością sieci i redukcją obciążeń szczytowych oraz optymalizacją określonej technologii, w której zachowanie dużej liczby połączonych ze sobą robotów jest kontrolowane przez algorytm w celu zmniejszenia ich zużycia energii. Cel zrównoważonego rozwoju nr 9 promuje przemysł, innowacje i infrastrukturę poprzez budowanie silnej infrastruktury, promowanie inkluzywnej i zrównoważonej industrializacji oraz wspieranie innowacji. Wdrożenie technologii 5G i rozwój Internetu Rzeczy pobudzą wzrost inwestycji w infrastrukturę ICT i pojawienie się nowych innowacyjnych podejść. Strategiczna polityka przemysłowa zapewnia podstawową infrastrukturę niezbędną do wspierania innowacji. Bezrobocie jest również najczęściej omawianym zagrożeniem, ponieważ coraz powszechniejsze stosowanie robotyki i systemów automatyzacji zastępuje miejsca pracy, które w przeszłości były motorem produkcji. Jednak to samo portfolio technologii oferuje również możliwość tworzenia nowych miejsc pracy dla wykwalifikowanych pracowników, a integracja inteligencji w maszynach produkcyjnych przyczynia się do zrównoważonego uprzemysłowienia. Przyjęcie Przemysłu 4.0 wymaga od nas przezwyciężenia nie tylko barier technologicznych, ale także, co ważniejsze, barier psychologiczno-ludzkich, które określają sposoby, w jakie ludzie wchodzą w interakcje i wykorzystują te technologie cyfrowe. Obecnie technologie cyfrowe są coraz bardziej humanizowane wraz z dojrzewaniem takich elementów, jak rzeczywistość wirtualna i rzeczywistość rozszerzona. W związku z tym firmy muszą zintensyfikować swoje wysiłki związane z transformacją cyfrową poprzez podejście skoncentrowane na człowieku, aby przejść do pomyślnego wdrożenia.

Rewolucja przemysłowa 4.0 - big data i analityka big data dla inteligentnej produkcji
Inteligentna produkcja i system cyber-fizyczny


Producenci na całym świecie konkurują na globalnym i dynamicznym rynku wymagającym produktów o najwyższej jakości i najniższej cenie. Pod dalszym wpływem czasu do wprowadzenia na rynek i innowacyjności, procesy produkcyjne były stopniowo przesuwane w kierunku swoich granic granicznych, a wywołując znaczną niepewność produkcji, jeśli nie jest kontrolowana, może skutkować katastrofalną awarią. Ten scenariusz wskazuje na znaczenie dostosowania inteligentnych rozwiązań w produkcji w celu efektywnego i wydajnego zarządzania zasobami, zmniejszenia niepewności produkcji, aby zachować konkurencyjność i utrzymać rentowne marże zarówno lokalnie, jak i globalnie. Przemysł 4.0 (I4.0) obejmuje różne technologie, ale koncentruje się na wysoce zautomatyzowanych, zdigitalizowanych procesach produkcyjnych i zaawansowanej technologii komunikacji informacyjnej. I4.0 jest zakorzeniony w koncepcji smartmanufacturing (SM), inteligentnej koncepcji produkcji, w której linie produkcyjne mogą samooptymalizować się i dostosowywać w odpowiedzi na zmieniające się procesy i warunki produkcyjne. SM ułatwia wysoką elastyczność produkcji i zdolność do wytwarzania produktów o większej złożoności i dostosowywania na dużą skalę, podniesienia jakości produktu i osiągnięcia lepszego zużycia zasobów. SM można zdefiniować jako nowy poziom modelu produkcyjnego z kombinacją różnych technologii w celu zintegrowania możliwości cyberfizycznych umożliwiających gromadzenie ogromnych danych z wielu źródeł w połączonym sieciowo środowisku współdzielenia zasobów, wykorzystującym zaawansowane techniki analityczne do opracowywania strategicznych informacji dla systemu doskonalenie i podejmowanie decyzji w celu zwiększenia elastyczności produkcji i zdolności adaptacyjnych. Jest to wzmocnione i wszechobecne zastosowanie sieciowych technologii informatycznych w całej domenie produkcyjnej w celu osiągnięcia optymalnych zdolności produkcyjnych. SM wymaga kilku podstawowych technologii do nawiązania komunikacji różnych podmiotów w obszarze produkcyjnym. Komunikacja i wymiana informacji pozwalają na zmianę zachowania każdego obiektu i adaptację do różnych sytuacji w oparciu o sygnały wytworzone przez przeszłe doświadczenia i zdolności uczenia się wzmocnione przez te technologie, które były dla nich sprzężeniem zwrotnym. Wpływ ten prowadzi do ustanowienia systemów komunikacyjnych między człowiekiem a człowiekiem i człowiekiem z maszynami, znanych jako system cyber-fizyczny (CPS). CPS to koncepcja wywodząca się z funkcjonalności systemów, które umożliwiają dostęp i interoperacyjność człowiek-maszyna. Shafiq i inni stwierdzają, że CPS jest ustanowieniem globalnej sieci wszystkich podmiotów produkcyjnych, od maszyn produkcyjnych po procesy i zarządzanie łańcuchem dostaw (SCM) z konwergencją świata fizycznego i cyfrowego. Monostori i inni stwierdzają, że CPS są podmiotami zdolnymi do współpracy obliczeniowej z otaczającym światem fizycznym poprzez rozległe połączenie, w ciągłej formie dostarczania i wykorzystywania, a także jednoczesnego dostępu i przetwarzania danych z usług dostępnych w sieci. Lee i inni przedstawił dokładny opis CPS w architekturze 5C podsumowujący podstawowe poziomy projektowe CPS: (1) Połączenie, (2) Konwersja, (3) Cyber, (4) Poznanie i (5) Konfiguracja. Poziom połączenia służy jako interfejs między środowiskiem fizycznym a obliczeniowym światem cybernetycznym. Do gromadzenia informacji wykorzystano różne media komunikacyjne, takie jak czujniki, siłowniki, terminale systemów wbudowanych i sieć bezprzewodowa do wymiany danych. Aby dostosować się do różnych typów akwizycji danych, potrzebny jest odpowiedni protokół i konstrukcja urządzenia. Poziom konwersji pełni funkcję agenta przetwarzania danych, który przekształca zebrane dane w użyteczne informacje specyficzne dla każdego procesu w celu podjęcia odpowiednich działań w celu poprawy wydajności. Ponieważ dane z każdego z podmiotów reprezentują jego stan, opracowane informacje mogą służyć jako monitor samoświadomości maszyny. Poziom cyber pełni centralną rolę w tej architekturze. Zbiera wszystkie dane ze wszystkich komponentów w systemach i tworzy cybersymbole właściwości fizycznych. Replikacja tych symboli umożliwia budowanie rosnącej bazy wiedzy dla każdej maszyny lub podsystemów. Właściwe wykorzystanie bazy wiedzy stworzonej do działań doskonalących system może dać bardziej wiarygodne i efektywne rezultaty. Poziom poznania działa jak mózg architektury. Symulacja i synteza wszystkich dostępnych informacji zapewnia dogłębną wiedzę o systemach. Uzyskane w ten sposób wnioski i wyniki mogą być następnie wykorzystywane przez ekspertów do wspierania metod podejmowania decyzji i rozumowania. Ostatnim poziomem jest poziom konfiguracji, elastyczny system sterowania łączący polecenia, sugestie lub decyzje opracowane do realizacji w systemach fizycznych. Dynamiczna wymiana informacji w czasie rzeczywistym pomiędzy zintegrowanym systemem CPS umożliwia komunikację pionową i poziomą w celu podejmowania trafnych decyzji biznesowych, współpracy wielostronnej, wydajnego i efektywnego ulepszania i konserwacji systemu w obrębie całej domeny SM. Ogólnie rzecz biorąc, w kontekście SM, CPS ustanowiło innowacyjne podejście do integracji funkcjonalności systemów automatyki przemysłowej wszystkich podmiotów w domenie systemu produkcyjnego poprzez połączenie sieciowe z całą otaczającą rzeczywistością fizyczną, umożliwiając współpracę obliczeniową i infrastrukturę komunikacyjną w celu zapewnienia interoperacyjności. Systemy są połączone w rozproszonej strukturze modułowej, w przeciwieństwie do połączenia jednokierunkowego w konwencjonalnych zakładach produkcyjnych, co pozwala na interakcję danych z wielu źródeł i integrację wiedzy w sieciach. Zapewnia to całkowitą widoczność i kontrolę nad procesami produkcyjnymi, umożliwiając szybkie rozwiązywanie problemów i podejmowanie decyzji. Informacje są dostępne i przepływają w dowolnym miejscu i czasie we wszystkich obszarach procesów produkcyjnych. Chociaż CPS ustanowił model komunikacji między systemem fizycznym a światem cybernetycznym, to połączenie kilku podstawowych technologii ożywia system SM. Na przykład Internet rzeczy (IoT) umożliwia podłączenie wszystkich fizycznych urządzeń lub sprzętu do scentralizowanej platformy w celu gromadzenia i wymiany danych. Big data (BD) produkowane przez każdy z podmiotów zawiera bezcenne informacje o domenie, które następnie są analizowane za pomocą zaawansowanych technik analityki BD (BDA). Jak wyjaśniono wcześniej, wynik analizy tworzy sygnały, które mają być informacją zwrotną dla systemów w celu dostosowania. Przetwarzanie w chmurze (CC) pozwala na dostęp do informacji i sygnału przez każdą ze stron w systemie SM w czasie rzeczywistym, w dowolnej części świata, o ile jest ona podłączona do sieci. Ostatecznie każda z technologii bazowych wspólnie tworzy podstawową architekturę SM. W niniejszym omówieniu skupimy się na wyjaśnieniu BD i BDA, a następnie na studium przypadku dotyczącym propozycji BDA do pomiaru optycznego w produkcji ogniw słonecznych.

Przegląd dużych zbiorów danych

Cyfryzacja procesów produkcyjnych umożliwiła połączenie różnych urządzeń i podprocesów w zakładach produkcyjnych w dużą platformę cyfrową. Powszechna integracja technologii informacyjno-komunikacyjnych generuje ogromną pojemność heterogenicznych danych pochodzących z różnych obiektów w domenie. Ta ogromna ilość ustrukturyzowanych, częściowo ustrukturyzowanych i nieustrukturyzowanych danych jest znana jako BD. Rozważając pozyskanie danych korespondencyjnych, ze względu na ich ogromną pojemność, uzyskanie, przechowywanie i analizowanie tych danych jest dużym wyzwaniem zarówno pod względem czasu, jak i pieniędzy. W związku z tym wykorzystanie nowatorskich technologii z dzisiejszej ery Internetu ma kluczowe znaczenie dla zapewnienia wartości dla przemysłu. Liczne publikacje dotyczące składników i definicji BD oraz opis szybko ewoluowały i do pewnego stopnia wywołały pewne zamieszanie. BD często rozumie przez wielu, w zależności od objętości i rozmiaru danych. Chociaż ilość i rozmiar danych są nieuchronnie niezbędne, nie jest to jednak jedyny kluczowy aspekt. Zarówno Cemernek i inni jak Gandomi i Haider stwierdzili dwie wersje definicji BD, które najdokładniej opisują BD, zebrane najpierw z definicji przez TechAmerica Foundation:

Big data to termin, który opisuje duże ilości złożonych i zmiennych danych o dużej prędkości, które wymagają zaawansowanych technik i technologii umożliwiających przechwytywanie, przechowywanie, dystrybucję, zarządzanie i analizę informacji.

Inna bardziej powszechna definicja, dostosowana do I4.0 przez Gartner IT Group, jest następująca:

Big data to zasoby informacyjne o dużej objętości, dużej szybkości i dużej różnorodności, które wymagają opłacalnych, innowacyjnych form przetwarzania informacji w celu lepszego wglądu i podejmowania decyzji.

Z obu definicji wyraźnie wynika, że BD zawiera kilka cech ze standardowymi wspólnymi cechami Objętości (Volume) , Różnorodności (Variety) i Prędkości (Velocity), znanych jako trzy V. V są opisane poniżej. Objętość odnosi się do rozmiaru i skali danych. Rozmiary dysków BD zwykle mieszczą się w zakresie wielu terabajtów i petabajtów. Nie było określonego progu pojemności dla klasyfikacji objętości BD. Jest względna i zależy od różnych czynników, takich jak typ danych, technologia kompresji danych, zarządzanie danymi i pojemność pamięci. Na przykład zwiększenie pojemności pamięci zwiększy próg charakterystyki objętości BD, umożliwiając przechowywanie większej ilości danych. Oprócz technologii kompresji danych w celu zmniejszenia rozmiaru danych bez utraty informacji, różne typy danych, takie jak dane tekstowe w stosunku do danych wideo, które mają różną gęstość danych, oraz technologia zarządzania danymi do manipulowania danymi, są możliwymi czynnikami zmiany definicji objętości, ponieważ 'duża'. Różnorodność odnosi się do różnorodności struktury danych i wielowymiarowości zawartości danych. Dane BD istnieją w trzech kategoriach: (1) Dane strukturalne - ten typ danych znajduje się w stałych polach w ramach predefiniowanych ram wejściowych lub modelu danych, takich jak rekord w relacyjnej bazie danych i wpis w arkuszach kalkulacyjnych. Nie wymaga stosowania wstępnego przetwarzania lub wstępnego kondycjonowania danych do jednoznacznej interpretacji lub analizy w celu uzyskania znaczących informacji. (2) Dane nieustrukturyzowane - rodzaj niezorganizowanego, niespójnego formatu, który nie jest zgodny z żadnym wstępnie zdefiniowanym modelem danych ani sposobem. Dane mają zazwyczaj dużą zawartość tekstową i graficzną, często nie nadają się do analizy bez wstępnego przetworzenia lub wstępnego kondycjonowania w celu spełnienia wymagań organizacji strukturalnych technik analitycznych. Dane obrazu, dźwięku i obrazu to przykład danych nieustrukturyzowanych. (3) Dane częściowo ustrukturyzowane - typ danych, który nie jest ściśle zgodny z żadnym formalnym standardem danych, ale zawiera określone identyfikatory umożliwiające rozróżnienie między elementami semantycznymi a elementem instruktażowym w danych. Przykładem danych częściowo ustrukturyzowanych jest język Hypertext Markup Language, w którym informacje o przetwarzaniu zostały zawarte w znacznikach zdefiniowanych przez użytkownika, co umożliwia ich interpretację przez przeglądarkę w celu uzyskania informacji wyjściowych. Prędkość to szybkość generowania danych i szybkość przetwarzania danych w celu uzyskania praktycznych wyników mierzonych częstotliwością. Szybkość generowania danych jest ściśle powiązana z konstrukcją i rozmieszczeniem systemów produkcyjnych. Kiedy cykl produkcyjny czas jest krótki, generowanie danych będzie szybsze i na odwrót. W obu przypadkach CPS kontroluje generowanie danych i ruch. Dlatego projekt CPS powinien mieć odpowiednią zdolność do obsługi scenariusza. Rozprzestrzenianie się urządzeń cyfrowych przyczyniło się do szybkości danych zarówno podczas generowania, jak i przetwarzania. Urządzenia połączone pojedynczo lub grupowo przetwarzały dalej informacje produkcyjne udostępniane na maszynach; pozwala to na uzyskanie bardziej odpowiednich i dogłębnych informacji o konkretnym zadaniu lub scenariuszu, umożliwienie kolejnych działań w zakresie analizy w czasie rzeczywistym i planowania opartego na dowodach. Wielopoziomowe generowanie i przesyłanie nowych danych między urządzeniami przyspiesza bezprecedensową szybkość tworzenia danych. Tradycyjny system zarządzania danymi nie był w stanie obsłużyć ogromnego strumienia danych natychmiast dzięki tej nowej formie szybkości przesyłania danych. To wprowadza nowe technologie BD na scenę, aby manipulować tymi dużymi ilościami danych w "nietrwały" sposób, aby tworzyć inteligencję w czasie rzeczywistym. Oprócz trzech ogólnych wymiarów BD, kilka kluczowych korporacji rozszerzyło wymiar BD na Wiarygodność (Veracity), zmienność(Variability) i wartość(Value). Każdy z rozszerzonych Vs jest opisany poniżej: Wiarygodność reprezentuje zawodność zawartą w niektórych źródłach danych, znaną również jako jakość danych. IBM to wymyślił. Wiarygodność uznano za najważniejszy czynnik utrudniający szerokie przyjęcie BDA w branży. Niektóre zidentyfikowane obszary wpływające na wiarygodność danych, takie jak dokładność, integralność i niepewność danych, wymagają poprawy, zanim możliwe będzie niezawodne wdrożenie . Na przykład popyt rynkowy na takie produkty, jak luksusowe samochody, w dużej mierze zależy od nastrojów klientów, np. preferencji określonych marek, wcześniejszych doświadczeń i statusu społecznego. Wszystko to wiąże się z osądem człowieka, co powoduje znaczną niepewność. Dane te zawierają jednak cenne informacje o rynku. Ten inny aspekt BD należy rozwiązać za pomocą zaawansowanych technik analitycznych, aby uzyskać konkretne i istotne informacje. Zmienność i złożoność to dwa aspekty BD wprowadzone po raz pierwszy przez SAS. W transmisji danych o dużej objętości i prędkości, przepływ danych często wykazuje charakterystykę okresowych szczytów i rowów. Ta niespójność i zmienność nazywana jest zmiennością. Dostępność danych w dzisiejszej erze cyfryzacji pochodzi z niezliczonych źródeł, wytwarzających dane różnych typów i formatów. To wieloźródłowe generowanie danych jest określane jako złożoność i stanowi krytyczne wyzwanie w aplikacji BDA. Dane muszą być wstępnie przetworzone w celu dopasowania i połączenia w celu przekształcenia w znaczące informacje. Wartość została wprowadzona przez Oracle, definiując wartości w BD zebrane na początku wykazują stosunkowo niski koszt w stosunku do pozyskanego wolumenu, określanego jako "gęstość niskowartościowa". Jednak wartość danych wzrasta, gdy są analizowane w dużej ilości w dalszej części rurociągu, ujawniając początkowo ukryte, ekonomicznie uzasadnione spostrzeżenia i informacje o wysokiej wartości. Innymi słowy, wartość reprezentuje szczegółowe informacje uzyskane dzięki zastosowaniu BDA w oparciu o stale dużą ilość analizowanych danych, gdzie informacje te były niewidoczne na początkowym etapie ze względu na stosunkowo małą ilość danych. Wartość danych to najbardziej krytyczny wymiar BD. Nie było uniwersalnego wzorca 3 V, który charakteryzowałby BD. Objętość jako podstawa BD odnosi się do wszystkich innych wymiarów; różnorodność jest związana z jej wartością i tak dalej. Każdy z wymiarów BD był w taki czy inny sposób zależny od siebie. Próg charakterystyki BD zależy od wielkości, obszaru i lokalizacji wdrożenia, a te ograniczenia ewoluują w czasie. Istnieje podstawa do radzenia sobie z BD, w zależności od charakteru i zdolności każdej domeny produkcyjnej. To właśnie tam tradycyjne systemy i technologie zarządzania danymi nie mogą już generować zadowalającej inteligencji w celu utrzymania wydajności produkcji, kontroli kosztów i konkurencyjności. W takiej sytuacji należy dokonać kompromisu między przyszłymi wartościami oczekiwanymi przez wdrożenie technologii BD a kosztami jej wdrożenia. Potencjalne korzyści, jakie można osiągnąć dzięki wdrożeniu BD, będą w dłuższej perspektywie bardziej korzystne w porównaniu z tradycyjnymi systemami i technologiami. Korzystanie z usług BD zapewni przewagę biznesową dzięki zidentyfikowanym możliwościom o wartości dodanej. Dzięki dokładnym analizom może dać systematyczne wskazówki dotyczące odpowiednich działań produkcyjnych, które należy podjąć zgodnie z zachowaniem systemu. Spośród działań podejmowanych w całym cyklu życia produktu pozwala to na uzyskanie efektywnych kosztowo i bezawaryjnych procesów operacyjnych. Pomaga również powiązanemu personelowi w podejmowaniu właściwych decyzji i rozwiązywaniu problemów związanych z operacjami. Jednym z głównych celów SM jest stworzenie inteligentnego systemu produkcyjnego z dokładnym i terminowym podejmowaniem decyzji dzięki wsparciu danych uzyskanych w czasie rzeczywistym. Niewykluczone, że firma BD będzie kolejnym ważnym wkładem w przyszłą transformację i udoskonalenie SM.

Inteligentna produkcja oparta na danych

SM to nowy paradygmat produkcji, w którym wszystkie podmioty w domenie produkcyjnej są w pełni połączone w takiej czy innej formie z siecią. Połączenia sieciowe obejmują czujniki, siłowniki i systemy wbudowane. Wykorzystując podstawowe technologie, takie jak CPS, IoT i CC, można zbierać dane na wszystkich różnych etapach produkcji. Dzięki zaawansowanym algorytmom obliczeniowym dane te można przekształcić w znaczące informacje i spostrzeżenia dotyczące procesów produkcyjnych, tworząc produkcję opartą na danych, zapewniając inteligencję w kontroli jakości, zwiększanie elastyczności i zdolności adaptacyjnych, obniżanie kosztów i nie tylko. Podejście oparte na danych umożliwia wyprowadzenie złożonego, wielowymiarowego nieliniowego modelu charakterystyki danych dla różnych jednostek w domenie bez konieczności dokładnego zrozumienia zachowania systemu. Modelowanie bezpośrednie zapobiega czasochłonnemu i podatnemu na błędy podejściu ręcznemu. Postęp w technologiach sztucznej inteligencji (AI) dodatkowo uzupełnia przyjęcie BD dla SM opartego na danych. Istotnym czynnikiem umożliwiającym ustalenie produkcji inteligencji są dane. Obecne zaawansowane systemy produkcyjne w erze cyfrowej generują wiele rodzajów danych z ogromną pojemnością. W epoce BD dostępność i możliwość gromadzenia dużej puli danych stały się oczywiste i prostsze. Wraz z nowymi technologiami ICT znacznie poprawiło się również gromadzenie, przetwarzanie i przechowywanie danych. Zakłady produkcyjne mogą teraz skorzystać z tych ulepszeń, aby uzyskać korzyści z wartości danych. Następujące kategorie klasyfikują niejednorodne dane przestrzenne z procesów produkcyjnych i urządzeń:

1. Dane zarządcze z podstawową funkcją związaną z podejmowaniem decyzji zarządczych dotyczących kontroli przedprodukcyjnej, takich jak planowanie finansowe, gospodarka materiałowa, logistyka, planowanie produkcji; w kontroli produkcji, takiej jak przepływ materiałów, przepływ produktów, konserwacja; oraz kontrola poprodukcyjna, taka jak sprzedaż i marketing, logistyka i dystrybucja, wysyłka zamówień i obsługa klienta. Dane są zbierane z informacji produkcyjnych, które zawierają różnorodne dane, takie jak system realizacji produkcji (MES), planowanie zasobów przedsiębiorstwa (ERP), zarządzanie relacjami z klientami, SCM i zarządzanie danymi produktu.

2. Dane dotyczące sprzętu są gromadzone za pośrednictwem CPS, który obejmuje dane dotyczące wydajności w czasie rzeczywistym, warunków pracy i historii konserwacji sprzętu produkcyjnego. Dane pochodzące z maszyny zostały zestawione w scentralizowany system informacyjny, który został zaprojektowany i opracowany zgodnie z zakładem produkcyjnym utworzonym za pośrednictwem szkieletowego kanału komunikacyjnego, takiego jak MES. Te zebrane dane można następnie wykorzystać do przekształcenia w systemy podinformacyjne w celu wyświetlania informacji specyficznych dla zadania lub stanu.

3. Dane użytkownika są zbierane ze źródeł internetowych i służą jako dane wejściowe do specjalnych wymagań produkcyjnych, takich jak lokalizacja klientów, dane demograficzne, profile, historia zamówień, preferencje produktowe i inne. Dane te są generowane głównie z głównych zakładów produkcyjnych na zewnętrznych serwerach, które zawierają informacje o klientach, wykorzystywane głównie do celów marketingowych i informacji zwrotnych. Wraz z rozwojem CPS dane te mogą być dalej wykorzystywane po wstępnym przetworzeniu i filtrowaniu w celu integracji z centralnym systemem planowania produkcji. Planowanie produkcji może następnie dostosować się do najnowszych wymagań rynku i przekazać informacje zwrotne na temat najnowszych wymagań produkcyjnych w procesach produkcyjnych. Ta aplikacja zapewnia wysoką elastyczność produkcji i adaptacyjność.

4. Dane produktowe są zbierane z systemów produktowych i produktowo-usługowych za pośrednictwem internetowej bazy danych klientów, technologii IoT, które wytwarzają i informują w czasie rzeczywistym. Dane odzwierciedlają wydajność produktu, kontekst użytkowania, taki jak obszar i czas, oraz wszelkie inne wskaźniki związane z produktem/usługą, takie jak wilgotność, temperatura i wydajność. Dane te służą jako źródło informacji do uzyskania informacji o produkcie w aktualnym obszarze zastosowania. Dane te dostarczają bezcennych informacji na temat faktycznego wykorzystania produktu do przyszłych udoskonaleń.

5. Dane publiczne są zbierane z systemów rządowych lub otwartych baz danych. Przykładami źródeł informacji są protokoły rządowe, zasady i przepisy, własność intelektualna, rozwój naukowy, demografia, ochrona środowiska, opieka zdrowotna, standardy branżowe i inne. Te powiązane dane rządowe są niezbędne do zagwarantowania ścisłej zgodności procesów produkcyjnych i wytwarzanych produktów ze wszystkimi przepisami.

Cykl życia danych

W środowisku produkcyjnym na pełną skalę różne źródła będą generować różne dane. Surowe dane wyodrębnione w oryginalnym stanie nie są w stanie dostarczyć użytkownikom żadnych przydatnych informacji. Klasyfikacja tych danych musi być przeprowadzona w celu odkrycia wiedzy w celu przekształcenia w treść interpretowaną przez użytkownika w celu wyodrębnienia znaczących informacji (IE). Rozważając BD z perspektywy całego cyklu życia produktu produkcyjnego, przekształcenie surowych danych w użyteczne informacje obejmuje wiele etapów. Cała podróż rozciąga się od generowania danych, gromadzenia, przechowywania, przetwarzania, wizualizacji do ostatecznej aplikacji, znanej jako cykl życia danych. Dane produkcyjne wytworzone w całym cyklu życia danych były wykorzystywane w różnych punktach do sortowania według kryteriów danych. Takie sortowanie może podkreślić jego wartość dla zainteresowania użytkowników, np. jakie dane są potrzebne i gdzie jest to istotne w różnych fazach cyklu życia.

1. Źródła danych: Wcześniej wyjaśniono typowy typ danych produkcyjnych i ich pochodzenie. Zarządzanie i wyposażenie to dwa podstawowe typy danych związanych z produkcją. Podstawowe ramy systemu informacyjnego, takie jak MES, łączą wszystkie wytworzone dane dotyczące zarządzania. Systemy te zostały dostosowane i opracowane zgodnie z wymaganiami zakładu produkcyjnego. Dodatkowe podsystemy zapewniające informacje niższego poziomu ukierunkowane na każdą określoną grupę procesów można również wygenerować poprzez integrację z podstawową strukturą. Dane dotyczące zarządzania są zazwyczaj danymi ustrukturyzowanymi, chociaż forma danych podczas transmisji między systemami do schematu była częściowo ustrukturyzowana. Czujniki sprzętu, siłowniki i systemy wbudowane generują dane o sprzęcie. Typ danych różni się w zależności od projektu systemu i zastosowania i jest nieustrukturyzowany. Większość nowoczesnych urządzeń zgodnych z I4.0 zawiera wewnętrzny interfejs systemowy do wstępnego przetwarzania większości danych sprzętowych do postaci częściowo ustrukturyzowanej przed wysłaniem do szkieletu podstawowego.

2. Zbieranie danych: Do zbierania danych produkcyjnych wykorzystano kilka sposobów ze względu na ich powszechną dostępność w różnych jednostkach danych. CPS pozwala na wprowadzenie użytecznych danych fizycznych do świata cybernetycznego. Gromadzenie danych produkcyjnych lub zarządczych odbywa się za pośrednictwem podstawowych systemów komunikacji i zarządzania informacjami, takich jak MES. Generowanie danych dla poszczególnych podmiotów odbywa się za pośrednictwem standardowego interfejsu protokołu przemysłowego, takiego jak SECS/GEM i jest przesyłane do scentralizowanego serwera MES. Dane te mogą być następnie wykorzystane do dalszych zastosowań w czasie pół rzeczywistym lub w czasie rzeczywistym za pośrednictwem technologii bazodanowych. Dane są głównie częściowo ustrukturyzowanymi i nieustrukturyzowanymi danymi maszynowymi. Okres przechowywania danych zależy od pojemności pamięci serwera. IoT to kolejna forma standardowej technologii gromadzenia danych w SM. Dane dotyczące sprzętu i produktów były zbierane natychmiast w celu monitorowania stanu w czasie rzeczywistym za pomocą czujników, inteligentnych czujników i innych systemów wbudowanych podłączonych do sieci. Od powstającej technologii mobilnej gromadzenie danych było możliwe za pośrednictwem terminali, takich jak komputery PC, telefony komórkowe, tablety i laptopy. Gromadzenie danych w oparciu o IoT to na ogół bezpośrednie zastosowanie danych w skali indywidualnej jednostki. Dane te można następnie wykorzystać do tworzenia konkretnych aplikacji, głównie do monitorowania wydajności systemu za pomocą zestawów programistycznych lub interfejsów programowania aplikacji. Dane użytkowników i publiczne wykorzystywały metodę web scrapingu do gromadzenia danych. Web scraping odnosi się do ekstrakcji danych ze stron internetowych w celu uzyskania pożądanych informacji za pomocą bota lub robotów indeksujących. Jest to zazwyczaj zautomatyzowany proces polegający na przeszukiwaniu i kopiowaniu przeszukiwanych witryn internetowych i gromadzonych w bazie danych w celu późniejszego zastosowania. Web scraping jest zwykle stosowany razem ze sztuczną inteligencją, umożliwiając wydajne zbieranie danych.

3. Przechowywanie danych: Cyfryzacja systemów produkcyjnych generuje ogromne ilości danych. Te dane, od surowego sprzętu we/wy po dane systemu zarządzania, muszą być bezpiecznie przechowywane i integrowane, aby umożliwić dostęp i wykorzystanie do kolejnych działań. Pojemność i szybkość przechowywania to dwa krytyczne czynniki określające żywotność danych, okres przechowywania i funkcjonalność danych. Wydajne i bezpieczne przechowywanie danych ułatwi szybkość i dostępność do wykorzystania. Istnieją trzy standardowe klasyfikacje typów danych: (1) Strukturalne, takie jak liczby, zarządzane ciągi, tabele, którymi można zarządzać bezpośrednio w oparciu o bazę danych. (2) Częściowo ustrukturyzowane, takie jak wykresy i XML. Te typy danych nie są bezpośrednio wyodrębniane w celu uzyskania informacji dla użytkownika końcowego. Funkcjonuje głównie jako pośrednie medium pośredniczące w systemach i oprogramowaniu. (3) Niestrukturalne, takie jak pliki dziennika, audio i obrazy. Dane te wymagają specjalistycznego i zaawansowanego podejścia do przetwarzania i pozyskiwania wymaganych informacji specyficznych dla zadania. Ze względu na charakter bezpośredniego IE dla ustrukturyzowanego typu danych, większość firm skupiła się i zainwestowała w nośnik pamięci i dostępność dla tego typu danych. Nowa technologia pamięci masowej opartej na obiektach otwiera okno na wydajne przechowywanie danych częściowo ustrukturyzowanych i nieustrukturyzowanych. Dane są przechowywane i zarządzane jako obiekt, co zapewnia elastyczność w integracji pamięci masowej i ściąganiu do użytku. Kolejną istotną technologią pamięci masowej jest przechowywanie w chmurze. Ma zastosowanie do wszystkich form struktury danych, przechowywanie w chmurze umożliwia energooszczędne, opłacalne, bezpieczne i elastyczne rozwiązanie pamięci masowej. Dane są przechowywane w wirtualnym miejscu przechowywania i z wieloma możliwościami dostępu w dowolnym miejscu i czasie z połączeniem internetowym przez różne podmioty. Dostawca usług przechowywania w chmurze często oferuje funkcje o wartości dodanej, takie jak automatyczne tworzenie kopii zapasowych, gwarantowany czas pracy i funkcje dostępu do wielu urządzeń. Może też współpracować z systemem dostawcy usług w zakresie funkcji analitycznych danych, takich jak głębokie uczenie się, przetwarzanie danych i inne. Wszystkie te funkcje sprawiły, że przechowywanie w chmurze jest wysoce skalowalnym i udostępnianym trybem przechowywania danych.

4. Przetwarzanie danych: można je nazwać serią działań lub operacji mających na celu ujawnienie przydatnych i ukrytych informacji w dużych ilościach danych do odkrywania wiedzy. Surowe dane w ich naturalnej postaci są zazwyczaj rozproszone, nieczytelne i pozbawione znaczenia. Różne procedury przetwarzania danych są zaangażowane w przekształcanie nieprzetworzonych danych w znaczące informacje. Wyodrębnione informacje są przydatne do prowadzenia działań doskonalących, takich jak kontrola jakości, konserwacja predykcyjna i poprawa wydajności w dziedzinie produkcji. Po pierwsze, czyszczenie danych usuwa zbędne, zduplikowane brakujące wartości i niespójne informacje. Następnie procedura redukcji danych służy do przekształcenia dużych zbiorów danych do uproszczonego, uporządkowanego i kompatybilnego formatu zgodnie z wymaganiami zadania dotyczącymi przetwarzania. Wstępnie przetworzone dane są następnie gotowe do wykorzystania poprzez analizę i eksplorację danych w celu opracowania nowych informacji. Wydajność nowej generacji informacji zależy od analizy i szerokiego zakresu dostępnych technik wydobywczych. Ze względu na dużą ilość danych konwencjonalne techniki statystyczne nie są już najlepszą opcją. Zastępuje je nowoczesne uczenie maszynowe (ML), modele prognozowania obliczeń na dużą skalę i zaawansowane techniki eksploracji danych, takie jak klastrowanie, regresja i wiele innych. Optymalne wykorzystanie BD z atrakcyjnymi analizami danych, dogłębną wiedzą i spostrzeżeniami na temat jednostek produkcyjnych. To napędza osiągnięcie wysokich kompetencji i inteligentnej produkcji.

5. Wizualizacja danych: Prezentacja wyniku przetwarzania danych w bardziej wyraźnej formie, aby ułatwić użytkownikom zrozumienie i interpretację. Dostarczanie informacji jest bardziej efektywne w formie wizualizowanej, takiej jak wykresy, diagramy, figury i wirtualna rzeczywistość. Dane w czasie rzeczywistym można wyobrazić sobie online za pośrednictwem dedykowanych kanałów lub platform użytkowników, umożliwiając natychmiastowe udostępnianie informacji. Ponadto dane statyczne przetworzone na formę wizualną i udostępniane przez każdy podmiot promują bardziej bezpośrednią percepcję, dostępność i przyjazność dla użytkownika. Zaawansowane oprogramowanie analityczne zawiera funkcję tworzenia wizualizacji danych, ułatwiającą zadania użytkownikom.

6. Transmisja danych: Nowoczesna zdigitalizowana SM generuje duże ilości danych, a wygenerowane dane przepływają w sposób ciągły przez różne platformy, takie jak sprzęt, CPS i ludzie, przez różne media w trybie rozproszonym. Transmisja tych danych ma kluczowe znaczenie dla zapewnienia skutecznej komunikacji, udostępniania informacji i interakcji między wszystkimi podmiotami w domenie. Obecne postępy w technologiach komunikacyjnych w znacznym stopniu scentralizowały infrastrukturę bezpiecznej i niezawodnej transmisji w czasie rzeczywistym wszelkiego rodzaju danych. W związku z tym rozproszone zasoby produkcyjne w SM można zunifikować praktycznie w dowolnym miejscu i czasie, aby osiągnąć wysoką elastyczność i kompetencje produkcyjne, zachowując konkurencyjność na rynku globalnym.

7. Aplikacja danych: Dane generowane i istniejące w prawie każdym aspekcie nowoczesnej produkcji. Stał się głównym katalizatorem kontroli trzech najważniejszych kryteriów produkcji, a mianowicie wydajności, jakości i kosztów. W utrzymaniu kompetencji dane mają zastosowanie od początku etapu projektowania produktu do końcowego etapu dostawy. Na etapie projektowania można wykorzystać analitykę danych do uzyskania informacji i zrozumienia produktu, który ma być wytwarzany, takich jak popyt rynkowy, konkurencja oferta i ograniczenia technologiczne. Te spostrzeżenia pozwalają na opracowanie unikalnego i zorientowanego na klienta produktu. Następnie, na etapie produkcji, do optymalizacji produkcji można wykorzystać inną formę danych podmiotów produkcyjnych. Dane o sprzęcie w czasie rzeczywistym są śledzone w celu monitorowania ogólnej efektywności sprzętu. Można je dalej analizować na podstawie danych długoterminowych pod kątem konserwacji predykcyjnej, aby wyeliminować nieplanowane przestoje maszyny, które wpłyną na wydajność i koszty. Dane procesowe są wykorzystywane do kontrolowania każdego etapu produkcji, zapewniając zoptymalizowany proces pod kątem jakości produktu i kontroli kosztów produkcji. Analiza danych procesowych może dostarczyć wczesnych ostrzeżeń o tendencji zmian procesu wpływających na jakość produktu, nienormalnie wysokie wykorzystanie surowców i niską wydajność produktu. Pozwala również na diagnozę pierwotnych przyczyn problemów do usunięcia oraz ograniczenie bieżących procesów do dalszego doskonalenia. Dane operacyjne mogą być wykorzystywane do monitorowania wydajności online, aby natychmiast zwrócić uwagę odpowiedniego sprzętu i personelu procesowego. Dane wyjściowe produkcji można analizować, aby sprostać zapotrzebowaniu rynku i planowaniu produkcji. Na końcowym etapie dostawy przeanalizowano dane produkcyjne, zarządcze i rynkowe w celu określenia optymalnego planowania logistycznego, czasu marketingu, wydajności produkcji i innych elementów SCM. Łącznie, dogłębna analiza danych umożliwia wykonanie działań na wczesnym etapie i działań zapobiegawczych, konserwacji zapobiegawczej i predykcyjnej, przewidywania usterek i usprawnień operacyjnych. Krótko mówiąc, dane napędzają nową, nowoczesną produkcję.

Wartość BD for SM nie zależy wyłącznie od dużej ilości danych. Zdolność do efektywnego wykorzystania danych w celu opracowania znaczących informacji jest kluczem do osiągnięcia optymalnych wyników w SM. Standardowe konwencjonalne technologie dostarczane przez twórców oprogramowania i sprzętu skupiały się głównie na ustrukturyzowanych danych do analizy predykcyjnej, które stanowią jedynie niewielki składnik BD. Przedsięwzięcie w nieustrukturyzowane obszary danych, takie jak audio, wideo i nieustrukturyzowane teksty, było ogólnie ignorowane. Jednak trend ulega zmianie wraz z niedawnym wzrostem sztucznej inteligencji. Ten rosnący trend obserwuje więcej wysiłków badawczych i praktycznych podejść przemysłowych wykorzystujących zaawansowane techniki sztucznej inteligencji, takie jak ML, w celu zebrania nowej wymiarowości i przenikliwości nieustrukturyzowanych danych. W ten sposób jest krytyczne podejście do wykorzystania prawdziwego potencjału BD. Istotne dowody wykazały moc i ulepszenia osiągnięte dzięki podejściom AI do danych nieustrukturyzowanych. W następnej sekcji omówiono dokładniej koncepcje analityczne BD, implementację, techniki eksploracji danych i kilka innych aspektów.

Analiza dużych zbiorów danych

Analityka danych jest uważana za gałąź naukowego i inżynieryjnego podejścia do odkrywania ukrytych wzorców, anonimowych informacji i korelacji w systemach. BDfurther pogłębia zapotrzebowanie na możliwości analityczne dzięki swoim cechom definiującym, które powodują niewystarczalność konwencjonalnego zarządzania danymi i analizami w celu zebrania pełnego potencjału BD dla SMapplications. Ograniczenia w podejściu konwencjonalnym, wraz z postępem w zakresie technologii obliczeniowych, doprowadziły do powstania nowej gałęzi technik analitycznych, znanej jako BDA. BDA zyskało ostatnio dużą popularność i trakcję dzięki postępowi i uogólnieniu sztucznej inteligencji. Możliwość analizowania dużych zbiorów danych będzie jednym z głównych czynników utrzymania konkurencyjności biznesu, wzrostu i innowacyjności . BD w swoim surowym formacie nie ma dużej wartości; bez odpowiedniej analizy gromadzenie wartości w celu przekształcenia informacji w użyteczną wiedzę nie ma sensu. Dobra umiejętność analizy danych może zapewnić znaczący wgląd w procesy, zapewnić kilka istotnych korzyści, takich jak śledzenie w czasie rzeczywistym, konserwacja predykcyjna i wiele innych działań mających na celu poprawę systemów i podejmowanie decyzji przez kierownictwo. Promuje autonomiczną interoperacyjność, elastyczność, poprawę systemu i redukcję kosztów. Zjawisko to powoduje przejście w konwencjonalnym paradygmacie produkcji scentralizowanych aplikacji produkcyjnych na koncepcję rozproszonego klastra SM, kluczową w SM. Przewiduje się, że BDA, które dostarcza inteligencję do procesów produkcyjnych, przyczyni się do znacznej poprawy SM. Proces analityczny służący do wydobywania informacji z różnych źródeł i typów danych w ramach BD można podzielić na pięć klas, a mianowicie analizę tekstu, analizę dźwięku, analizę wideo, analizę społecznościową i analizę predykcyjną. Dwa główne podprocesy zaangażowane w proces analityczny, którymi są zarządzanie danymi i analityka danych

Analiza tekstu

Analiza tekstu jest również znana jako eksploracja tekstu. Odnosi się do technik uzyskiwania informacji z danych opartych na teksturach znakowych i liczbowych. Przykładami danych tekstowych są e-maile, gazety, dokumenty, książki i inne. Dane tekstowe dostępne na każdym poziomie każdej organizacji, a także ludzkiego życia są podstawowym źródłem tworzenia nowej wiedzy. Wydajna i efektywna analiza i interpretacja tych danych ujawni wiele ukrytych informacji, dając ogromne możliwości ulepszeń. Analiza statystyczna, lingwistyka komputerowa i ML to trzy główne dziedziny zaangażowane w analizy danych tekstowych. Wynik tych analiz dostarczy wskazówek, wskazówek i potwierdzeń wspierających podejmowanie decyzji dowodami. Przykładem użytecznej aplikacji do analizy tekstu jest obszar Business Intelligence (BI), wydobywający informacje z wiadomości finansowych w celu przewidywania wyników giełdowych. Analiza tekstu składa się z czterech głównych technik opisanych pokrótce poniżej. IE to technika używana do uzyskiwania uporządkowanych danych z nieustrukturyzowanego tekstu. Algorytm IE został zaprojektowany do rozpoznawania jednostki tekstowej i relacji ze źródła tekstowego, tworząc uporządkowane informacje. Najbardziej typowym przykładem IE jest algorytm aplikacji kalendarza do tworzenia nowego wpisu, w tym istotne informacje, takie jak data i miejsce, automatycznie wyodrębniane z wiadomości e-mail. Dwa podzadania wykonywane w IE to rozpoznawanie jednostek (ER) i wyodrębnianie relacji (RE). ER lokuje i organizuje określoną i wstępnie określoną nazwaną jednostkę, która istnieje w nieustrukturyzowanym tekście, w wyznaczonych kategoriach, takich jak lokalizacja, wartości, nazwy i inne. RE bada i wyodrębnia relacje semantyczne między bytami w tekście. Wyodrębniona relacja występowała zwykle między bytami określonych typów i pogrupowana w określone kategorie semantyczne. Na przykład w "Steven mieszka w Malezji" wyodrębnioną relacją może być Osoba [Steven], Lokalizacja [Malezja]. Podsumowanie tekstu to technika, która automatycznie skraca długie fragmenty tekstów do czytelnego i zwięzłego podsumowania, określającego tylko główne punkty. Przykładami zastosowania są nagłówki wiadomości, streszczenia książek, protokoły ze spotkań i inne - dwa konwencjonalne podejścia stosowane w tej technice, a mianowicie podejście ekstrakcyjne i podejście abstrakcyjne. Wyodrębnianie podsumowania tworzy podsumowanie z oryginalnych jednostek tekstowych, co daje podzbiór oryginalnego dokumentu w skróconym formacie. Ekstrakcyjna technika podsumowania nie "rozumie" tekstu. Podsumowanie zostało sformułowane poprzez określenie wyróżniających się jednostek tekstowych i połączenie ich ze sobą. Wyeksponowanie jednostek zdaniowych ocenia się na podstawie ich częstotliwości występowania i lokalizacji w tekście. W tej technice często stosuje się wyszkolone modele ML, aby filtrować przydatne informacje w tekstach i przedstawiać je w podsumowaniu, przekazując najważniejsze informacje. W przeciwieństwie do tego, streszczenie abstrakcyjne wyodrębnia informacje językowe z tekstu i generuje podsumowanie za pomocą nowych zdań utworzonych przez nowe jednostki tekstu lub przeformułowanie, zamiast destylować krytyczne zdanie. Do przetwarzania tekstów i generowania streszczenia wykorzystywane są zaawansowane techniki przetwarzania języka naturalnego (NLP). Odpowiednio, można tworzyć bardziej spójne podsumowania. Jednak ze względu na ich złożoność i trudniejsze przyjęcie, podsumowania ekstrakcyjne są częściej stosowane w przypadku BDA. Odpowiedzi na pytania (QA) to technika odpowiadania na pytania zadawane w języku naturalnym w zdigitalizowanym systemie. Siri firmy Apple, Alexa firmy Amazon, asystent Google i Cortana firmy Microsoft to tylko niektóre przykłady wybitnych systemów kontroli jakości. Z systemów zapewniania jakości korzystało wiele dziedzin, takich jak opieka zdrowotna, bankowość i edukacja. Inteligencja tych systemów polega na zastosowaniu wyrafinowanych technik NLP. Metody systemu QA można dalej podzielić na trzy podejścia, a mianowicie oparte na wyszukiwaniu informacji (IR), oparte na wiedzy i hybrydowe. System zapewniania jakości oparty na podczerwieni zazwyczaj składa się z trzech podkomponentów. (1) Komponent przetwarzania pytań do identyfikacji szczegółów użytych do skonstruowania zapytania, takich jak przypadek i cel pytań oraz typ odpowiedzi. (2) Element przetwarzania dokumentów do wyszukiwania odpowiednich tekstów wstępnie napisanych z zestawu o dużej objętości istniejących dokumentów, przy użyciu informacji wyszukiwania opracowanych na podstawie zapytania wykonanego w trakcie przetwarzania zapytania. (3) Komponent przetwarzania odpowiedzi do filtrowania odpowiedzi kandydatów wejściowych z komponentu przetwarzania dokumentów. Odpowiedzi są następnie klasyfikowane zgodnie z ich trafnością, a następnie zwracają najwyżej ocenioną odpowiedź jako wynik. Systemy kontroli jakości oparte na IR są powszechnie stosowane w obszarach o ogromnym zbiorze gotowych tekstów, takich jak prawo i edukacja. Oparte na wiedzy systemy zapewniania jakości sprawdzają informacje zawarte w zorganizowanym źródle za pomocą opisu semantycznego opracowanego na podstawie pytań wejściowych. System ten składa się z dwóch głównych komponentów: (1) Bazy wiedzy, która zawiera obszerny zbiór informacji o zaprojektowanym polu, zwykle generowanych na podstawie ludzkich opinii eksperckich, używanych jako źródło odniesienia podczas procesu wnioskowania. (2) Silnik wnioskowania, który funkcjonował w celu wnioskowania osądu na podstawie informacji w bazie wiedzy na podstawie wprowadzonych pytań w celu uzyskania poprawnych odpowiedzi. Systemy zapewniania jakości oparte na wiedzy są przydatne w kontrolowanej domenie ze względu na brak dużej ilości wstępnie napisanego tekstu wejściowego; jego informacje w bazie wiedzy są specjalnie zaprojektowane zgodnie z daną dziedziną. Hybrydowe systemy zapewniania jakości to połączenie obu połówek systemów zapewniania jakości opartych na podczerwieni i wiedzy. Pytania są oceniane semantycznie jak w systemie opartym na wiedzy, natomiast odpowiedzi generowane są w podejściu IR. Analiza nastrojów (eksploracja opinii) to technika analizy obliczeniowej danych tekstowych, które zawierają subiektywne informacje, takie jak opinie i myśli. Analiza polega na identyfikacji, filtrowaniu, uzyskiwaniu i kwantyfikacji analitycznej, przy użyciu NLP, analizy tekstu i technik lingwistyki obliczeniowej na danych dla głosów klientów. Firmy stopniowo angażują się w pozyskiwanie większej ilości danych, aby zrozumieć zachowanie swoich klientów, w szczególności w odniesieniu do ich produktów lub usług. Tylko dzięki zrozumieniu klientów firma może przynosić zyski poprzez sprzedaż produktów lub świadczenie usług spełniających wymagania klientów. Takie zachowanie biznesowe doprowadziło do rozpowszechnienia analizy sentymentu. Ze względu na analityczny charakter danych subiektywnych, analiza sentymentu ma większe zastosowanie w marketingu, naukach politycznych i społecznych. Ale ma również zastosowanie w środowiskach produkcyjnych do analizy wydajności pracowników i informacji zwrotnych. Technika analizy nastrojów jest dalej podzielona na trzy podgrupy: (1) Analiza na poziomie dokumentu opiera się na całym dokumencie pod kątem ogólnej klasyfikacji nastrojów jako pozytywne, neutralne lub negatywne. Zakłada się, że dokument reprezentuje lub opisuje jeden podmiot. (2) Analiza na poziomie zdania jest bardziej złożona w porównaniu z analizą dokumentów. Musi najpierw zidentyfikować pojedyncze zdanie ich subiektywnego i obiektywnego, a następnie określić schizmę sentymentalną nad elementami opisanymi w zdaniu. (3) Analiza aspektowa rozróżnia wszystkie poglądy w całym dokumencie i klasyfikuje cechy podmiotu zgodnie z poglądami, umożliwia uzyskanie szerszych i całościowych informacji na temat analizowanego tematu, w przeciwieństwie do pojedynczego podmiotu lub polaryzacji. Pozwala to analizatorowi uzyskać szczegółowe informacje na dany temat z wielu perspektyw.

Analiza dźwięku

Analiza dźwięku to rodzaj analizy przeprowadzanej na nieustrukturyzowanych danych dźwiękowych w celu wyodrębnienia istotnych informacji w celu usprawnienia działalności. Tego typu analiza jest szczególnie istotna w sektorze usług biznesowych. Analiza ludzkiego języka mówionego jest uważana za część analizy dźwięku, zwanej analizą mowy. Wraz ze wzrostem orientacji biznesowej na klienta, analizy audio mogą być stosowane w środowisku produkcyjnym w celu uzyskiwania konstruktywnych danych wejściowych z informacji zwrotnych od klientów opartych na dźwięku w celu poprawy. Istnieją dwa ogólne rodzaje technik analizy dźwięku, a mianowicie analiza fonetyczna i ciągłe rozpoznawanie mowy z dużym słownictwem (LVCSR). Analiza oparta na fonetyce wykorzystuje sekwencję dźwięków w dźwięku lub zdaniu, znaną jako fonem, jako podstawową jednostkę analizy. Fonemy są jednostką różnicującą słowa w medium analitycznym według wymowy. Ta technika obejmuje fazę indeksowania i wyszukiwania. W fazie indeksowania medium jest tłumaczone na sekwencję fonemów. Następnie, w fazie wyszukiwania, algorytm wyszukuje fonetyczną reprezentację wejściowych terminów wyszukiwania. Podejście to koduje fonemy w matrycę możliwości, do której następnie odwołuje się dopasowywanie wyszukiwanych terminów w procesie analizy. Zaletą tej techniki jest możliwość wyszukiwania słów, które nie są z góry określone, jeśli fonemy są identyfikowalne. Przetwarzanie jest również szybsze w porównaniu z LVCSR. Wadą tej techniki jest wolniejszy proces wyszukiwania, ponieważ fonemy nie mogą być zindeksowane, tak jak słowo, i zajmują więcej miejsca w pamięci. Technika LVCSR sprawdza prawdopodobieństwo różnych sekwencji słów przy użyciu podejścia statystycznego, umożliwiając wyższą dokładność w porównaniu z podejściem wyszukiwania fonetycznego. Podobnie jak w przypadku podejścia opartego na fonetyce, zaangażowane są dwie fazy indeksowania i wyszukiwania. W pierwszej fazie indeksowania zaimplementowano specjalny algorytm automatycznego rozpoznawania mowy w celu transliteracji dźwięku lub mowy na pasujące słowa. Słowa zostały wstępnie zdefiniowane w liście słowników. Rozpoznawane jest każde słowo, a najbliższe pasujące słowo zostanie użyte, jeśli nie zostanie znalezione rzeczywiste słowo, w celu utworzenia pełnej transkrypcji mowy z przeszukiwalnym plikiem indeksu. Druga faza wyszukiwania, standardowy algorytm wyszukiwania tekstu, została wykorzystana do przetworzenia wyszukiwanego terminu w transkrypcji. Chociaż technika ta wymaga większych zasobów przetwarzania niż techniki oparte na fonetyce, wygenerowany transkrypcja mowy umożliwia bardziej efektywne i wydajne wykorzystanie zebranych informacji.

Analiza wideo

Postęp technologii komputerowych i obrazowania cyfrowego napędza wdrożenie analizy treści wideo (VCA) w celu uzyskania ważnych informacji z treści wideo. Wraz ze zwiększoną mocą obliczeniową można wdrożyć VCA w celu niemal natychmiastowego generowania znaczących informacji i spostrzeżeń. Nowoczesne zakłady produkcyjne wyposażone w dużą liczbę systemów CCTV i kamer do monitorowania procesów produkcyjnych, stanu urządzeń i przepływów materiałów na hali produkcyjnej. Dzięki takim urządzeniom do obrazowania, kontrolerzy produkcji będą mogli monitorować wszystkie ważne procesy w scentralizowanej sterowni. Dysk BD wygenerowany z kanałów wideo może być dalej analizowany w celu uzyskania lepszego BI i praktycznych spostrzeżeń. Przykładami insightów generowanych z VCA są formy wzorców, cech, atrybutów i konkretnych zdarzeń, pozwalające na podejmowanie skutecznych decyzji i sprawne wdrażanie przez właściwe osoby w odpowiednim czasie. Oprócz uzyskiwanych informacji monitorujących, kolejnym ważnym obszarem zastosowania VCA jest automatyczne indeksowanie i wyszukiwanie wideo. Wraz z rozwojem wielu form treści wideo i źródeł indeksowanie nośników treści przeszukiwalnych dla IE ma kluczowe znaczenie. Proces indeksowania odbywa się na podstawie różnych poziomów danych zawartych w filmie, takich jak teksty, audio, metadane i treści wizualne. Różne techniki analityczne można łączyć w celu analizy zawartości do indeksowania; na przykład analiza tekstu może być używana do indeksowania wideo w transkrypcjach i analizy dźwięku w ścieżkach dźwiękowych zawartych w wideo. W architekturze systemowej VCA były dwie główne techniki: serwerowa i brzegowa. W przypadku konfiguracji opartej na serwerze skonfigurowano scentralizowany i dedykowany serwer, aby odbierać wszystkie filmy zarejestrowane przez każdą kamerę. VCA zostały wykonane bezpośrednio na tym serwerze przy użyciu wszystkich odebranych filmów.Głównym aspektem tej konfiguracji jest ograniczenie przepustowości transmisji danych wideo. Aby sprostać temu ograniczeniu, dane wideo ze źródła są często kompresowane. Ta kompresja powoduje utratę informacji w filmie, co wpłynie na dokładność analizy. Jednak konfiguracja oparta na serwerze umożliwia łatwiejszą konserwację i, co najważniejsze, ekonomię skali, przezwyciężając ograniczenia przepustowości. W przeciwieństwie do tego, konfiguracja oparta na krawędziach zapewnia bezpośrednie VCA stosowane lokalnie w systemie obrazowania przy użyciu nieprzetworzonych danych przechwyconych przez kamerę. Taka konfiguracja nie powoduje utraty informacji, ponieważ użyto nieprzetworzonych danych wideo. Cała zawartość wideo jest dostępna do analizy, co przyczynia się do zwiększenia dokładności analizy. Jednak koszty konfiguracji i konserwacji są wyższe w przypadku tej konfiguracji, a wydajność przetwarzania systemu jest również niższa w porównaniu z systemami opartymi na serwerze.

Analiza wideo

Postęp technologii komputerowych i obrazowania cyfrowego napędza wdrożenie analizy treści wideo (VCA) w celu uzyskania ważnych informacji z treści wideo. Wraz ze zwiększoną mocą obliczeniową można wdrożyć VCA w celu niemal natychmiastowego generowania znaczących informacji i spostrzeżeń. Nowoczesne zakłady produkcyjne wyposażone w dużą liczbę systemów CCTV i kamer do monitorowania procesów produkcyjnych, stanu urządzeń i przepływów materiałów na hali produkcyjnej. Dzięki takim urządzeniom do obrazowania, kontrolerzy produkcji będą mogli monitorować wszystkie ważne procesy w scentralizowanej sterowni. Dysk BD wygenerowany z kanałów wideo może być dalej analizowany w celu uzyskania lepszego BI i praktycznych spostrzeżeń. Przykładami insightów generowanych z VCA są formy wzorców, cech, atrybutów i konkretnych zdarzeń, pozwalające na podejmowanie skutecznych decyzji i sprawne wdrażanie przez właściwe osoby we właściwym czasie. Oprócz uzyskiwanych informacji monitorujących, kolejnym ważnym obszarem zastosowania VCA jest automatyczne indeksowanie i wyszukiwanie wideo. Wraz z rozwojem wielu form treści wideo i źródeł indeksowanie nośników treści przeszukiwalnych dla IE ma kluczowe znaczenie. Proces indeksowania odbywa się na podstawie różnych poziomów danych zawartych w filmie, takich jak teksty, audio, metadane i treści wizualne. Różne techniki analityczne można łączyć w celu analizy zawartości do indeksowania; na przykład analiza tekstu może być używana do indeksowania wideo w transkrypcjach i analizy dźwięku w ścieżkach dźwiękowych zawartych w wideo. W architekturze systemowej VCA były dwie główne techniki: serwerowa i brzegowa. W przypadku konfiguracji opartej na serwerze skonfigurowano scentralizowany i dedykowany serwer, aby odbierać wszystkie filmy zarejestrowane przez każdą kamerę. VCA zostały wykonane bezpośrednio na tym serwerze przy użyciu wszystkich odebranych filmów.Głównym aspektem tej konfiguracji jest ograniczenie przepustowości transmisji danych wideo. Aby sprostać temu ograniczeniu, dane wideo ze źródła są często kompresowane. Ta kompresja powoduje utratę informacji w filmie, co wpłynie na dokładność analizy. Jednak konfiguracja oparta na serwerze umożliwia łatwiejszą konserwację i, co najważniejsze, ekonomię skali, przezwyciężając ograniczenia przepustowości. W przeciwieństwie do tego, konfiguracja oparta na krawędziach zapewnia bezpośrednie VCA stosowane lokalnie w systemie obrazowania przy użyciu nieprzetworzonych danych przechwyconych przez kamerę. Taka konfiguracja nie powoduje utraty informacji, ponieważ użyto nieprzetworzonych danych wideo. Cała zawartość wideo jest dostępna do analizy, co przyczynia się do zwiększenia dokładności analizy. Jednak koszty konfiguracji i konserwacji są wyższe w przypadku tej konfiguracji, a wydajność przetwarzania systemu jest również niższa w porównaniu z systemami opartymi na serwerze.

Analityka społeczna

W zrozumieniu wymagań klientów w zakresie opracowywania strategii biznesowej i doskonalenia procesów, korporacje wykorzystują wiele podejść, aby zbliżyć się do obecnych klientów i jednocześnie przyciągnąć potencjalnych klientów. Na podstawie tego podejścia front-end, analitycy społecznościowi opracowują informacje z pierwszej ręki, które następnie przekształcają się w strategię biznesową, a następnie rozprzestrzeniają się w produkcji w celu wytworzenia wymaganych produktów. Analityka społeczna obejmowała analizy różnych mediów społecznościowych, które zawierają zarówno dane ustrukturyzowane, jak i nieustrukturyzowane. Wymiana treści za pośrednictwem platformy mediów społecznościowych obejmuje wielopoziomowe społeczności i portale, zawierające ogromne ilości danych różnego typu. Ze względu na ogromną bazę użytkowników i różnorodność udostępnianych informacji, media społecznościowe są jednym z największych generatorów danych. Platformy mediów społecznościowych można podzielić na sieci społecznościowe, takie jak Facebook i LinkedIn, blogi piszące treści, takie jak Wordpress i Blogger, platformy udostępniania multimediów, takie jak YouTube i Instagram, wiki do udostępniania wiedzy, takie jak Wikipedia i Wikihow, witryny z recenzjami treści, takie jak Trustpilot i Testfreaks , witryny z pytaniami i odpowiedziami, takie jak Ask.com, zakładki społecznościowe, takie jak Pinterest i StumbleUpon, oraz mikroblogi, takie jak Twitter i Tumblr. Głównym źródłem informacji z analityki mediów społecznościowych są treści generowane przez użytkowników, takie jak obrazy, filmy i nastroje, powiązane z ich relacjami i interakcjami między obiektami sieciowymi, takimi jak produkty, firmy, ludzie i miejsca. W odniesieniu do tego grupowania klasyfikuje się dwa podejścia analityczne, a następnie omówiono poniżej.

Analityka strukturalna

Jest to podejście analityczne do syntezy i oceny cech organizacyjnych sieci społecznościowych w celu wydobycia znaczących spostrzeżeń i inteligencji z relacji ustanowionych między zaangażowanymi podmiotami. Proces analityczny wykorzystuje sieci i teorię grafów, reprezentując osoby lub podmioty w sieci jako węzły i łącząc je więzami na podstawie ustanowionej relacji lub interakcji. Węzły są reprezentowane jako punkty, a powiązania są reprezentowane jako linie w tych sieciach i zwykle wizualizowane za pomocą socjogramów. Wizualizacja węzłów i linii odzwierciedla interesujące cechy wśród podmiotów, zapewniając jakościowe oceny sieci. Ta technika jest również znana jako analityka sieci społecznościowych.`

Analiza treści

To analityczne podejście koncentruje się na treściach publikowanych przez użytkowników na różnych platformach społecznościowych i analizowaniu ich w celu zebrania wymaganych informacji i wykorzystania ich do celów biznesowych. Ponieważ dane te zostały opublikowane z różnych źródeł i osób, często są one generowane w dużych ilościach, nieustrukturyzowane, stochastyczne i dynamiczne. Różne techniki analityczne, jak omówiono wcześniej, są wykorzystywane do przetwarzania tych danych w celu uzyskania informacji. Proces analityczny można sprowadzić do identyfikacji danych, analizy danych i interpretacji informacji. Identyfikacja danych polega na podzieleniu i zidentyfikowaniu dostępnych danych na podzbiory, aby położyć nacisk na ułatwienie analiz. Analiza danych to działanie polegające na przekształceniu surowych danych w informacje, które mogą prowadzić do nowej wiedzy i wartości biznesowej. Interpretacja informacji jest ostatnim krokiem do wyciągnięcia wniosków i wydobycia ważnej spostrzegawczości pytań, na które należy odpowiedzieć na podstawie analizowanych danych. Dane lub informacje są często przedstawiane w łatwych do zrozumienia wizualizacjach, takich jak wykresy lub wykresy, dzięki czemu ostateczny odbiorca informacji, który na ogół nie jest osobą techniczną, jest w stanie zrozumieć i podjąć decyzje biznesowe. Techniki wykorzystywane do wydobywania informacji z sieci społecznościowych są ogólnie podzielone na trzy główne metody: (1) wykrywanie społeczności; (2) analiza wpływu społecznego; oraz (3) przewidywania linków.

Wykrywanie społeczności to jeden z najpopularniejszych tematów we współczesnej nauce o sieciach. Jest to sposób na zidentyfikowanie niejawnego powiązania na węzłach w sieci, które są gęściej połączone niż z innymi, tworzącymi określoną społeczność. Społeczność w sieciach społecznościowych to grupa użytkowników, którzy w większym stopniu wchodzą w interakcję z wzorcem ograniczającym się do podsieci, w porównaniu z resztą sieci. Te nieprawidłowości połączeń sugerują, że w sieci istnieje naturalny podział. Rozmiar sieci społecznościowej jest ogromny i zawiera miliony węzłów i linii. Zidentyfikowanie tych podstawowych struktur społeczności pomaga skompilować sieć, umożliwiając odkrycie obecnych wzorców zachowań i przewidywanie właściwości sieci. Może to zapewnić wgląd w zachowanie społeczności, a także w jaki sposób topologia sieci wpływa na siebie nawzajem. Przykładem korzyści z wykrywania społeczności jest umożliwienie firmie dostarczania bardziej odpowiednich produktów zgodnie z wymaganiami i preferencjami poszczególnych społeczności.

Analiza wpływu społecznego to technika pomiaru wpływu każdej osoby w obrębie sieci społecznościowej oraz zidentyfikować najbardziej wpływową osobę. Modeluje i ocenia zmianę behawioralną spowodowaną przez kluczową osobę wpływającą, a także każdą połączoną osobę w sieci. Ta technika odkrywa wpływowe wzorce, a także dyfuzję wpływów w sieci, ułatwiając przykłady zastosowań proliferacji świadomości marki i adopcji wśród docelowych odbiorców.

Przewidywanie łączy to technika przewidywania przyszłych możliwych powiązań między węzłami w sieci. Służy również do przewidywania brakujących połączeń między niekompletnymi danymi. Sieci społecznościowe są dynamiczną strukturą i ewoluują w czasie. Rośnie w sposób ciągły, tworząc nowe węzły i wierzchołki. Dzięki zrozumieniu powiązania między węzłami - na przykład, jak zmienia się charakterystyka powiązania w czasie i jakie są czynniki wpływające na powiązania oraz w jaki sposób inne węzły wpływają na powiązanie - zapewni to użyteczną prognozę zachowania podmiotów. Ta technika zapewnia przydatne zastosowanie w prognozowaniu przyszłych wymagań produktowych.

Analityka predykcyjna

Analityka predykcyjna wykorzystywała zróżnicowane techniki statystyczne, od eksploracji danych po ML, do analizowania bieżących i historycznych danych w celu przewidywania możliwych przyszłych zdarzeń i wyników. Analityka predykcyjna odgrywa główną rolę w SM. Dzięki skutecznemu wdrożeniu przyniesie istotną zmianę w obecnym horyzoncie produkcyjnym z bezprecedensową poprawą wydajności produkcji we wszystkich aspektach kosztów, wydajności i jakości. Zasadniczo, techniki analizy predykcyjnej są wykorzystywane do wykrywania wzorców i zależności w danych, aby umożliwić analitykom zrozumienie wydajności i wygenerowanie skorelowanych prognoz, takich jak wymagania materiałowe, wydajność sprzętu i wpływ na jakość produktu. Podejście do analityki predykcyjnej można podzielić na dwie grupy:

(1) Odkrywanie wzorców, gdzie techniki statystyczne, takie jak średnie ruchome, zostały użyte do ujawnienia historycznych wzorców w danych, a następnie wykorzystuje wynik do ekstrapolacji do prognozowania przyszłego zachowania; (2) uchwycenie współzależności poprzez wykorzystanie technik statystycznych, takich jak regresja liniowa, w celu uzyskania współzależności między danymi wejściowymi analitycznymi a zmiennymi wynikowymi i wykorzystanie ich do tworzenia prognoz dotyczących zdarzeń.

Techniki analizy predykcyjnej w dużej mierze opierają się na metodach statystycznych do analizowania i wydobywania informacji z danych. Ogromna ilość danych, rozmiar i wysoka wymiarowość BD prowadzi do unikalnych wyzwań obliczeniowych i statystycznych w zakresie analizy. Kilka czynników wskazuje, że konwencjonalna metoda statystyczna nie jest odpowiednia dla BDA i wymagane jest nowe podejście analityczne. Po pierwsze, główna różnica między BD a konwencjonalnymi danymi procesu produkcyjnego polega na tym, że BD zawiera wszystkie dane dotyczące populacji w procesach. Konwencjonalne metody statystyczne oparto na badaniach istotności na podstawie danych pobranych z populacji, a opracowane informacje uogólniono, aby wywnioskować zachowanie populacji. Podejście to zastosowano ze względu na brak możliwości uzyskania pełnych danych o populacji przed cyfryzacją procesów produkcyjnych. W przeciwieństwie do tego, nowoczesne zdigitalizowane procesy produkcyjne są w stanie generować pełne dane dotyczące populacji w każdym procesie. Konwencjonalne podejścia statystyczne oparte na istotności pobranych danych spowodują, że dane będą niewykorzystane. Analiza danych o małej liczebności próby w metodzie konwencjonalnej ograniczy również dokładność analizy w wielowymiarowości danych, powodując ograniczenie lub utratę informacji. W rezultacie istotność statystyczna interpretowana w konwencjonalnych technikach statystycznych nie była odpowiednia dla ChAD. Po drugie, wydajność obliczeniowa metod konwencjonalnych nie była odpowiednia dla analizy dużych ilości danych. Nacisk konwencjonalnych technik statystycznych na leżące u podstaw modele prawdopodobieństwa, zakorzenione w istotności statystycznej, określone na podstawie losowych danych z próby na reprezentowanych niepewnościach populacji. Zastosowanie pełnych danych populacyjnych do wnioskowej analizy statystycznej w podejściu konwencjonalnym nie przyniesie znaczącego wyniku ze względu na mały błąd standardowy wywodzący się z prawie znanych niepewności populacji. Trzeci czynnik wiąże się z istotnymi cechami BD: niejednorodnością, fałszywymi korelacjami, przypadkową endogennością i akumulacją szumu. Niejednorodność w BD była spowodowana pozyskiwaniem danych z różnych źródeł, reprezentujących różne informacje o różnych populacjach obiektów. Dane były często niejasne, zawierały brakujące wartości, nadmiarowość i zakłamania, co powodowało trudności w bezpośrednim zastosowaniu. Niespójność danych spowoduje również, że dane subpopulacji o niskiej częstotliwości zostaną uznane za wartości odstające w dużych danych dotyczących populacji o wysokiej częstotliwości. Jednak stromy stosunek danych o dużej częstotliwości do wartości odstających przyćmi wpływ wartości odstających za pomocą zaawansowanych technik analitycznych (AA).

Pozorna korelacja. Wysoka wymiarowość BD wynikająca z ogromnej ilości danych może powodować fałszywą korelację. Jest to zjawisko, w którym wysoka wymiarowość danych powoduje fałszywe powiązania rzeczywistych nieskorelowanych zmiennych losowych, które następnie stają się skorelowane. Ten błąd spowoduje błędne wnioskowanie statystyczne prowadzące do fałszywych przewidywań lub prognoz uzyskanych z modelu. Przypadkowa endogenność. To kolejne zjawisko wywołane dużą wymiarowością BD. W przeciwieństwie do korelacji pozornej, endogeniczność incydentalna to rzeczywiste istnienie niezamierzonej korelacji między zmiennymi losowymi ze względu na dużą wymiarowość danych, zwłaszcza zmiennych objaśniających z błędami. Symptom ten pojawia się w wyniku pominięcia zmiennych, błędów pomiarowych i błędów selekcji. Często pojawia się w BD ze względu na (1) cyfryzację metodologii pomiaru, która skutkuje łatwością zbierania danych, a analitycy mają tendencję do zbierania jak największej ilości danych. Większa pojemność danych zwiększa prawdopodobieństwo przypadkowej korelacji z szumem resztkowym. (2) Wiele różnych źródeł generowania danych dla BD zwiększa prawdopodobieństwo błędów pomiarowych i błędu selekcji danych, co również prowadzi do przypadkowej endogeniczności.

Akumulacja hałasu. Analiza BD w celu wyodrębnienia informacji do przewidywania i prognozowania modelu wymaga równoczesnych oszacowań lub testów z wieloma różnymi parametrami. Ta duża liczba parametrów powoduje błędy szacowania obliczeń i kumuluje się, gdy model predykcyjny lub decyzyjny wykorzystuje te parametry. Te akumulacje hałasu będą miały znaczący wpływ na generowane modele, zwłaszcza w przypadku danych wielowymiarowych. Szum osiągnie stopień, w którym dominuje nad prawdziwymi sygnałami w modelu, powodując fałszywą lub niedokładną decyzję lub prognozę z modelu. Innymi słowy, prawdziwie znaczące zmienne z sygnałami opisowymi mogą pozostać niezauważone z powodu nagromadzenia szumu. Wewnętrzne cechy BD skutkują unikalnymi cechami, które ograniczają konwencjonalne techniki statystyczne w analizie danych. Firma BD stawiała również krytyczne wyzwania dla wydajności obliczeniowej. Biorąc pod uwagę omówione i podkreślone czynniki, pewne jest, że potrzebne są nowe techniki analityczne, aby uzyskać znaczący wgląd z modeli predykcyjnych generowanych przy użyciu BD.

Zaawansowana analityka Big Data dla inteligentnej produkcji

Współczesne wyzwanie SM dla złożonego podejmowania decyzji odpowiada czterem głównym aspektom: (1) Zdolność do realistycznego modelowania rzeczywistych systemów produkcyjnych w celu gromadzenia informacji i danych; (2) zdolność do integracji spójnych, wiarygodnych i aktualnych danych dotyczących zakładu produkcyjnego; (3) zdolność do przetwarzania zebranych danych w celu uzyskania wymaganych informacji w ramach racjonalnych nakładów obliczeniowych; oraz (4) zdolność do włączenia systemów informacji zwrotnej do procesu produkcyjnego w celu ciągłego doskonalenia i ułatwiania ciągłych procedur podejmowania decyzji w czasie. BD i zaawansowana analityka do przewidywania, przepisywania i wykrywania to podstawa potrzebna do osiągnięcia powyższych czterech aspektów. Rozszerzenie dostępności BD w jej unikalnych cechach objętości, różnorodności, szybkości, prawdziwości, zmienności i wartości, wraz z postępem coraz większych technologii obliczeniowych i komunikacyjnych, było katalizatorem, który skłonił firmy produkcyjne do wdrożenia kombinacji technik różnorodnych i AA do wprowadzić usprawnienia procesów i wydajności do kontekstu SM. Te techniki AA można opisać jako:

•  Analityka opisowa: wstępny etap tworzenia podsumowania danych historycznych w celu wydobycia przydatnych informacji o przeszłych zdarzeniach, a także przygotowania danych do dalszej analizy pod kątem przyszłych zdarzeń. Do wykorzystania w retrospektywnych praktykach i prognozowaniu przyszłych wymagań biznesowych.
•  Analityka predykcyjna: zastosowanie podejścia analitycznego z dostępnymi danymi, zazwyczaj heterogenicznymi i dużymi ilościami danych, w celu przewidywania możliwych przyszłych zdarzeń, takich jak trendy, ruchy, zachowania i skłonności.
•  Analityka nakazowa: Odnosząc zarówno analitykę opisową, która dostarcza informacji o przeszłych zdarzeniach, jak i analizę predykcyjną, która przewiduje przyszłe zdarzenia, analiza nakazowa określa najlepsze rozwiązanie lub wynik z dostępnych opcji na podstawie znanych parametrów. Znajduje najlepsze opcje wyjścia procesu na podstawie informacji wejściowych.
•  Analityka detektywistyczna: Podejście do badania przyczyn i źródeł incydentów lub wariacji, które ograniczają zdolność procesów lub systemów do osiągania optymalnych wyników dzięki zebranym danym w celu wyeliminowania i skorygowania niewłaściwych wartości wykorzystywanych w analityce predykcyjnej i nakazowej.
•  Analityka poznawcza: Analiza generowania interpretacji na podstawie istniejących danych lub wzorców oraz wyciągania wniosków na podstawie istniejącej dostępnej wiedzy i danych wejściowych z powrotem do bazy wiedzy jako nowej wyuczonej funkcji. Automatyzuje wszystkie techniki analityczne w celu podejmowania trafniejszych decyzji w czasie poprzez samouczącą się pętlę informacji zwrotnych.

Wdrożenie AA for SM wymaga zaangażowania od najwyższego kierownictwa po halę produkcyjną w celu zapewnienia wydajności i skuteczności systemu. AA dla BD będzie w stanie udzielić odpowiedzi na pytania zadawane firmie dotyczące przeszłych zdarzeń (analityka opisowa), potencjalnych przewidywanych przyszłych zdarzeń (analityka predykcyjna) oraz opartych na dowodach decyzji dotyczących sposobu kapitalizacji przez firmę krótko-, średnio- i długo- plany terminowe (analityka nakazowa). SM wydajnie wzajemna produkcja jako centralny proces do poziomego SCM po obu stronach dostawcy w celu optymalizacji wprowadzania surowców i terminowego dostarczania produktów do klientów, a także pionowej komunikacji zarządzania w celu uzyskania efektywnych decyzji biznesowych. AA zapewni najlepszą kontrolowaną moc w modelu SM. Istnieje wiele zastosowań BDA w przemyśle wytwórczym, zarówno konwencjonalnym, jak i SM. Obszary wdrożenia obejmują kontrolę jakości, optymalizację procesów, wykrywanie usterek, diagnostykę sprzętu i konserwację predykcyjną. Wraz z zalewem BD we współczesnym zdigitalizowanym świecie, wydajne i efektywne wykorzystanie tych danych może zapewnić dogłębny wgląd i informacje na interesujący temat. Dzięki BDA można dokonać wszystkich powiązań podmiotów, prognozować zapotrzebowanie na produkt, ukierunkować marketing i możliwe wyniki zdarzeń, a powiązane działania można zaplanować z wyprzedzeniem. Takie podejście umożliwia obniżenie kosztów produkcji i utrzymania, a także konkurencyjność biznesową.

Rzeczywistość wirtualna i rozszerzona w Przemyśle 4.0

Był taki okres w naszej historii, kiedy prace przemysłowe wykonywano ręcznie przez roboty w ich domach. Później zaczęło się to dziać w przemyśle za pomocą maszyn. Proces przenoszenia gospodarki rolnej opartej na pracy do opartej na maszynach nazywa się rewolucją przemysłową. Ta transformacja rozpoczęła się początkowo w Wielkiej Brytanii w XVIII wieku, a następnie w krajach europejskich, takich jak Belgia, Niemcy i Francja, i powoli zaczęła rozprzestrzeniać się na cały świat. Rewolucja przemysłowa była wynikiem rozwoju wiedzy, urządzeń, maszyn, technologii i narzędzi, a zwłaszcza akceptacji społecznej i kulturowej ze strony ludzi oraz wynikających z niej korzyści. Wcześniej żelazo, stal i drewno były podstawowymi surowcami szeroko stosowanymi. W tym czasie dostępny był silnik parowy, silnik spalinowy i prąd. Później, w związku z rewolucją przemysłową, opracowano parowiec, lokomotywę, telegraf i radio. Idea wykorzystania nauki do rozwoju ludzkości w imię przemysłu czy fabryki zaczęła się zapuszczać. Transformację gospodarczą, która miała miejsce w krajach zachodnich w latach 1780-1850, nazwano pierwszą rewolucją przemysłową. Zdając sobie sprawę ze znaczenia nauki i technologii, wraz z większą liczbą badań, miała miejsce druga i trzecia rewolucja przemysłowa. Czas trwania każdej rewolucji przemysłowej wynosił około pięćdziesięciu lat. Był to okres masowej produkcji.

Przemysł 4.0

Istnieje powszechne przekonanie, że pierwsza rewolucja przemysłowa dotyczyła pary i wody, druga rewolucja przemysłowa dotyczyła stali, a trzecia rewolucja przemysłowa dotyczyła elektryczności, internetu i samochodów. Natomiast czwarta rewolucja przemysłowa dopiero się rozpoczęła. Termin Przemysł 4.0 został przedstawiony przez rząd niemiecki w 2011 r. na targach w Hanowerze Termin Przemysł 4.0 jest również nazywany "Internetem przemysłowym", "Fabryką cyfrową", "Inteligentną fabryką", "Fabryką przyszłości" i "Inteligentną produkcją". przez profesjonalistów. Przemysł 4.0 lub czwarta rewolucja przemysłowa opiera się na Internecie rzeczy (IoT), Internecie usług (IoS), systemach cyberfizycznych (CPS) oraz interakcji i wymianie danych między ludźmi (C2C), maszynami (M2M) oraz między ludźmi i maszyny (C2M). Ponieważ Przemysł 4.0 jest wciąż na wczesnym etapie, kilka organizacji badawczych, uniwersytetów i firm próbuje rozwinąć w pełni zautomatyzowany przemysł lub fabrykę opartą na Internecie, taką jak fabryka Siemens Amberg w Niemczech, gdzie fabryka o powierzchni 108 000 stóp kwadratowych może działać i montować komponenty bez udziału człowieka . Przemysł 4.0 ma kilka komponentów, takich jak przetwarzanie w chmurze, CPS, IoT, integracja systemów, produkcja addytywna (AM), rzeczywistość rozszerzona (AR), rzeczywistość wirtualna (VR), analiza danych, roboty AI itp.

Cloud computing - dane związane z produkcją będą przesyłane i udostępniane w technologii cloud, gdzie czas odbioru i reakcji wyniesie kilka milisekund. CPS - zaawansowane narzędzie informatyczne, które posiada dużą pojemność i dużą prędkość transmisji. CPS dostarcza rozwiązania oparte na aplikacjach programowych przy jednoczesnym ograniczeniu roli sprzętu czy urządzeń mechanicznych [8]. Inteligentne produkty są składnikami CPS. Może łączyć zarówno świat rzeczywisty, jak i wirtualny.

IoT - modernmanufactures zastanawiali się, jak przekształcić swój produkt w długoterminową usługę przynoszącą przychody. Doprowadziło ich do IoT. IoT to podstawowa integracja inteligentnych urządzeń, które są częścią inteligentnych projektów. Na przykład w inteligentnym domu telewizor, konsola do gier i klimatyzator, które mają adres IP, mogą być podłączone do IoT i uzyskać do nich dostęp z dowolnego miejsca. Otis dostarcza społeczeństwu windy z czujnikami, które przesyłają dane do chmury. Dane te są analizowane, a Otis oferuje pakiety serwisowe, co ponownie generuje dodatkowe przychody.

Integracja systemu - w Przemyśle 4.0 kilka działów w fabryce lub kilka fabryk w tej samej firmie zostaje zorganizowanych i połączonych za pomocą uniwersalnej integracji danych.

Produkcja przyrostowa (AM) - dzięki Industry 4.0 drukowanie 3D będzie szeroko stosowane do wytwarzania niestandardowych produktów. AR, VR - Usługi oparte na AR i VR oferują pracownikom i operatorom usprawnienie procesu decyzyjnego i ograniczenie procedur pracy.

Analiza danych - zbieranie i indeksowanie danych z różnych źródeł stanie się standardem w branżach, aby wspierać podejmowanie decyzji w czasie rzeczywistym.

Roboty AI - roboty zaczną bezpiecznie ze sobą współpracować z lub bez interwencji człowieka.

Rzeczywistość rozszerzona i rzeczywistość wirtualna

Ingerencja w pracę ludzi i maszyn w przemyśle powinna być elastyczna i adaptacyjna. Z tego powodu kilka branż zaczęło stosować AR i VR do szkolenia swoich pracowników. Dzięki temu szkoleniu mogą (i) przyspieszyć pracę lub zmienić konfigurację pracy, (ii) wspierać operatorów, (iii) wykonywać rozszerzoną wirtualność (AV ) szkolenie w zakresie kompilacji lub konstruowania części, (iv) efektywne administrowanie składem lub magazynem, (v) wspieranie diagnostyki podczas montażu oraz (vi) minimalizowanie ryzyka w środowisku pracy. Kluczowe technologie AV stosowane w branży to interakcja wyświetlania, śledzenie pozycjonowania i rejestracji, interakcja człowiek-komputer, wykrywanie i rozpoznawanie obiektów, kalibracja, renderowanie modeli, analiza przestrzeni 3D i wykrywanie kolizji . Próby symulacji 3D datuje się na rok 1930, kiedy Stanley G. Weinbaum użył pary gogli, aby obejrzeć swój film "Okulary Pigmaliona", aby poddać się holograficznemu doświadczeniu. Ten ostatni AR został po raz pierwszy wprowadzony przez pioniera komputerowego Ivana Sutherlanda w 1968 roku. Użył wyświetlacza montowanego na głowie (HMD), który był podłączony do stereoskopowego wyświetlacza z komputera. AR to technologia, która nakłada wirtualny obraz lub informacje w świecie rzeczywistym. Na przykład dodanie obrazu lub tekstu do wyświetlania użytkownika wirtualnie w środowisku rzeczywistym (RE). Tutaj RE reprezentuje otoczenie użytkownika. Niedawna gra Pokemon GO jest dobrym przykładem wykorzystania AR. Natomiast środowisko wirtualne (VE) to otoczenie całkowicie generowane przez komputer, na którym użytkownik nie będzie miał żadnego kontaktu z RE. VR to świat syntetyczny, który może, ale nie musi wyglądać jak świat rzeczywisty. Początkowo VR zawładnęło światem w latach 90. dzięki sprzętom takim jak Saga VR i Nintendo Virtual Boy. W XXI wieku, korzystając z VR, ludzie zaczęli tworzyć wirtualną reprezentację siebie zwaną "Avatary".

Biblioteki programistyczne

Istnieje kilka bibliotek programistycznych AV używanych w przemyśle. Wśród nich powszechnie stosowane są ARToolKit, ARTag, osgART i Vuforia. ARToolKit to biblioteka śledząca typu open source. Jest to najczęściej używane narzędzie do tworzenia AR. Hirokazu Kato opracował go po raz pierwszy w 1999 roku. ARToolKit był dalej rozwijany za pomocą ARTag. ARTag służy do uproszczenia wirtualnych obiektów w świecie rzeczywistym. OsgART to wieloplatformowa biblioteka C++. Kompiluje bibliotekę śledzenia z biblioteką 3D. Vuforia to zestaw do tworzenia oprogramowania AR dla telefonów komórkowych. Kompiluje wizję komputerową, zmiany planarne i obiekty 3D w czasie rzeczywistym. Wraz z niedawnym rozwojem rzeczywistości mieszanej (MR), AR i VR są coraz częściej wykorzystywane w branżach w celu skrócenia czasu przetwarzania, szkolenia i podejmowania decyzji. Mając to na uwadze, w tej części dokonano przeglądu osiągnięć AR i VR, narzędzi służących do konstruowania rzeczywistości oraz pola ich zastosowania w ostatnich czasach.

AR i VR w Przemyśle 4.0

AR i VR są bardzo powszechnie stosowane w przemyśle produkcyjnym w celu kontroli jakości produktu, szkolenia lub nauczania nowych rekrutów, projektowania przestrzeni roboczej, dostosowywania do potrzeb klienta, utrzymania fabryki, wytwarzania elementów i marketingu. Ocena jakości, która odbywa się metodą tradycyjną, zajmuje dużo czasu. Koncepcja koncepcyjna zaproponowana i zwalidowana przez Federicę Ferraguti i wspólników. wykazała, że AR można stosować w kontroli jakości. Dzięki takiemu podejściu operator może bezpośrednio zobaczyć produkt, jeśli osiągnął on specyfikacje jakościowe lub dalej wymagane udoskonalenia. Fabryki są prowadzone nie tylko przez ludzi, ale także przez maszyny, takie jak roboty. Nowa teoria głosi, że rzeczywistość wirtualna może być wykorzystywana do współpracy człowiek-maszyna w celu adaptacyjnej inżynierii produktów. Nie tylko w projektowaniu, produkcji i kontroli jakości produktu, ale także w marketingu produktu można zastosować AR i VR. W badaniu z 2013 r. dotyczącym marketingu obuwia wykorzystano technologie AR i VR w marketingu. Morenilla i in. opracował stereoskopowy system wizyjny oparty na oprogramowaniu 3D+ i projektowaniu obuwia. Komputer stacjonarny z systemem Windows 7 z procesorem i5, 4 GB RAM, nVidia. Do obejrzenia obuwia wykorzystano kartę graficzną Quadro 600, pakiet 3dVision, dwuczęstotliwościowy monitor LED 3D BENQ oraz CodeGear C++ RAD Studio 2007. Do interakcji z obuwiem użyto rękawicy VR od 5DT. Miał pięć czujników na zgięcie i dwa na obrót. Ta pojedyncza rękawica zastępuje pracę wykonywaną przez klawiaturę i mysz. Różne ułożenie gestów palców odpowiada różnym widokom. Do uchwycenia użytkownika lub konsumenta i obejrzenia go w AR wykorzystano kamerę LG Webpro 2 do przechwytywania scen. Do zlokalizowania pozycji stopy wykorzystano kamerę IR z konsoli Nintendo oraz urządzenie emitujące składające się z czterech diod LED . Po kalibracji i przetworzeniu końcowy wynik jest wyświetlany na monitorze w czasie rzeczywistym, gdzie konsument jest rzeczywisty, a but jest wirtualnie rozwinięty . Korzystając z tej metody, konsument może wirtualnie zobaczyć siebie noszącego buty. Za pomocą AR i VR można skonfigurować ergonomiczne miejsce pracy lub znaleźć ergonomię istniejącego miejsca pracy. Aplikacja do analizy ergonomicznej Ceit (CERAA) jest używana w mobilnym lub z automatycznym wirtualnym środowiskiem jaskini (CAVE), markerami, pilotami Wii i formularzami oceny, takimi jak szybka ocena całego ciała (REBA) i szybka ocena kończyn górnych (RULA) w celu znalezienia ergonomia biura. AR służy do dostosowywania przemysłu lub fabryki do potrzeb. Korzystanie z instrukcji lub opisów produktów w formacie PDF jest przestarzałe. Ostatnie badania z 2019 r. obejmowały AR, wykorzystując Unity 3D, Vuforia, HMD i HoloLens do konwersji papierowych podręczników na cyfrowe teksty, znaki i reprezentacje graficzne, pomagając operatorowi w łatwym zrozumieniu i korzystaniu z instrukcji. AR i VR są wykorzystywane do projektowania wirtualnego środowiska pracy, w którym operator lub mechanik może zrozumieć, w jaki sposób składane są części. Korzystając z AR i VR, możliwa jest również zdalna konserwacja. VR jest szczególnie używany do szkolenia aplikacji przemysłowych. Zamiast wizyty na miejscu i pochłaniania godzin pracy, wirtualna reprezentacja branży, magazynu i jego komponentów jest korzystna i cenna w szkoleniu nowicjusza. Badanie z 2019 roku przeprowadzone przez Pereza i innych opracowało VR branży, naśladując to samo środowisko wraz z robotami do szkolenia operatorów. Ogólnie rzecz biorąc, robot jest strukturą mechaniczną z elektroniką, silnikami, sterownikami i interfejsem człowiek-maszyna (HMI). Perez i in. zastąpiono ten interfejs HMI VR, który jest podłączony do robota. Zaproponowany przez nich system składa się z dwóch robotów: rzeczywistego i wirtualnego, oba sterowane przez ten sam kontroler, który został sparowany z VR . Czujniki zostały połączone z prawdziwym robotem, aby uzyskać pozę i dokładność. Aby wirtualnie stworzyć identyczne środowisko pracy, środowisko pracy zostało wstępnie zeskanowane za pomocą FARO Focus3D HDR. Otrzymana chmura punktów 3D została przetworzona za pomocą CloudCompare, wymodelowana za pomocą Blendera, a następnie przetworzona za pomocą Unity3D w celu wdrożenia HMI. Korzystając z Oculus Rift i HTC Vive, opracowany wirtualny został przesłany operatorom do szkolenia robotów symulowanych i obsługiwanych przez VR. Dwanaście osób przeszło szkolenie, a ich opinie zostały zarejestrowane za pomocą kwestionariusza. Uważali, że szkolenia VR podniosą efektywność środowiska pracy. AR, VR i produkcja addytywna są obecnie najcenniejszymi aspektami przemysłu lotniczego, ponieważ odgrywają ważną rolę w konserwacji, wykrywaniu błędów i bezpieczeństwie w samolotach oraz produkcji małych części do małych samolotów . Technologie AR i VR znajdują zastosowanie w budowie i projektowaniu budynków, maszyn i robotów. W szczególności AR jest używany w modelowaniu informacji o budynku (BIM). Informacje BIM zawarte w oprogramowaniu można wykorzystać podczas wizyty na miejscu. Może być również używany jako ostatni do celów konserwacyjnych. To z kolei przyczynia się do optymalizacji i zapobiegania defektom. AR i VR zrewolucjonizowały medycynę. Są wykorzystywane w analizie, rehabilitacji, chirurgii i leczeniu fobii. Wykorzystując czujnik ruchu skokowego, kamerę IR, diodę LED i Unity 3D, przeprowadzono analizy ruchu dłoni. Za pomocą Microsoft Kinect, Myo Armband i Unity 3D zapewniana jest rehabilitacja pacjentów po udarze. Gra, taka jak wirtualne środowisko, jest rozwijana przy użyciu Unity 3D, w której pacjenci mają grać, na przykład rzucać piłką lub owocem do kosza. Badanie z 2018 r. przeprowadzone przez Esfahlaniego. opracowało grę opartą na VR o nazwie "ReHabGame", aby leczyć pacjentów po udarze. Gra została opracowana przy użyciu silnika gry Unity, który integruje przechwytywanie ruchu / gestów, przetwarzanie obrazu, śledzenie szkieletu i emiter podczerwieni. W skład sprzętu wchodzą wyłącznie opaski na ramię Microsoft Kinect i Thalmic Labs Mayo. Śledzono kontrolę postawy, gesty, zakres ruchu. ReHabGame obejmuje trzy główne projekty gier: (i) osiągnij uchwycenie uwolnienia, (ii) osiągnij trzymanie prasy i (iii) osiągnij naciśnij. Gracze sięgają, chwytają, trzymają i wypuszczają wirtualne owoce w wirtualnym koszu. Ta gra obejmuje zginanie, rozciąganie, odwodzenie, przywodzenie, rotacja wewnętrzna/zewnętrzna oraz odwodzenie/przywodzenie poziome. W badaniu wzięło udział dwudziestu pacjentów z udarem. Większości pacjentów podobała się gra rehabilitacyjna i pozytywna informacja zwrotna. Edukacja jest najważniejsza dla wszystkich. AR i VR przechytrzają tradycyjne prezentacje na czarnych tablicach i w Power Point. Niezależnie od wieku, AR i VR mogą być wykorzystywane do nauczania i szkolenia młodych i starszych. AR jest pomocny w osiąganiu wyników w nauce uczniów. VR jest wykorzystywany w szkoleniach z bankomatów dla osób starszych. Szkolenia wirtualne są również oferowane operatorom przemysłowym. W niedawnym badaniu opracowano VR procesu wydobywczego. Pracownicy byli szkoleni i oceniani za pomocą kwestionariusza. W badaniu 2020 wykorzystano technikę nawigacji wspomaganej komputerowo (CAN) z wykorzystaniem AR Roadmap, Tap to Place i HoloLens Cursor do przeprowadzenia operacji kręgosłupa. W badaniu opartym na VR wykorzystano Oculus Rift, nVisor MH60, EON Studio do leczenia akrofobii - lęku przed wzrostem. Terapia polega na opracowaniu wirtualnego scenariusza wysokościowego, takiego jak wzgórze, wysoki budynek, i poproszeniu pacjentów o chodzenie i przekraczanie dużej wysokości z jednego punktu do drugiego . Poza przemysłem, edukacją i medycyną AR i VR znajdują zastosowanie również w innych dziedzinach. Turystyka, gry, choreografia i satysfakcja klienta to tylko niektóre z nich

Wniosek

Dokonaliśmy oceny i przeglądu wdrożenia AR i VR w Przemyśle 4.0. Badacze wymyślili raczej tanie urządzenia i własne algorytmy niż tradycyjne komercyjne oprogramowanie, takie jak CAVE, które kosztuje więcej. Niektóre artykuły proponowały teorię pojęciową, podczas gdy inne przedstawiały ilościową i jakościową oceny. Ich wyniki sugerują, że AR i VR odgrywają ważną rolę w minimalizowaniu czasu podejmowania decyzji i przetwarzania w czasie rzeczywistym. W środowisku branżowym wykorzystanie AR i VR jest bardziej widoczne. Jednak poza przemysłem korzenie AR i VR nie są głębokie. Inne dziedziny, takie jak edukacja, turystyka i marketing klienta, zaczęły stopniowo wykorzystywać AR i VR i można się spodziewać, że w końcu korzenie mogą się pogłębiać.

Cyberbezpieczeństwo: trendy i wyzwania w kierunku Przemysłu 4.0

W dzisiejszych czasach branża deweloperska stoi w obliczu wyrafinowanego popytu pośród rosnącej konkurencji. Szybki postęp technologiczny doprowadził do powstania rewolucji przemysłowej 4.0. Integracja technologii informatycznych i operacji biznesowych wiąże się z kilkoma wyzwaniami, z których cyberbezpieczeństwo ma pierwszorzędne znaczenie. Cyberbezpieczeństwo odnosi się do aspektów technologii, które dotyczą poufności, dostępności i integralności danych w cyberprzestrzeni i są uważane za powiązane z innymi aspektami bezpieczeństwa. Niektóre branże uważają cyberbezpieczeństwo za kluczowe, ponieważ ten aspekt pomaga chronić poufne informacje specyficzne dla ludzi lub systemów przed nadużyciami, atakami, kradzieżą i niewłaściwym wykorzystaniem w przestrzeni cyfrowej. Łączność sieciowa stale rośnie; w związku z tym istnieje szansa, że dane będą bardziej podatne na cyberataki, w których dane mogą zostać wykorzystane w celu uzyskania korzyści finansowych lub strategicznych. Większość organizacji traktuje cyberbezpieczeństwo jako część domeny technologicznej. Mimo że organizacje znają potencjalne zagrożenia i sposób, w jaki te zagrożenia mogą wpłynąć na działalność biznesową, typową skłonnością nie jest wskazywanie luk w zabezpieczeniach . Ostatnio wiele dużych firm wzmocniło swoją infrastrukturę cyberbezpieczeństwa. Potrzebny jest znaczny kapitał, aby sformułować nowe strategie w celu ułatwienia postępu technologicznego w zakresie bezpieczeństwa w technologii informacyjnej (IT), aby ograniczyć ryzyko i wpływ cyberataków. Bezpieczeństwo cybernetyczne jest uważane przez większość organizacji przede wszystkim za problem technologiczny. Chociaż są one wyczulone na zagrożenia i skutki dla ich działalności/działania, organizacje zwykle nie ujawniają żadnych luk w zabezpieczeniach . Większość dużych firm znacznie wzmocniła swoje możliwości w zakresie cyberbezpieczeństwa w ostatnich latach. Ogromne inwestycje są przeznaczane na rozwój nowych strategii wraz z rozwojem technologicznym w zakresie bezpieczeństwa technologii informatycznych (IT), aby zmniejszyć ryzyko cyberataku. Według financesonline.com, sektor rządowy ma najwyższe wydatki na cyberbezpieczeństwo z 11,9% w 2019 r. Za nim plasuje się firma telekomunikacyjna z 11,8% i branże z 11,0%. Na podstawie analizy przeprowadzonej przez roadbandsearch.net szacuje się, że światowy rynek cyberbezpieczeństwa osiągnie w 2019 r. 167 miliardów dolarów. Wraz z zaawansowaną erą cyfrową i wpływem cyberataków przewiduje się, że rynek cyberbezpieczeństwa będzie jedną z lukratywnych branż w nadchodzących latach .

Wstęp

Przemysł 4.0 to szeroki parasol technologii, w których szeroko wykorzystuje się automatyzację, robotykę, sztuczną inteligencję, Internet rzeczy (IoT), systemy gromadzenia danych, czujniki, zaawansowaną inżynierię i precyzyjne sterowanie komputerowe. Wykorzystując jeden lub więcej systemów, produkcja przemysłowa może zostać przekształcona za pomocą technologii cyfrowej zapewniającej lepszą wydajność i zrównoważony rozwój. Niemniej jednak transformacja cyfrowa niesie ze sobą znaczne narażenie na zagrożenia bezpieczeństwa cybernetycznego. W następnej sekcji znajduje się krótka dyskusja na temat dominujących wyzwań wpływających na bezpieczeństwo. Ponadto omawiane są przyszłe wyzwania i rozwój technologiczny.

Najnowsze trendy

Serwery WWW

Duża część ataków cybernetycznych jest wymierzana w organizacyjne serwery internetowe, ponieważ maszyny te przechowują i hostują poufne dane. Cyberprzestępcy bardzo często atakują serwery, ponieważ dane mogą zostać skradzione lub złośliwy kod może zostać wstrzyknięty do sieci. Zazwyczaj złośliwy kod dostaje się do serwera organizacji za pomocą legalnych serwerów internetowych, które przejęli przestępcy. Kradzież danych to bardzo istotny problem, ponieważ media szybko angażują się w sprawy związane z kradzieżą danych. Z tych powodów należy zwrócić szczególną uwagę na opracowanie bezpieczniejszych narzędzi i systemów wykrywania ataków, które mogą chronić serwery i zapobiegać potencjalnym atakom.

Przetwarzanie w chmurze

Zastosowanie chmury obliczeniowej znacznie wzrosło. Coraz więcej firm migruje do chmury, aby świadczyć usługi lub przechowywać dane. Istnieje wyraźna tendencja do pojawiania się chmury obliczeniowej. Ten najnowszy trend stanowi kolejne ogromne wyzwanie dla bezpieczeństwa cybernetycznego, ponieważ ruch może omijać tradycyjne punkty kontroli. Dodatkowo, wraz ze wzrostem liczby aplikacji dostępnych w chmurze, kontrola zasad dla aplikacji internetowych i usług w chmurze również będzie musiała ewoluować, aby zapobiec utracie cennych informacji. Ponieważ technologia i usługi w chmurze mogą zapewniać ogromne możliwości, ważne jest skuteczne radzenie sobie z zagrożeniami cybernetycznymi, które w coraz większym stopniu dotyczą środowiska chmury.

Zaawansowane trwałe zagrożenie

Wśród kilku typów ataków, zaawansowane trwałe zagrożenie (APT) odnosi się do ataku, w którym jedna lub więcej osób tworzy długotrwałą, ale nielegalną obecność w celu wydobycia poufnych informacji z tej sieci . Osoby atakujące muszą pozostać niepozorne lub niewykrywalne przez dłuższy czas, aby atakować systemy za pomocą APT. Chociaż jednym z aspektów ataku jest natychmiastowy zysk pieniężny, APT wykraczają poza początkowe cele i przez długi czas zagrażają systemom. Cyberprzestępcy stosują coraz bardziej niejasne i wyrafinowane techniki w celu skompromitowania sieci; w związku z tym usługi bezpieczeństwa muszą nadążyć lub wyprzedzić atakujących, aby wykryć obecne i potencjalne przyszłe zagrożenia.

Inteligentne telefony komórkowe

Technologia mobilna znacznie się rozwinęła, a smartfon jest obecnie platformą, która zapewnia wygodny dostęp do informacji i usług. Niemniej jednak zwiększona dostępność informacji w ekosystemie smartfonów sprawiła, że sieć ta stała się celem cyberataków. Ryzyko narażenia na cyber-zagrożenia są większe, ponieważ smartfon jest używany do zadań osobistych, takich jak przeglądanie mediów społecznościowych, komunikacja e-mail i transakcje finansowe za pośrednictwem telefonu. Rosnąca popularność smartfona doprowadziła do tego, że liczni napastnicy atakują ten system. Ze względu na bardzo dynamiczny charakter technologii bezpieczeństwo w domenie mobilnej powinno być również egzekwowane jako kultura.

Nowy protokół internetowy

Protokół internetowy (IP) to zestaw reguł, który umożliwia urządzeniom identyfikowanie innych urządzeń i łączenie się z nimi. IPv6 to najnowsza wersja protokołu, stanowiąca szkielet sieci komercyjnych i dużej części Internetu. IPv6 zastępuje poprzednią wersję IPv4 i ostatecznie zastąpi IPv4, aby stać się domyślnym protokołem w warstwie sieci. IPv6 ułatwia przekazywanie ruchu typu end-to-end przez interfejsy sieciowe. Adopcja IPv6 jest następstwem zwiększonego zapotrzebowania na przestrzeń adresową do łączenia masowego napływu urządzeń. Ponadto IPv6 oferuje zaawansowane zabezpieczenia, zmniejsza obciążenie routerów i oferuje przepisy dotyczące egzekwowania jakości usług (QoS).

Szyfrowanie kodu

Szyfrowanie to proces stosowany do bezpieczeństwa danych, w którym informacje są przekształcane za pomocą tajnego klucza do nieczytelnego formatu. Szyfrowanie jest jednym z najlepszych sposobów zapewnienia bezpieczeństwa danych. Szyfrowanie wymaga algorytmu do transformacji danych, który zazwyczaj jest zasilany kluczem szyfrowania definiującym sposób transformacji danych. Szyfrowanie zasadniczo chroni integralność danych i prywatność; jednak wysoce złożone szyfrowanie może powodować problemy dotyczące bezpieczeństwa cybernetycznego. Dane są również szyfrowane podczas przesyłania z jednego końca sieci na drugi (np. internet, mikrofon bezprzewodowy, telefony komórkowe, domofon). Szyfrowanie może pomóc w identyfikacji wycieku.

Inżynieria społeczna

Cyberprzestępcy mogą wykorzystywać socjotechnikę do oszukańczego manipulowania osobami i wydobywania poufnych informacji. Inżynieria społeczna opiera się bardziej na hakowaniu ludzkiej psychologii niż technologii. Ataki oparte na technologii wykorzystują złośliwe oprogramowanie, aby bezprawnie uzyskać dostęp do danych, systemów i całych budynków. Jedną z form ataku socjotechnicznego może być osoba podszywająca się pod legalnego pracownika firmy (np. banków, klubów, e-commerce) i nakłonić użytkownika do podania przez telefon poufnych danych, takich jak hasło lub numer karty kredytowej. Podobnie osoby atakujące mogą wykorzystać podszywanie się pod inne osoby, aby ułatwić wejście do budynków zabezpieczonych elektronicznymi systemami wejściowymi. Takiego wpisu można dokonać za pomocą skradzionych haseł, kodów dostępu itp.

Exploity w mediach społecznościowych

W odniesieniu do wcześniejszej sekcji rosnące wykorzystanie mediów społecznościowych doprowadziłoby do osobistych zagrożeń cybernetycznych. Poparcie mediów społecznościowych wśród organizacji gwałtownie rośnie wraz z ryzykiem ataku. Wraz z radykalnym postępem na różnych platformach, biznes może spodziewać się wzrostu liczby profili w mediach społecznościowych wykorzystywanych jako droga do strategii inżynierii społecznej. Na przykład osoby atakujące mogą odwiedzać witryny internetowe, takie jak LinkedIn, aby wykryć wszystkich użytkowników pracujących w firmie i zebrać wiele danych osobowych w celu wymyślenia ataku. Ostatnio niektóre portale społecznościowe, takie jak Yandex z siedzibą w Rosji, umożliwiają zwykłym użytkownikom wyszukiwanie informacji o danej osobie, takich jak konto w mediach społecznościowych, po prostu przesyłając zdjęcie twarzy danej osoby. Aby poradzić sobie z takimi zagrożeniami, firmy musiałyby wykroczyć poza podstawy rozwoju polityki i procesów w kierunku bardziej innowacyjnych technologii, takich jak zapobieganie wyciekom danych, ulepszone monitorowanie sieci i analiza plików dziennika. Szkolenie pracowników w zakresie świadomości bezpieczeństwa jest również skutecznym środkiem odstraszania od socjotechniki.

Atak złej uniwersalnej magistrali szeregowej (USB)

Złe USB jest również uważane za złośliwy atak USB, w którym proste urządzenie USB (tj. pendrive USB) może zostać przekształcone przez atakujących w klawiaturę, aby użyć tych urządzeń do wpisywania złośliwych poleceń i przejęcia kontroli nad komputerem ofiary. Jest to nowy rodzaj metody ataku, o której po raz pierwszy wspomniał badacz bezpieczeństwa Karsten Nohl na konferencji Black Hat w 2014 r., a kod ataku został udostępniony w interesie publicznym. Podstawową zasadą ataku było zastosowanie inżynierii wstecznej w oprogramowaniu mikrokontrolerów USB, a tym samym oprogramowanie zostało przeprogramowane, aby urządzenie USB mogło imitować funkcje klawiatury. Jak to ,że atak został przeprowadzony na poziomie oprogramowania układowego, przechowywanie szkodliwego programu może również odbywać się w zapisywalnym kodzie na podstawowym poziomie wejścia/wyjścia USB (I/O), w którym nawet jeśli cała zawartość pamięci flash USB zostanie usunięta, nie miałby żadnego wpływu. Sugeruje to, że złośliwe oprogramowanie jest w zasadzie niezdatne do łatania. Dlatego trudno jest uniknąć takiego ataku ze względu na zaangażowanie socjotechniki. Na przykład urządzenie USB można łatwo uzyskać za jednorazową cenę.

Atak na system z luką powietrzną

W kontekście bezpieczeństwa cybernetycznego, luka powietrzna może oznaczać środek bezpieczeństwa sieci, który umożliwia oddzielenie sieci lub komputera od dowolnego zewnętrznego połączenia internetowego. Zasadniczo, ponieważ komputer z luką powietrzną nie ma interfejsów sieciowych, dozwolona jest tylko bezpośrednia kontrola fizyczna. Systemy komputerowe służą do zabezpieczania różnego rodzaju systemów o znaczeniu krytycznym, np. obrona wojskowa, giełda, a także systemy wykorzystywane do kontroli infrastruktury krytycznej, takiej jak elektrownie jądrowe. Jeśli zapewnimy, że kopie zapasowe danych są pozbawione powietrza, ułatwi to przywracanie systemu w przypadku awarii systemu. Zazwyczaj pomiędzy systemem komputerowym z pustką powietrzną a ścianami zewnętrznymi, a także między jego przewodami a przewodami innych urządzeń technicznych, ustawiana jest określona ilość miejsca, aby uniknąć nieautoryzowanego dostępu do komputera lub potencjalnego włamania za pomocą luk elektromagnetycznych lub elektronicznych. Chociaż systemy z pustką powietrzną mogą wydawać się całkowicie zabezpieczone, ale te systemy mają również wady. Jak wynika z ostatnich badań nad cyberbezpieczeństwem, exploity można wdrażać za pomocą specjalistycznego sprzętu do przechwytywania sygnałów telekomunikacyjnych emitowanych przez komputer z luką powietrzną, takich jak naciśnięcia klawiszy lub obrazy na ekranie, z fal zdemodulowanego promieniowania elektromagnetycznego (EMR). Jak wynika z innego badania naukowego, eksploatacja izolowanych komputerów może odbywać się również za pośrednictwem zainfekowanej karty dźwiękowej, która emituje fale EMR. Informacje można również zbierać z izolowanych klawiatur, ekranów i innych elementów komputera, stosując ciągłe napromienianie falami EMR. Do ataku na taki system można również wykorzystać socjotechnikę. Robak Stuxnet, złośliwe oprogramowanie atakujące konkretny przemysłowy system kontroli, to niesławny przykład, który prawdopodobnie został przeniesiony za pośrednictwem zainfekowanych pamięci USB od pracowników lub rozprowadzany jako darmowe prezenty.

Technologie rozwiązań bezpieczeństwa cybernetycznego

Ustanowienie cyberbezpieczeństwa może pomóc w unikaniu naruszeń danych, cyberataków i kradzieży tożsamości, a także pomóc w zarządzaniu ryzykiem. Przez lata rozwijano różne najnowocześniejsze technologie, aby zminimalizować ryzyko ataków cybernetycznych, a niewiele z nich opisano w kolejnych sekcjach.

Skanery podatności

Skaner podatności można zdefiniować jako narzędzie bezpieczeństwa wykorzystywane do oceny bezpieczeństwa aplikacji, serwera lub sieci. Zasadniczo skaner podatności może być postrzegany jako narzędzie, które może również myśleć tak, jak zrobiłby to haker. Ocenia cel w podobny sposób jak haker, tj. identyfikuje słabości lub podatności. Skanery aplikacji internetowych można zdefiniować jako zautomatyzowane narzędzia, które jako pierwsze przemierzają aplikację internetową, a następnie skanują jej strony internetowe w celu znalezienia luk w zabezpieczeniach, które mogą istnieć w aplikacji, wykorzystując technikę pasywną. W tym przypadku dane wejściowe sondy są generowane przez skanery, po czym odpowiedź jest porównywana z takimi danymi wejściowymi w celu zidentyfikowania luk w zabezpieczeniach .

System zapobiegania włamaniom

System zapobiegania włamaniom (IPS) może być urządzeniem programowym lub sprzętowym, które posiada wszystkie funkcje systemu wykrywania włamań (IDS). W niektórych przypadkach IPS umożliwia również zapobieganie ewentualnym incydentom. IPS może reagować na wykryte zagrożenie na wiele sposobów:

1. aby zablokować przyszłe ataki, umożliwia rekonfigurację innych kontroli bezpieczeństwa w systemach, takich jak firewall lub router;
2. w ruchu sieciowym złośliwa zawartość może zostać usunięta z ataku w celu odfiltrowania zagrażających pakietów; lub
3. Inne mechanizmy kontroli bezpieczeństwa i prywatności w ustawieniach przeglądarki mogą również zostać ponownie skonfigurowane, aby uniknąć przyszłych ataków.

System wykrywania włamań

Specjalistyczne narzędzie o nazwie Intrusion Detection System (IDS) posiada możliwość odczytywania i interpretowania treści dotyczących plików logów z serwerów, zapór sieciowych, routerów oraz innych urządzeń sieciowych. IDS ma również możliwość utrzymywania bazy danych zawierającej informacje o znanych sygnaturach ataków. Umożliwia to porównanie różnych wzorców ruchu, aktywności lub zachowania, a także szybkie sprawdzanie dzienników pod kątem monitorowania pod kątem takich sygnatur w celu zidentyfikowania ścisłego dopasowania między sygnaturą a ostatnim lub bieżącym zachowaniem. Po ustanowieniu dopasowania system może generować alerty lub alarmy, uruchamiając różne rodzaje automatycznych działań, takich jak zamknięcie łączy internetowych lub określonych serwerów, a także uruchamianie śledzenia wstecznego. Może również podejmować inne aktywne próby rozpoznania napastników, a także aktywnie gromadzić dowody dotyczące ich nikczemnych działań.

Wyzwania

Problemy z cyberbezpieczeństwem mogą wiązać się z wieloma wyzwaniami dla interesariuszy, takich jak firmy biznesowe, firmy i użytkownicy końcowi. Według nas wyzwania związane z Przemysłem 4.0 można opisać jako trzy główne aspekty: zarządzanie ryzykiem cyberbezpieczeństwa, prywatność użytkowników oraz kryminalistyka cyfrowa. Poniższe sekcje wyczerpująco wyjaśnią każde wyzwanie.

Prywatność użytkownika

W kontekście zastosowania Przemysłu 4.0 jedną z zasad jest oferowanie zorientowanych na klienta, wysoce spersonalizowanych usług wysokiej jakości, które odpowiadają jego konkretnym potrzebom. Zwykle sugeruje to, że gromadzenie danych o użytkowaniu jest powszechne, co może stanowić warunek wstępny przed próbą dostosowania. Typowym powszechnym przykładem jest instalacja aplikacji w telefonach komórkowych, w której użytkownicy muszą do pewnego stopnia wyrazić zgodę na korzystanie z określonych funkcji telefonu w celu gromadzenia danych - na przykład dostęp do danych z kamery, dostęp do mikrofonu, dane dotyczące cech twarzy , dostęp do danych odcisków palców, a nawet dostęp do plików systemowych, wszystko to pozwala aplikacji działać jak najlepiej. Chociaż dane gromadzone za pomocą takich środków mają głównie na celu zapewnienie lepszych, spersonalizowanych doświadczeń, użytkownicy mogą nie zawsze wiedzieć, co aplikacja może faktycznie zrobić. Zwykle przesyłanie tych spersonalizowanych danych odbywa się na centralny serwer, na którym firma dostarczająca aplikację prowadziłaby również pewne analizy, biorąc pod uwagę informacje o profilu użytkownika, raporty o awariach, statystyki użytkowania itp. W tym kontekście użytkownicy mogą udzielili dostępu do danych osobowych nieświadomie. Nawet jeśli użytkownik ma wiedzę i rozumie potencjalne ryzyko, niechętnie udzieliłby dostępu, aby w pełni korzystać z aplikacji. Taka praktyka z pewnością stanowi zagrożenie dla prywatności użytkowników w postaci wielu rodzajów kradzieży danych użytkownika, a także cyfrowego nadzoru. W przypadku tych pierwszych kradzież danych jest możliwa z powodu ataków na serwer WWW. Zazwyczaj cyberprzestępcy mogą wykraść cenne dane osobowe, tj. osobiste dane identyfikacyjne, numery ubezpieczenia społecznego, informacje o kartach kredytowych lub płatnościach oraz adresy z zaatakowanych serwerów internetowych. Po przeprowadzeniu udanej operacji kradzieży danych takie zebrane informacje mogą zostać ujawnione w domenie publicznej lub sprzedane zainteresowanym stronom z różnych powodów, takich jak marketing internetowy lub oszustwa. Wspomniany kontekst przedstawia również kompromis między zachowaniem prywatności użytkownika a zapewnieniem wysoce spersonalizowanej, wysokiej jakości obsługi klienta. Firmy potrzebują danych, aby przeprowadzać analizy klientów i dostosowywać się, aby świadczyć usługi lepszej jakości. Jednak klienci coraz częściej borykają się z obawami o prywatność użytkowników, co spowodowało ciągły problem z wdrożeniem biznesowym. Po licznych wyciekach danych zgłoszonych przez znane serwisy internetowe, takie jak Yahoo, Facebook i Marriot International, klienci w dzisiejszych czasach stają się bardziej świadomi potencjalnych pułapek, gdy udostępniają dane osobowe w domenie publicznej. Stwarza to ograniczenia dla przedsiębiorstw i firm przy podejmowaniu decyzji, w jaki sposób można uniknąć nadmiernego gromadzenia danych osobowych, przy jednoczesnym utrzymaniu jakości ich usług. Z punktu widzenia użytkowników obawiają się również, jak takie zagrożenie wykryć i jak powinni zareagować w obliczu takiego zagrożenia. Istnieje kilka sposobów rozwiązania tego problemu. Po pierwsze, należy zapewnić użytkownikom edukację dotyczącą ryzyka, jakie niesie ze sobą udostępnianie danych osobowych. W dzisiejszych czasach firmy usługowe mają łatwy dostęp do cyfrowych danych klientów, m.in. polubienia i udostępnienia, publikowanie, rejestracja zakupów i lokalizacja za pośrednictwem aplikacji, takich jak strony internetowe zakupów online i media społecznościowe. Ponieważ użytkownicy zazwyczaj muszą wyrazić zgodę na wykorzystanie ich danych osobowych w celu uruchomienia tej aplikacji, muszą być czujni w odniesieniu do tego, co udostępniają online. Ponieważ te cyfrowe zapisy mogą być na stałe przechowywane w silosach danych, muszą zdać sobie sprawę, że to, co zamierzają udostępnić, może być również przeglądane przez każdego, a informacje pozostaną na stałe w Internecie. Muszą również zostać wyedukowani, jak zachować czujność przed zainstalowaniem jakiejkolwiek aplikacji na swoim cyfrowym Po drugie, dostawcy usług muszą przestrzegać pewnych standardów dotyczących wdrażania polityki prywatności. Na przykład serwisy internetowe wykorzystują pliki cookie, które umożliwiają im przechowywanie, śledzenie i udostępnianie zachowań użytkowników, a także stanowią potencjalne zagrożenie dla prywatności. Firmy muszą ustalić jasną politykę dotyczącą wykorzystywania plików cookie, aby uniknąć nadmiernego wycieku informacji związanych z użytkownikami. Muszą na przykład przestrzegać najnowszych obowiązujących standardów, takich jak europejskie ogólne rozporządzenie o ochronie danych (RODO) , które podjęło próbę ustalenia najlepszych praktyk, których należy przestrzegać, aby poprawić prawa do prywatności, a także egzekwować ochronę konsumentów. Chociaż regulacje takie jak te są uważane za kłopotliwe we wdrażaniu i mogą nawet zmienić sposób prowadzenia działalności przez firmy, mogą być również postrzegane jako forma zapewnienia klientów w celu zapewnienia, że ich prywatność jest traktowana priorytetowo i chroniona podczas Dostawa usługi. Pomaga to również zwiększyć zaufanie klientów i zachować ich lojalność, ponieważ firmy przechowują przejrzyste informacje dotyczące sposobu wykorzystywania ich danych osobowych, a także zapewniają wyjaśnienia dotyczące projektu i praktyki, które umożliwiają zarządzanie danymi klientów ujawnianymi w całej usłudze koła życia.

Zarządzanie ryzykiem cyberbezpieczeństwa

Cyberbezpieczeństwo jest ogólnie uważane za wysoce wyspecjalizowaną dziedzinę, a zatem mniejsze firmy i osoby prywatne uważają, że zdobycie niezbędnej wiedzy i umiejętności, aby chronić je przed cyberatakiem, jest trudne. Często mniejsze organizacje mają ograniczone zasoby finansowe lub ludzkie do obsługi cyberbezpieczeństwa. Kierownictwo wyższego szczebla firmy często nie do końca rozumie potrzebę/priorytet i ma tendencję do pomijania zagrożeń związanych z cyberbezpieczeństwem. W rzeczywistości firmy te często zlecają swoje usługi IT firmom zewnętrznym, ponieważ uważają, że są bardziej zdolne, a teraz stało się to trendem. W związku z tym obawy związane z bezpieczeństwem cybernetycznym są pomijane, ponieważ mają tendencję do myślenia, że to złagodziło ich ryzyko. Trudna prawda jest taka, że firmy, generalnie małe lub średnie przedsiębiorstwa (MŚP), które zwykle zlecają swoje usługi IT na zewnątrz, współpracują z firmami świadczącymi usługi IT, które z kolei są MŚP lub organizacjami typu start-up z ograniczonym doświadczeniem w zakresie dobrych praktyk w zakresie bezpieczeństwa cybernetycznego. Na przykład, ponieważ istnieją ograniczenia zasobów, ciężar obsługi obowiązków związanych z cyberbezpieczeństwem spada na personel IT w ramach obowiązków i zadań. W świetle najlepszych praktyk w zakresie bezpieczeństwa cybernetycznego, należy zniechęcać do takiego delegowania, próbując jednocześnie rozdzielać obowiązki. Niespełnienie takiego wymogu może mieć poważne konsekwencje. Na przykład w 2012 roku w Malezji miał miejsce niesławny przypadek włamania się do usług hostingu w chmurze exabytes.my, w którym usunięto wiele maszyn wirtualnych (dla usług w chmurze). Atak przeprowadził pracownik organizacji, który został już zakończony, ale dane logowania do systemu nie zostały zmienione i nadal były ważne. Z powodu tego incydentu firma poniosła nieodwracalne szkody, w których tylko ~80% danych klientów można było odzyskać ze starych kopii zapasowych, podczas gdy pozostałe dane klienta zostały trwale utracone. Takiego incydentu można było łatwo uniknąć, gdyby firma bardziej rygorystycznie przestrzegała standardów bezpieczeństwa cybernetycznego oraz najlepszych praktyk. W epoce, w której firmy dążą do cyfrowej transformacji swoich usług, zarządzanie ryzykiem i świadomość bezpieczeństwa cybernetycznego stały się ważniejszą kwestią, którą należy się zająć. Na podstawie tej liczby zagrożenie działa na podatność zasobu, co skutkuje wpływem. Gdy istnieje motywacja ataku, wraz z podatnością na ataki, daje to szansę na zrealizowanie zagrożenia. Następnie wpływy i prawdopodobieństwo łączą się w ryzyko plonów. Procedura oceny ryzyka zazwyczaj obejmuje pięć kroków, jak pokazano w: ustalaniu kontekstu, identyfikacji ryzyka, analizie ryzyka, ocenie ryzyka i postępowaniu z ryzykiem. Obejmuje praktyczne kroki dotyczące całego procesu zarządzania ryzykiem na arenie cyberbezpieczeństwa, co również pomaga organizacjom chronić ich zasoby danych.

Cyfrowa kryminalistyka

Cyfrową kryminalistykę można zdefiniować jako gałąź kryminalistyki, która zajmuje się procesem identyfikacji, utrwalania, wydobywania, a także dokumentacją dowodów komputerowych, które sąd może wykorzystać w sprawach. Pod względem bezpieczeństwa cybernetycznego uważa się, że jest to proces odzyskiwania dowodów, który wyodrębnia się z mediów cyfrowych, takich jak telefon komórkowy, komputer, sieć lub serwer WWW, a także proces weryfikacji, który ma na celu zebranie dowodów po cyberataku. Wraz z rosnącą liczbą aplikacji Przemysłu 4.0 przewidywanych w najbliższej przyszłości, stało się to znaczącym obszarem, który przyciągnął wiele uwagi w ostatnich latach. Praktyka cyberbezpieczeństwa jest uzupełniana przez kryminalistykę cyfrową w celu zapewnienia bezpieczeństwa i integralność systemów i operacji obliczeniowych, ponieważ umożliwia przetwarzanie, wydobywanie i interpretację dowodów faktycznych za pośrednictwem skompromitowanych systemów informatycznych w celu ustalenia przed sądem działań cyberprzestępczych. Ogólnie rzecz biorąc, kryminalistyka cyfrowa obejmuje pięć podstawowych etapów: (1) identyfikacji, (2) konserwacji, (3) analizy, (4) dokumentacji i (5) prezentacji. W pierwszym kroku identyfikowany jest cel śledztwa i zasoby potrzebne do zadania kryminalistycznego, po czym dane odzyskane z nośników cyfrowych są izolowane, konserwowane i zabezpieczane. W trzecim kroku pobrane dane są analizowane, co wiąże się z wykorzystaniem odpowiednich narzędzi i technik oraz interpretacją wyników analizy danych. Następnie, na podstawie analizowanych wyników, dokumentowane jest miejsce przestępstwa oraz wykonywane jest szkicowanie, fotografowanie i mapowanie miejsca przestępstwa. W ostatnim kroku przedstawiane jest wyjaśnienie podsumowania wyników oraz wnioski. W dzisiejszych czasach dziedzina kryminalistyki cyfrowej stała się bardziej skomplikowana i trudniejsza z powodu pojawienia się tanich urządzeń komputerowych z dostępem do Internetu (np. urządzeń IoT), szybko zmieniających się aplikacji technologii obliczeniowych każdego roku i łatwa dostępność narzędzi hakerskich. Wszystko to wpływa na najlepsze praktyki w tej dziedzinie, ponieważ specjaliści medycyny sądowej muszą często aktualizować swoją wiedzę i umiejętności, aby nadążyć za bardziej wyrafinowanymi cybereksploitami. Ponieważ firmy zaczęły niedawno wdrażać zarządzanie ryzykiem cyberbezpieczeństwa, kryminalistyka cyfrowa jest uważana za nowy aspekt, o którym firmy mogą myśleć, aby stać się zrównoważonym wraz z nadejściem ery Przemysłu 4.0, a także zapewnić nieprzerwane prowadzenie działalności biznesowej .

Wnioski

Przemysł 4.0 przyniósł innowacyjną erę, która jest dobrze skomunikowana, ma responsywne sieci dostaw i umożliwia inteligentną produkcję, co usprawnia proces produkcji i usługi. Nawet jeśli możliwości cyfrowe zostały znacznie ulepszone w całym łańcuchu dostaw i procesach produkcyjnych, zwiększyło to również ryzyko cyberzagrożeń, a branża mogła nie być w pełni przygotowana. Ponieważ ekspansja wektorów zagrożeń była raczej radykalna wraz z nadejściem Przemysłu 4.0, cyberbezpieczeństwo powinno stanowić istotną część strategii, działania i projektowania oraz być brane pod uwagę od początku każdego nowego urządzenia/aplikacji połączonej z przemysłem Inicjatywa napędzana 4.0.

Rola IIoT w smart Industries 4.0

Wzrost gospodarczy jest kręgosłupem każdego kraju, związanym głównie z energetyką przemysłową, produkcją i wydajnością. Branże zmieniają się od staroświeckich do nowych perspektyw technologicznych z wymaganiami nowej ery. Branże w pełni wyposażone w technologię znane są jako przemysł inteligentny. Przemysłowy Internet Rzeczy (IIoT) jest źródłem, które przekształca zwykłe branże w inteligentne branże, zapewniając im cięcie kosztów, zdalny dostęp, zarządzanie produkcją, łańcuch dostaw i monitorowanie, a także zmniejszenie kosztów zużycia energii itp. IIoT przynosi rewolucję w branży, aby tanio zwiększyć produkcję i umożliwić przemysłowi zdalny dostęp do danych i udostępnianie ich. Inteligentny przemysł lub Przemysł 4.0 (I4.0) to nowy paradygmat, który przyniósł rewolucję w całej branży produkcyjnej i produkcyjnej. Obecnie wiele branż przekształca się w branże inteligentne, podczas gdy reszta znajduje się w fazie konwergencji. W tym rozdziale książki szczegółowo omówimy istniejący stan wiedzy w zakresie IIoT, różne zastosowania IIoT, przypadki użycia, otwarte zagadnienia i wyzwania badawcze, a także przyszłe kierunki i aspekty inteligentnego przemysłu. Ponadto w tym rozdziale omówimy silne powiązanie między Internetem rzeczy (IoT), IIoT i inteligentnymi branżami.

Wstęp

IoT odgrywa istotną rolę w kilku domenach aplikacji. Cieszy się bardzo dużym zainteresowaniem ze względu na łatwość konfiguracji i wdrożenia, a także zapewnienie większego dostępu do różnych aplikacji życia. IoT jest dalej rozwijany, aby zapewnić kilka rozwiązań dla przemysłu, które są znane jako Industrial IoT (IIoT). W tej części rozdziału pokrótce przedstawimy IoT w różnych aspektach, takich jak to, co dokładnie oznacza IoT, podróż IoT w kierunku IIoT do I4.0, znanego również jako ewolucja przemysłowa, i wreszcie wyjaśnienie różnic między IoT i IIoT.

Co oznacza Internet Rzeczy?

Koncepcja życia mądrego i łatwego, w którym większość rutynowej pracy może być wykonana lub wspomagana inteligentnie w odpowiednim czasie, co wcześniej nie było możliwe. Na przykład marzeniem było wiedzieć o swoim domu lub biurze i zdalnie sterować różnymi urządzeniami w domu lub biurze. Wszystko to stało się możliwe dzięki koncepcji inteligentnego domu, w którym można zdalnie sterować i monitorować wszystkie pożądane przedmioty z dowolnego miejsca na świecie. IoT jest tym, co napędza inteligentny dom, aby był inteligentny. Jednocześnie marzenie o monitorowaniu i kontrolowaniu otoczenia poza domem i biurem, takie jak wiadomości o informacjach o trasie, informacje o wypadku na trasie, połączenia z nagłośnieniem samochodu, wyświetlanie obliczonych map drogowych itp. To wszystko stało się możliwe w oparciu o IoT. W ten sam sposób IoT jest używany w większości naszych codziennych zastosowań. Można uzyskać bardzo jasne wyobrażenie o wpływie aplikacji IoT używanych na co dzień, odwołując się do aplikacji.

Podróż IoT przez IIoT do Przemysłu 4.0

Termin IoT został wprowadzony przez Kevina Ashtona w 1999 roku. Jego pierwotnym pomysłem było podłączenie fizycznych obiektów do sieci lub popularnie zwanej Internetem. Ten pomysł przyniósł rewolucję, a świat informatyki został całkowicie zmieniony dzięki integracji różnych czujników z różnymi obiektami. Obiekty zaczęły komunikować się z internetem poprzez wykrywanie i przekazywanie informacji do sieci. Ta rewolucja nie wymaga więcej umiejętności programowania i innych formalnych obliczeń, które zwykle są wymagane do programowania. Komunikujące się obiekty znane są później jako inteligentny obiekt, a następnie koncepcja przeszła w kierunku koncepcji inteligentnego domu, w której większość obiektów w domu może łatwo komunikować się i łączyć z Internetem. Później ekspansja tego pomysłu rozkwitła dzięki zastosowaniu GPS, inteligentnych samochodów, monitorowania kondycji i aplikacji e-zdrowia; w ten sposób IoT ewoluował, aby stać się liderem koncepcji następnej rewolucji przemysłowej, znanej jako IIoT.

Różnica między IoT a IIoT?

IoT jest źródłem inteligentnego środowiska, o którym wspomniano we wcześniejszych sekcjach, które umożliwia obiektom komunikowanie się z innymi obiektami za pomocą różnego rodzaju czujników podłączonych do niego. Dołączone czujniki umożliwiają obiektowi przekazywanie informacji do innych komponentów, a także udostępnianie danych w Internecie. Prawdziwą różnicą między IoT a IIoT jest obszar operacyjny lub zakres aplikacji; gdy Internet Rzeczy zostanie udostępniony branży na dużą skalę i rozwiąże problemy branżowe, takie jak produkcja, zarządzanie łańcuchem dostaw, produkcja itp., będzie on określany jako IIoT. IIoT wnosi cuda do branży, gdzie branża może być monitorowana i kontrolowana zdalnie na szerszą skalę. Zwiększyło to postęp branży na dużą skalę we wszystkich sektorach. Jednak obecnie IIoT nie jest w pełni wdrożony, ale ma coraz większy zakres. Większość krajów już wdrożyła IIoT i uczyniła swoje branże inteligentnymi I4.0, podczas gdy inne szybko podążają za inteligentnymi celami branżowymi. Pojawienie się IoT mogą sobie wyobrazić naukowcy, którzy spodziewają się tego do 2020 r.; Liczba urządzeń IoT będzie na całym świecie ponad 50 miliardów, czyli prawie siedmiokrotnie więcej niż populacja świata

Przegląd IoT w smart Industrial 4.0

IoT odgrywa istotną rolę w kilku domenach aplikacji. Cieszy się bardzo dużym zainteresowaniem ze względu na łatwość konfiguracji i wdrożenia, a także szeroki dostęp do różnych aplikacji życiowych. IoT został rozszerzony, aby zapewnić kilka rozwiązań dla przemysłu, które są znane jako Industrial IoT (IIoT). W tej części pokrótce przedstawimy IoT w jego różnych aspektach, takich jak to, co dokładnie oznacza IoT, podróż IoT w kierunku IIoT do I4.0, który jest również znany jako ewolucja przemysłowa, i wreszcie różnica między IoT i IIoT na lepsze zrozumienie czytelników. Na początku dziewiętnastego wieku angielscy robotnicy, zwani luddytami, byli przeciwni zmianom technologicznym i w ramach protestu atakowali fabryki i niszczyli maszyny. Działanie to nie tylko nie zatrzymało postępu technologicznego, ale także przyspieszyła trend. Od XVIII wieku, który był początkiem wynalezienia narzędzi mechanicznych umożliwiających wykorzystanie energii cieplnej i kinetycznej, rozwój segmentu przemysłowego zmienił nasze życie. Kolejne wynalazki były częścią pierwszej rewolucji przemysłowej. Później wynalazki do połowy XIX wieku, a zwłaszcza rozwój elektrycznego systemu produkcji technologicznej, złożyły się na drugą rewolucję przemysłową, która przekształciła cały przemysł poprzez umożliwienie produkcji masowej. Wykorzystanie programowalnego sterownika logicznego (PLC) w roku 1969 umożliwiło ludziom współpracę między technologią informatyczną a elektroniką, przyspieszając rozwój automatyki przemysłowej, który trwa do dziś. Ta ewolucja znana jest jako trzecia rewolucja przemysłowa. Obecnie firmy produkcyjne stoją przed innowacyjnymi wyzwaniami, takimi jak ograniczony cykl życia innowacji i technologii oraz zapotrzebowanie na niestandardowe produkty kosztem produkcji na dużą skalę. Te wymagania były dobrymi receptami na narodziny nowej rewolucji przemysłowej o nazwie IoT. IoT jako idea istnieje już od dłuższego czasu, a terminologii tej po raz pierwszy użyto już w 1999 roku. Od początku istnienia Internetu myśli o komunikujących się ze sobą maszynach były dla wielu wizją. Jest to nowy proces, w którym urządzenia są połączone ze sobą za pomocą różnych protokołów komunikacyjnych bez konieczności interwencji człowieka. W dzisiejszych czasach automatyzacja staje się coraz bardziej powszechna zarówno w przemyśle, jak i w codziennym życiu ludzi. Duża część tego to zdolność przetwarzania w chmurze do przechowywania ogromnych danych, miniaturyzacja elektroniki o mniejszym zużyciu energii oraz protokół internetowy (IP) w wersji 6, pozwalający na wystarczającą liczbę adresów do zarejestrowania każdego wyobrażalnego urządzenia, z którym chciałoby się połączyć przez Internet . IoT rozszerzył się na świat produkcyjny, co skutkuje rewolucją produkcyjną o nazwie I4.0. To przyczyniło się do powstania wielu automatyzacji przemysłowej, która jest ogólnie określana jako IIoT. Rewolucja przemysłowa rozpoczęła się w Wielkiej Brytanii pod koniec XVIII wieku, kiedy produkcja odbywała się na ogół w domach ludzi przy użyciu podstawowych maszyn i narzędzi ręcznych, i trwała do czasów istniejących na platformie IIoT. Krótka historia rewolucji przemysłowej pomaga nam lepiej zrozumieć, jak rozwijał się przemysł w ciągu ostatnich trzech stuleci, który nadal rozwija się przez kolejne pokolenia. Pierwsza rewolucja przemysłowa miała miejsce pod koniec XVIII wieku, a głównym celem była produkcja mechaniczna. Na początku XX wieku pojawiła się rewolucja przemysłowa 2.0 i wkroczyła era elektroniki z możliwością produkcji masowej. Niecałe 50 lat temu wraz z wprowadzeniem sterownika PLC, który umożliwił automatyzację produkcji opartą na IT, rozpoczęła się trzecia rewolucja przemysłowa. Niedawno I4.0 został połączony z koncentracją na paradygmatach IoT i systemów cyber-fizycznych (CPS), aby analizować, monitorować i automatyzować procesy biznesowe w ogóle. Te rewolucje technologiczne przemodelują procesy montażu i dostaw w rozsądne środowiska fabryczne, co zwiększy wydajność i siłę działania. W tej dziedzinie firmy są w stanie zautomatyzować procesy w celu zapewnienia bezpieczeństwa, szybkości lub obniżenia kosztów łączenia maszyn i procesów, które wcześniej nie były w stanie się komunikować. IIoT ma prognozę rynkową zbliżoną do 100 miliardów dolarów do roku 2020, więc teraz przyciąga uwagę wszystkich. Rozwój tanich i szybkich czujników pomógł firmom zautomatyzować procesy bardziej wydajnie i przy minimalnych kosztach. W przeszłości do wizualnego śledzenia obiektu i przeprowadzania czasochłonnych kontroli potrzebnych było kilku pracowników. Teraz wizja maszynowa pozwala na inspekcje w czasie rzeczywistym z możliwością oddzielania materiałów uznanych za wadliwe. Wszystko to dzieje się bez interwencji człowieka. Niektóre miejsca posunęły się nawet do przemieszczania materiałów za pomocą autonomicznych pojazdów kierowanych bez obaw o bezpieczeństwo pracowników. Przyszła wizja zakładu produkcyjnego z minimalną siłą roboczą rośnie wraz z opracowywaniem i wdrażaniem robotów i innych technik automatyzacji w takich miejscach pracy. Zdolność do gromadzenia wszystkich tych danych w czasie rzeczywistym i automatycznego podejmowania decyzji przez maszyny jest prawdziwym duchem, który napędza rozwój IIoT. W tym zakresie system produkcyjny powinien być niezawodny, dostępny i zoptymalizowany pod kątem bezpieczeństwa aplikacji. IIoT to maszyna przemysłowa, która jest powiązana z obszarem przechowywania danych w chmurze przedsiębiorstwa zarówno w celu pobierania, jak i przechowywania danych. IIoT ma potencjał do dużych zmian w zarządzaniu globalnym łańcuchem dostaw. Podejście Lean Six Sigma w globalnym łańcuchu dostaw z wykorzystaniem IIoT i I4.0 tworzy idealny przebieg procesu, który jest doskonały i wysoce zoptymalizowany, co minimalizuje wady i straty. Podsumowując, inteligentna technologia produkcji, człowiek, maszyna i sam produkt łączą siły w niezależną i inteligentną sieć skupiającą się na opracowanie komponentu, systemu i rozwiązania, które dotyczy przemysłowej infrastruktury bazowej, rozwiązania automatyzacji, inteligentnego sterownika i funkcjonalnego bezpieczeństwa przed cyberatakami. Ta rewolucja produkcyjna zmienia ekonomię, zwiększa produktywność, sprzyja wzrostowi przemysłowemu i modyfikuje profil siły roboczej, co ostatecznie zmienia konkurencyjność firm i branż w każdym zakątku świata.

Najnowocześniejszy przemysłowy Internet Rzeczy

IIoT pojawił się jako nowy trend w ciągu ostatnich kilku lat, w którym kontinuum urządzeń i obiektów jest połączone z różnymi rozwiązaniami komunikacyjnymi, takimi jak Bluetooth, Wi-Fi, ZigBee, globalne systemy mobilne (GSM) itp. Te urządzenia komunikacyjne sterują i zdalnie wyczuł wszystkie urządzenia i obiekty, co daje więcej możliwości bezpośredniej integracji z urządzeniami zewnętrznymi za pośrednictwem systemów komputerowych w celu poprawy produkcji przemysłowej, takiej jak kontrola jakości, zrównoważone i ekologiczne praktyki. Przewiduje się, że miliardy urządzeń, takich jak czujniki, smartfony, laptopy i konsole do gier, będą połączone z Internetem za pośrednictwem wielu różnorodnych sieci dostępowych wyposażonych w technologie sieciowe, takie jak identyfikacja radiowa (RFID) i bezprzewodowe sieci czujników (WSN). IIoT jest znany w czterech różnych paradygmatach: zorientowane na Internet, inteligentne aktywa, czujniki, analityka i aplikacje [10]. Zwykle wdrożenie technologii IoT można zrozumieć bardzo blisko współczesnego społeczeństwa, w którym inteligentne aktywa i rzeczy są wirtualnie zintegrowane, tworząc systemy, które mogą oferować monitorowanie, gromadzenie, wymianę i analizę danych, dostarczając cennych informacji, które umożliwiają firmom przemysłowym szybsze podejmowanie mądrzejszych decyzji biznesowych. Różne adaptacje technologii sieci bezprzewodowych sprawiły, że IIoT jest kolejną rewolucyjną technologią, wykorzystującą zalety technologii internetowej. Tymczasem sieci WSN obejmują dużą liczbę urządzeń z funkcjami wykrywania, łącznością bezprzewodową i ograniczonymi możliwościami przetwarzania, co pozwala na wdrażanie węzłów w pobliżu środowiska . WSN obsługuje miniaturowe, niskobudżetowe i energooszczędne urządzenia, które łączą od setek do tysięcy z jednym lub kilkoma czujnikami. Czujnik posiada nadajnik-odbiornik radiowy do wysyłania i odbierania sygnałów, mikrokontroler, obwód elektroniczny do łączenia czujników i źródło energii, zwykle baterię lub wbudowaną formę zbierania energii. Istotnym mechanizmem łączenia urządzeń i obiektów ma być kręgosłup wszechobecnej informatyki, umożliwiające inteligentnym środowiskom rozpoznawanie i identyfikowanie obiektów oraz pobieranie informacji. Ponadto technologie takie jak sieci czujników i RFID rozwiążą te pojawiające się wyzwania, które koncentrują się na integracji systemów informacyjnych i komunikacyjnych. Wprowadzono nową strukturę o nazwie Monitorowanie Health IIoT , w której elektrokardiogram (EKG) i inne dane dotyczące opieki zdrowotnej są gromadzone za pośrednictwem urządzeń mobilnych i czujników oraz bezpiecznie przesyłane do chmury przez pracowników służby zdrowia w celu zapewnienia bezproblemowego dostępu. Pracownicy służby zdrowia będą używać wzmocnienia sygnału, znaków wodnych i innych powiązanych analiz, aby zapobiec kradzieży tożsamości lub błędom klinicznym. Zarówno ocena eksperymentalna, jak i symulacja potwierdziły przydatność tego podejścia poprzez wdrożenie w chmurze usługi monitorowania stanu zdrowia opartej na IoT, opartej na EKG. Oferowana jest nowa architektura synchronizacji zegara sieci dla IoT, która opiera się na poziomie organizacji, adaptacji i regionu. Architektura poziomu adaptacji ma zapewnić rozwiązanie umożliwiające dostosowanie rzeczy do Internetu; architektura organizacyjna ma organizować i zarządzać systemem synchronizacji zegara, a architektura na poziomie regionu zapewnia synchronizację zegara. Celem jest zapewnienie niezawodnego bezpieczeństwa i dokładności synchronizacji zegara. Zaproponowano nowatorskie podejście oparte na metamodelu do integracji obiektów architektury w IoT. Pomysł polega na półautomatycznym zasilaniu holistycznego środowiska cyfrowej architektury korporacyjnej. Głównym celem jest zapewnienie odpowiedniego wsparcia decyzyjnego za pomocą systemów oceny rozwoju oraz środowiska IT do kompleksowego zarządzania biznesem i architekturą. Dlatego decyzje architektoniczne dotyczące IoT są ściśle powiązane z implementacją kodu, aby umożliwić użytkownikom zrozumienie, w jaki sposób zarządzanie architekturą przedsiębiorstwa jest zintegrowane z IoT. Potrzeba jednak więcej pracy, aby zapewnić prace koncepcyjne nad federacją architektury korporacyjnej IoT poprzez rozszerzenie architektury modelu federacji i podejść do transformacji danych. Skalowalna i samokonfigurująca się architektura peer-to-peer dla dużej sieci IoT jest sugerowana przez Cirani i in. [18]. Celem jest zapewnienie mechanizmów automatycznego wykrywania usług i zasobów, które nie wymagają interwencji człowieka w celu ich skonfigurowania. Rozwiązanie opiera się na odkryciu lokalnych i globalnych usług, które umożliwiają udaną interakcję i wzajemną niezależność. Ważną rzeczą w tym rozwiązaniu jest to, że dzięki eksperymentowi przeprowadzonemu w rzeczywistym wdrożeniu, konfiguracja pokazuje. Jednak możliwość wystąpienia błędu jest głównym czynnikiem decydującym o tym, że architektura IoT jest bardziej niezawodnym rozwiązaniem. W [, badanie IoT umożliwiło scenariuszowi inteligentnego domu przeanalizowanie wymagań aplikacji IoT. W związku z tym zaproponowano architekturę CloudThings w celu dostosowania CloudThings PaaS, SaaS i IaaS w celu przyspieszenia aplikacji IoT opartych na platformie IoT opartej na chmurze. Integracja chmury w IoT zapewnia realne podejście do ułatwienia tworzenia aplikacji Things. Podstawowe zmiany w podejściu do architektury CloudThings opierają się na wszechobecnych aplikacjach IoT działających i komponujących. Jednak system wymaga komunikacji sieci bezprzewodowej, która jest osadzona w IoT, aby poradzić sobie z heterogenicznością. W programie badany jest Internet Rzeczy oparty na strumieniowaniu wideo, który opiera się na architekturze sieciowej zorientowanej na treść. Eksperyment został przeprowadzony w oparciu o mechanizm dynamicznego adaptacyjnego przesyłania strumieniowego przez HTTP w celu dzielenia fragmentów wideo i wielu przepływności. Podzielone filmy są następnie przesyłane strumieniowo przez klienta dynamicznego adaptacyjnego przesyłania strumieniowego z typowego serwera HTTP za pośrednictwem sieci centrycznej. Wynik pokazuje, że sieć centryczna może pasować do środowiska IoT, a jej zintegrowane mechanizmy zarabiania są ograniczone. Niemniej jednak wymagane są dodatkowe eksperymenty, aby ocenić różne powiązane sieci i porównać je z istniejącą. W artykule zaproponowano modułową i skalowalną architekturę opartą na wirtualizacji. Modułowość zapewniana przez proponowaną architekturę w połączeniu z lekką orkiestracją wirtualizacji platformy Docker upraszcza zarządzanie i umożliwia wdrożenia rozproszone. Funkcje dostępności i odporności na błędy są zapewniane przez dystrybucję logiki aplikacji na różne urządzenia, w których pojedyncza mikrousługa lub nawet awaria urządzenia nie mają wpływu na wydajność systemu.

Zastosowania IIoT dla smart Industries 4.0

I4.0 to nowa cyfrowa technologia przemysłowa, która umożliwia szybszy, bardziej elastyczny i wydajny proces wytwarzania towarów o wyższej jakości przy obniżonych kosztach oraz umożliwia zbieranie i analizowanie danych z różnych maszyn. Zastosowania IoT polegają na łączeniu ludzi z urządzeniami, które posiadali przez ostatnie lata, ale dostarczaniu im informacji, które wcześniej nie były łatwo dostępne. W nowych wydarzeniach branżowych, które mają wpływ na produkcję, sposób organizacji przemysłu i wszystko inne wokół nas, takie jak inteligentny dom, inteligentna sieć, inteligentny budynek itp., z łącznością wszelkiego rodzaju rzeczy napędzanych obecnością komunikacji bezprzewodowej przez moc obliczeniową, która wbudowuje ją w nowe inteligentne i elastyczne produkty. Wpływają one bezpośrednio na sposób faktycznego wytwarzania produktów, a który proces produkcyjny może wykorzystywać te technologie i koncepcje napędzane przez Internet Rzeczy. W pełni osadzone w IoT i CPS ułatwiły produkcję, nieograniczone paradygmaty, podobnie jak zakład przemysłowy w dłuższej perspektywie i I4.0, przewidują środowiska analizy biznesowej wymagające dużej ilości danych, w których rozsądne, spersonalizowane towary są tworzone za pomocą inteligentniejszych procesów i procedur. I4.0 opiera się na logice CPS, w której będzie arbitralny, samooptymalizowany i samowystarczalnie działające systemy, które komunikują się ze sobą i ostatecznie optymalizują produkcję jako całość. Innowacje technologiczne w miniaturyzacji wraz z komunikacją bezprzewodową umożliwiły urządzeniom mobilnym, czujnikom i aplikacjom komunikowanie się ze sobą i ciągłe przebywanie w sobie i swoim wzajemnym zasięgu. Na bazie tych siłowników i czujników bezprzewodowych zbudowano zaawansowane technologicznie aplikacje i usługi kontekstowe. Obecnie firmy produkcyjne borykają się z obciążeniami adaptacyjnymi wynikającymi z szybkich zmian technologicznych, tj. zmiennym popytem, wysoce spersonalizowanymi produktami i krótkimi cyklami życia produktów. Aby sprostać tym wyzwaniom, firmy produkcyjne są w stanie sprostać przyszłym wyzwaniom rynkowym, muszą być w stanie wyprodukować małe grupy produktu lub pojedynczego produktu w sposób terminowy i oszczędny, z odpowiednią funkcjonalnością, łącznością i elastycznością z klientami i dostawcami wymagania . Aby sprostać tym istniejącym wyzwaniom, obecne systemy muszą być bardziej skomplikowane, co będzie trudniejsze do kontrolowania i monitorowania. W związku z tym tradycyjne systemy produkcyjne z dedykowanymi liniami produkcyjnymi nie będą w stanie konkurować w przyszłej erze wysokich technologii. Dlatego branża potrzebuje radykalnej zmiany, aby dostosować się i sprostać istniejącym wyzwaniom. Odpowiedzią na te wyzwania jest I4.0. Podstawową zasadą I4.0 jest wykorzystanie najnowszych pojawiających się technologii informatycznych, takich jak IoT, Internet of Services (IoS), CPS, big data, sieć semantyczna, przetwarzanie w chmurze i wirtualizacja, tak aby inżynieria i procesy biznesowe były głęboko zintegrowane, dzięki czemu produkcja działa w wydajnym, modyfikowalnym, przyjaznym dla środowiska, niedrogim, a jednocześnie wysokiej jakości. Wizją I4.0 jest doprowadzenie Internetu do najniższego punktu, w którym każdy siłownik i czujnik ma swój wkład w IoT. W tym środowisku każde urządzenie ma swój unikalny adres IP, dzięki czemu zautomatyzowany system i produkty mogą się ze sobą efektywnie komunikować. IIoT to maszyna przemysłowa, która jest powiązana z obszarem przechowywania danych w chmurze korporacyjnej, zarówno do pobierania, jak i przechowywania danych, z potencjałem dużych zmian w zarządzaniu globalnym łańcuchem dostaw. Podejście Lean Six Sigma w globalnym łańcuchu dostaw wykorzystujące IIoT i I4.0 tworzy idealny przepływ procesów, który jest doskonały i wysoce ulepszony, co minimalizuje wady i marnotrawstwo. Zastosowanie IIoT może dotyczyć wielu aspektów infrastruktury społeczeństwa i przyczynić się do poprawy ludzkiego życia.

Inteligentna fabryka

Wdrażanie technologii CPS i IoT w systemach produkcyjnych przyniosło nowe możliwości, umożliwiając zarządzanie złożonymi i elastycznymi systemami w celu dostosowania się do szybkich zmian. Wraz z rozwojem I4.0, a także pojawieniem się modelu inteligentnej fabryki, standardowa filozofia wytwarzania systemów została zmodyfikowana. Inteligentna fabryka wprowadza zmiany w czynnikach i częściach konwencjonalnych systemów produkcyjnych i uwzględnia te potrzeby inteligentnych systemów, aby mogła konkurować w przyszłości. Zawiera również moduły, które są inteligentne i ustandaryzowane, które mogą łączyć się i mieszać w prosty sposób z każdym innym modułem i posiadają określoną funkcjonalność, aby utworzyć sieć online w fabryce. Coraz większa ilość analiz w każdej akademii i branży poświęcona jest przejściu koncepcji dobrej manufaktury od teorii do namacalnego produktu. Jednym z najważniejszych wyzwań jest to, że system inteligentnej fabryki powinien osiągnąć wysoki poziom udostępniania i wymiany informacji między ich towarami, infrastrukturą ich towarów i procesów, ich systemem kontroli i zastosowaniem przedziałów czasowych. Całkowicie sterowana maszynowo produkcja w przyszłości, która może oszczędzić koszty, czas, narzędzia i procesy, jest w całości przedstawiana cyfrowo.

Wymagania inteligentnej fabryki

Fabryki są potrzebne, aby rozszerzyć swoją inteligencję i automatyzację na to, co jest obecnie możliwe przy użyciu istniejącej technologii i czujników.

Modułowość

Dotyczy to planowania elementów systemu. Modułowość można scharakteryzować ze względu na możliwość prostego i szybkiego rozdzielania i łączenia elementów systemu.

Interoperacyjność

Oznacza to dla każdego elastyczność udostępniania danych technicznych między elementami systemu wraz z produktem oraz elastyczność udostępniania danych biznesowych między przedsiębiorstwami produkcyjnymi a klientami. CPS umożliwia afiliację przez IoT, a także IoS.

Decentralizacja

Części systemu (towar magazynowy, moduły itp.) mogą samodzielnie tworzyć wybory, niepodporządkowane jednostce uderzeniowej, której wybory będą tworzone autonomicznie.

Samochody bez kierowcy

Autonomiczny samochód jest jednym z najważniejszych futurystycznych zastosowań IoT. Te samochody, które pojawią się jako taki produkt w niedalekiej przyszłości, naprawdę istnieją w dzisiejszych czasach i są głównie w fazie prototypu lub rozwoju. Samochody nie mają operatorów i są na tyle sprytne, aby same zawieźć Cię do wybranej lokalizacji. Samochody te są wyposażone w inteligentne urządzenia i zaawansowane technologie, takie jak żyroskopy, czujniki, Internet i usługi w chmurze. Wykorzystują te urządzenia do wykrywania ogromnych ilości danych o ruchu drogowym, pieszych, warunkach na drodze, takich jak wyboje, ograniczniki prędkości, zakręty i ostre zakręty, i natychmiast je przetwarzają. Zebrane informacje są przekazywane do kontrolera, który podejmuje powiązane ze sobą decyzje dotyczące jazdy. Uczenie maszynowe i sztuczna inteligencja to podstawowe aspekty samochodów bez kierowcy.

Inteligentne pokoje hotelowe

Właściciele hoteli zapewniają większe bezpieczeństwo, zastępując klucze do drzwi oparte na karcie aplikacjami na smartfony, dzięki którym lokator może wejść do pokoju, wskazując swoim smartfonem zamki w pokoju. Ponadto systemy oświetlenia i ogrzewania są połączone z Internetem, aby zapewnić gościom spersonalizowane wrażenia. Dzięki tej funkcji będziesz mógł ustawić oświetlenie i kontrolować temperaturę w pomieszczeniu w oparciu o swoje preferencje. Ponadto będziesz mógł w prosty sposób zarejestrować się i uzyskać sugestie dotyczące podróży oraz wiele informacji na temat oferowanych ofert hotelowych. W przypadku hoteli i zarządzania energią skutkuje to spójnymi rozwiązaniami zapewniającymi wydajną eksploatację poprzez integrację systemów produkcyjnych. Zwiększa to efektywność energetyczną przy jednoczesnym obniżeniu kosztów operacyjnych.

Automatyzacja i adaptacja z maksymalną wydajnością

Zachowanie adaptacyjne zapewnia elastyczność, radzi sobie z wszelkiego rodzaju zakłóceniami w celu uzyskania maksymalnej wydajności i ostatecznie wzmacnia produkcję. Zamiast posiadania centralnego sterownika jako metody konwencjonalnej, istnieje inteligentna współpraca i sterowniki rozproszone, które dostosowują się niezależnie do urządzeń i urządzeń procesowych. W tej dziedzinie łatwiej jest zoptymalizować i zarządzać złożonymi procesami i nieoczekiwanymi zdarzeniami, co oznacza produkcję partii o wielkości jednej partii przy równie niskich kosztach produkcji masowej. Inteligentny i autonomiczny system produkcyjny jest ekonomiczny przez długi czas.

produkcja i produkcja dzięki uczeniu maszynowemu i eksploracji danych

Więcej programu i inteligencji jest integrowanych z produkcją przemysłową, aby tworzyć systemy obniżające koszty i poprawiające jakość, moc i elastyczność produkcji. W inteligentnym systemie sterowania element obrabiany wyposażony w tag RFID przechodzi przez wszystkie stanowiska produkcyjne. Inteligentny system sterowania jest w stanie zidentyfikować, na którym stanowisku produkcyjnym obrabiany przedmiot będzie obrabiany.

Optymalizacja procesów branżowych za pomocą przetwarzania w chmurze i big data

Chociaż model IoT i współczesne postępy w komunikacji maszyna-maszyna (M2M) umożliwiają jednoczesne monitorowanie inteligentnych fabryk, zużycie zasobów i efektywna optymalizacja procesów biznesowych zasadniczo opierają się na procesach wymagających dużej ilości danych, dla których dostępne na miejscu zasoby obliczeniowe nie są wystarczające. W tej percepcji big data i cloud computing przygotowują technologie dla paradygmatu I4.0. Jest to nie tylko miejsce, w którym większość decyzji dotyczących danych urządzeń przemysłowych i ważnych informacji jest pozyskiwanych i analizowanych, ale oferuje również możliwość dostosowania do skalowania na żądanie dla różnych obciążeń, które mogą zautomatyzować i zoptymalizować procesy biznesowe. Umożliwia analizę informacji z nieuniknioną wydajnością, nawet w przypadku rosnących przemysłowych sieci bezprzewodowych połączonych ze sobą elementów, co prowadzi do opłacalnego łańcucha ofert. Ogólne zastosowanie inteligentnego przemysłu zostanie rozszerzone tak, aby było komunikatywne i bezpieczne, łatwe w instalacji, prototypowane wirtualnie, łatwe w obsłudze i zasobooszczędne.

Przypadki użycia IIoT dla smart Industries 4.0

W tej sekcji opisano kilka przypadków użycia związanych z IIoT dla inteligentnych branż, z różnymi aspektami zastosowań.

Samochodowy system nawigacji

Aby nawigacja GPS wskazywała kierunek kierowcy, wymaga samochodowego systemu nawigacyjnego, który podaje dane o położeniu w celu zlokalizowania samochodu na drodze w bazie danych map. Jednak ta akcja wymaga połączenia z Internetem, aby móc w pełni działać. Korzystanie z osobistej architektury IoT pozwala systemowi nawigacyjnemu łączyć się z Internetem. Pomysł polega na tym, że procedura zdalnego sterowania nawigacją samochodową wykorzystuje urządzenie do nawigacji samochodowej, smartfon i serwer zdalnego sterowania oraz klienta, aby łatwo mieć połączenie z Internetem. To urządzenie nawigacyjne może być zdalnie sterowane za pomocą smartfona, co nie wymaga komunikacji bezprzewodowej technologii .

Zarządzanie i optymalizacja łańcucha dostaw.

Platforma IoT NetObjex może zapewnić łatwy i uproszczony dostęp do informacje o łańcuchu dostaw w czasie rzeczywistym. Odbywa się to poprzez dokładne śledzenie sprzętu, materiałów i produktów w trakcie ich przemieszczania się w łańcuchu dostaw. Rozwiązania NetObjex I4.0 zapewniają Twojej organizacji większą kontrolę, wgląd i widoczność danych w całym łańcuchu dostaw. Skuteczne i dokładne raportowanie pomaga gromadzić i dostarczać informacje dotyczące zarządzania cyklem życia produktów o znaczeniu krytycznym, planowania zasobów biznesowych i innych systemów. Pomaga to śledzić przepływ materiałów, współzależności i czasy cyklu produkcji. Dostęp do tych danych pomoże Ci zredukować zapasy, przewidzieć problemy i zminimalizować potrzeby kapitałowe.

Śledzenie i optymalizacja zasobów

Rozwiązania I4.0 od NetObjex via PiQube i NetObjex Matrix Digital Twin Platform pomagają producentom na każdym etapie łańcucha dostaw stać się bardziej wydajnymi i zyskownymi. Pomaga im to dokładnie sprawdzać możliwości związane z logistyką pod kątem jakości, zapasów i optymalizacji. Ponadto pracownicy Twojej organizacji korzystający z IoT mogą czerpać korzyści z lepszej globalnej widoczności swoich zasobów. Ponadto zadania związane ze standardowym zarządzaniem aktywami, takie jak likwidacja, przenoszenie aktywów, korekty i reklasyfikacja, mogą być centralnie zarządzane i usprawniane w czasie rzeczywistym.

Napędzanie transformacji przedsiębiorstwa

IBM oferuje klientom pomoc wdrożeniową, która ma ogromny wpływ na zwiększenie efektywności operacyjnej, zrewolucjonizowanie modeli biznesowych (BM), usprawnienie operacji w branży i odzwierciedlenie doświadczenia ich klientów. Daimler został poproszony o obsługę niektórych operacji wewnętrznych przy użyciu technologii Internetu Rzeczy. Firma korzysta z usług IBM, aby uruchomić cargo, flotę przyjaznych dla środowiska inteligentnych samochodów na żądanie, które użytkownicy mogą rezerwować z aplikacji mobilnych. Wykorzystując architekturę IoT, która obejmuje czujniki i komunikację bezprzewodową, firma jest w stanie monitorować osiągi pojazdu, zapewnić dostępną sieć pojazdów i analizować dane w celu zwiększenia wydajności samochodu.

Podłączanie formularza do chmury

Firma John Deere, która produkuje wyróżniający się zielony i żółty sprzęt rolniczy, wdrożyła technologie IoT, które zmieniają sposób funkcjonowania tradycyjnego rolnictwa. Firma wykorzystuje IoT do łączenia swoich pojazdów z aplikacją mobilną o nazwie JDLink. Ta nowa technologia umożliwia rolnikom i dealerom zdalny dostęp, używanie i diagnozowanie danych dla każdej maszyny. Rozwiązanie opiera się na technologiach IoT, które obejmują bezprzewodowe strumieniowanie danych produkcyjnych, monitorowanie i raportowanie pogody w czasie rzeczywistym. W efekcie wartość ich działania jest podnoszona poprzez zapewnienie niezawodnej pracy sprzętu

Aktualne zastosowania i ograniczenia IIoT w inteligentnym Przemyśle 4.0

W tej sekcji przedstawiono niektóre z istniejących zastosowań i ograniczeń IIoT w inteligentnym Przemyśle 4.0. Ograniczenia te mogą być związane z infrastrukturą, siecią i internetem, problemami energetycznymi, zasobami ludzkimi, środowiskiem gospodarczym, kosztami i wymaganiami oprogramowania. Poniżej przedstawiono niektóre z kluczowych ograniczeń w obecnych zastosowaniach IIoT w inteligentnym Przemyśle 4.0.

Łączność

Większość nowoczesnych IIOT korzysta ze scentralizowanego modelu, aby zapewnić łączność z różnymi czujnikami i systemami, takimi jak urządzenia do noszenia, inteligentne samochody, inteligentne domy i inteligentne miasta. Model może być wydajny, biorąc pod uwagę ilość mocy u przy użyciu IIoT, gdzie komunikacja M2M dominuje w terenie, aby połączyć wszystkie te różne obiekty. Jednak wraz ze wzrostem liczby urządzeń do miliardów korzystających z sieci jednocześnie może to spowodować znaczne wąskie gardło w łączności IoT, wydajności i ogólnej wydajności.

Władza autonomiczna

Główne ograniczenia związane z IIoT dotyczą autonomicznego działania opartego na kontekście. W ten sposób pewien poziom automatyzacji z IoT jest wykorzystywany jako obiekt do tworzenia połączonych i zarządzania systemami. Wykorzystanie technologii ewoluuje od WSN do RFID i wąskopasmowego IoT, które zapewniają możliwości wykrywania i komunikowania się przez Internet. W ciągu następnej dekady dużym ograniczeniem, jakie IoT musi przezwyciężyć, jest uzyskanie kontekstu i niezależne wykonywanie działań. System, który uczy się i dostosowuje bez konieczności konfiguracji, jest znany jako inteligentny i zautomatyzowany system.

Sprzęt IoT

Wiele branż wykorzystuje Internet Rzeczy, aby uczynić systemy bardziej inteligentnymi; jednak przetwarzanie w chmurze i integralność danych nadal pozostają wyzwaniem. Biorąc pod uwagę ogromną ilość danych zebranych z różnych źródeł, należy odpowiednio podkreślić znaczenie oddzielenia użytecznych i przydatnych informacji od nieistotnych danych. Niezwykle ważne jest regularne kalibrowanie czujników IoT, tak jak w przypadku każdego innego rodzaju czujnika elektrycznego. Wiele czujników jest wbudowanych w różne urządzenia, w tym mierniki, cęgi prądowe, rejestratory wykresów, monitory mocy i wiele innych, a przepływ danych między całym tym sprzętem jest trudny do zsynchronizowania bez pomocy profesjonalnego zespołu.

Bezpieczeństwo

Urządzenia IoT stają się wszechobecne i rozciągają się od cyberświata do świata fizycznego, tworząc nowe rodzaje problemów i obaw związanych z bezpieczeństwem, które są bardziej złożone. IoT był początkowo promowany jako sieć o wysokim poziomie bezpieczeństwa, nadająca się do przechowywania i przesyłania poufnych zestawów danych. Chociaż prawdą jest, że Internet Rzeczy jest bezpieczniejszy niż przeciętne połączenie internetowe lub LAN, nie była to dokładnie kuloodporna powłoka, jakiej oczekiwali niektórzy użytkownicy. Niektóre z najważniejszych problemów związanych z bezpieczeństwem dotyczą Internetu Rzeczy i chmury. Przeprowadzona niedawno analiza przewiduje, że usunięcie tylko jednego centrum danych w chmurze oznacza utratę nawet 120 miliardów dolarów w skutkach ekonomicznych

Otwarte zagadnienia badawcze i wyzwania smart Industries 4.0

Zgodnie z ogólnym przekonaniem, korzystanie z urządzeń i systemów IoT w branży zwiększa produktywność poprzez zmianę zwykłego sprzętu na inteligentne i połączone ze sobą o wyższej wydajności i niższych kosztach utrzymania. Proces produkcyjny będzie bardziej zwinny, a wygenerowane dane IoT oferują znacznie głębszy wgląd. Jednak wady i zalety osadzania systemów IoT w branży są nadal badane i analizowane są wyzwania związane z wdrażaniem, takie jak opór kulturowy wobec zmian technologicznych, cyberataki i inne problemy infrastrukturalne, które mogą wystąpić. Według badań Thobena i in. te zagadnienia badawcze można podzielić na trzy grupy: (1) metodologiczne, (2) technologiczne i (3) biznesowe. Jednak niektóre ze zidentyfikowanych problemów można podzielić na więcej niż jedną grupę. Stąd te badania kategoryzują je w oparciu o najważniejsze czynniki według wiedzy autora. Niektóre wyzwania można pogrupować w wiele kategorii, a większość z nich ma charakter technologiczny, ponieważ urządzenia, technologie i dane IoT są kluczowymi elementami technologicznego aspektu smart Industries 4.0. Czujniki IIoT umożliwiają firmie produkcyjnej zbieranie wszelkiego rodzaju danych ze wszystkich fizycznych i wirtualnych obiektów biorących udział w procesie produkcyjnym. Na przykład temperatury urządzeń i prędkość maszyn można łatwo rejestrować za pomocą czujników IIoT. Dane te są zbierane do wykorzystania w analizie danych w czasie rzeczywistym. Ta możliwość otwiera interesujące okno przemysłowych i biznesowych możliwości poprawy wydajności operacyjnej i wzmocnienia władzy decydentów poprzez wydobywanie znaczących informacji z danych IIoT. Pozostała część tego rozdziału przedstawia niektóre z istniejących problemów badawczych i wyzwań smart Industries 4.0.

Interoperacyjność

Wyzwanie to dotyczy interoperacyjności pomiędzy różnymi systemami firm, gdzie część firm korzysta z autorskich rozwiązań dostępnych na rynku, a część innych korporacji z rozwiązań open-access lub samodzielnie opracowanych. Rozwiązania te dobierane są według różnych wymiarów, takich jak charakter działalności, rodzaje generowanych danych oraz proces operacyjny. Dlatego też, gdy te różne systemy mają ze sobą współpracować, interoperacyjność staje się głównym wyzwaniem, które należy odpowiednio rozwiązać, aby umożliwić inteligentną produkcję. Na przykład integracja systemów transportowych i urządzeń interfejsu użytkownika używanych przez różnych sprzedawców wymaga skutecznego rozwiązania problemów z interoperacyjnością. W bardziej dynamicznym i złożonym środowisku produkcyjnym mogą być potrzebne różne integracje, aby rozwiązać problem w celu uproszczenia rozwoju i procesu inteligentnych sieci dostaw w produkcji.

Analiza danych Big IIoT

Analityka danych Big IIoT obejmuje procesy gromadzenia danych, przenoszenia ich do scentralizowanych centrów danych w chmurze oraz wdrażania preprocessingu, eksploracji danych, analizy, wizualizacji i raportowania. Analityka big data obejmuje procesy przeszukiwania bazy danych, wydobywania i analizowania danych przeznaczonych do poprawy wydajności firm produkcyjnych. Analiza danych Big IoT oferuje eleganckie narzędzia analityczne do przetwarzania dużych danych IoT w czasie rzeczywistym. Ta szansa daje decydentom rozsądne i terminowe wyniki. Analiza danych Big IIoT jest jednym z głównych elementów inteligentnej produkcji opartej na danych i inicjatyw I4.0. Chociaż analityka dużych danych IoT jest klasyfikowana jako problematyka badań technologicznych, to ze względu na wymóg projektowania odpowiednich metodologii analitycznych można ją zaklasyfikować do kwestii badań metodologicznych. W niektórych przypadkach posiadanie lepszych metod analitycznych jest ważniejsze niż rodzaj narzędzi i algorytmów analitycznych. W rzeczywistości czasami wybór metod łączenia starych i nowo opracowanych algorytmów zgodnie z pewnikami inteligentnej produkcji ma kluczowe znaczenie. Bardzo ważne jest, aby zaangażować ludzi w cykl procesu analizy danych przechwyconych danych poprzez produkcję czujników i urządzeń IoT. Zapewnia to silną wizualizację danych i dogłębny wgląd w bramkę wyników. Automatyzacja procesu, dostępność danych w czasie rzeczywistym oraz zautomatyzowane monitorowanie za pomocą wysokopoziomowych algorytmów wspierających ludzkie decyzje to kluczowe cechy smart Industries 4.0. Bezpieczna interakcja między ludźmi a inteligentnymi systemami, która jest zaangażowana w automatyzację procesów, taką jak automatyzacja procesów w robotyce, wymaga niezawodnych i ulepszonych algorytmów analitycznych. W kilku badaniach zgłoszono i opisano problemy związane z analizą danych, jeśli chodzi o big data i inteligentne branże. Jednak najważniejszą kwestią analizy dużych zbiorów danych w inteligentnej produkcji jest integracja różnych zależnych i niezależnych danych z różnych źródeł, takich jak zużycie energii, przepływ materiałów, dane z kontroli jakości i inne dodatkowe informacje w czasie rzeczywistym . Kolejnym ważnym wyzwaniem jest rosnąca dostępność surowych danych i związane z nimi kwestie, takie jak jakość danych, złożoność danych, dane dynamiczne, walidacja i weryfikacja danych.

Ochrona danych

Inteligentne branże zajmują się cennymi danymi w czasie rzeczywistym generowanymi przez inteligentne urządzenia i czujniki IoT wykorzystujące protokoły komunikacji internetowej za pośrednictwem sieci bezprzewodowych i adhoc. Dane te są coraz częściej przechowywane w centrach danych za pomocą usług opartych na chmurze. Korzystanie z analizy danych na tych cennych danych w inteligentnych branżach zapewnia bardziej znaczące informacje, a jednocześnie motywuje przestępców i osoby fizyczne do próby wykorzystania tej możliwości w nielegalne sposoby. Dlatego systemy inteligentnych branż muszą być stale ulepszane, aby zapobiegać nieautoryzowanemu dostępowi do cennych danych i wykrywać wszelkie inne zagrożenia bezpieczeństwa . W rzeczywistości sprytni producenci wolą ograniczać dostęp do swoich danych, dostarczając je w odizolowanych centrach danych i serwerach oraz dając dostęp tylko uprawnionym klientom i użytkownikom, aby zobaczyć tylko bardzo szczegółowe i ograniczone wyniki analiz . Drugie wyzwanie w zakresie bezpieczeństwa danych wiąże się z mechanizmami zapobiegania nieuprawnionemu dostępowi do systemów sterowania oraz podłączonych do nich urządzeń i maszyn, które są kolejnym celem przestępców sabotujących maszyny i procesy produkcyjne.

Jakość danych

Tworzenie systemów IoT z możliwością generowania wiarygodnych danych nie jest łatwe, a zebrane dane z urządzeń IoT w większości cierpią na brak jakości. Dlatego jakość danych wytwarzanych przez systemy IIoT w inteligentnych branżach jest tak samo ważna, jak inne kwestie i wyzwania, takie jak duża analityka danych IIoT. Wykorzystywanie danych niskiej jakości w inteligentnych branżach zagraża systemom monitorowania i kontroli, a także wszelkiej optymalizacji zorientowanej na dane. Stąd też wymagane jest opracowanie algorytmów jakości danych do automatycznego monitorowania jakości generowanych danych w inteligentnych procesach produkcyjnych i maszynach. Poprawia to poziom zaufania i trafności decyzji podejmowanych na podstawie danych. Ponadto heterogeniczność danych w inteligentnych branżach to kolejny aspekt jakości danych w całym cyklu życia produktu. Integracja różnych źródeł danych o różnych formatach i semantyce to wciąż duże wyzwanie dla zaawansowanej analityki danych. Dlatego semantyczne systemy mediatorów muszą zostać opracowane i osadzone na etapie wstępnego przetwarzania przed rozpoczęciem fazy analizy danych. Mediatorzy ci mogą być aktualizowani zgodnie z wymaganiami analityki danych.

Wyobrażanie sobie

Istnieje silna potrzeba wizualizacji danych, aby dostarczać użytkownikom ilustrowane informacje w inteligentny, zrównoważony i solidny sposób . Wyzwania wizualizacyjne można rozpatrywać zarówno jako kwestie technologiczne, jak i metodologiczne. Wizualizacja jest niezbędnym narzędziem przekazywania złożonych informacji produkcyjnych. Na przykład, złożone wyniki analizy danych muszą być udostępniane różnym udziałowcom firmy. Jest to wyzwanie, ponieważ różni akcjonariusze mogą mieć różne uprawnienia dostępu do wizualizacji i istniejących wyników. To samo dotyczy innych użytkowników, takich jak administratorzy zarządzający systemami wizualizacji czy inżynierowie odpowiedzialni za planowanie produkcji. Różni użytkownicy wymagają dostępu do różnych informacji, wyników wizualizacji, a nawet interfejsu użytkownika w porównaniu do kierowników sprzedaży lub fabryk. Wizualizacja jest kluczowym elementem inteligentnego przemysłu i wymaga ścisłej współpracy zarówno przemysłu, jak i środowiska akademickiego w celu prowadzenia odpowiednich badań nad wizualizacją, aby zrozumieć, jakie rodzaje informacji należy przedstawić różnym udziałowcom. Muszą również zaprojektować i wdrożyć rygorystyczne rozwiązania wizualizacyjne, które mogą rozbić abstrakcyjne dane oparte na czujnikach, dostarczyć dodatkową wartość i odpowiednie informacje. Należy tutaj podkreślić, że procesy wizualizacji i wyniki są niezwykle zależne od indywidualnych potrzeb akcjonariuszy. Dlatego nie jest możliwe użycie jednego rozwiązania wizualizacyjnego dla wszystkich możliwych scenariuszy, gdy oczekuje się, że będzie miało pozytywny wpływ na operacje.

Prywatne problemy

Oczywiste jest, że kwestie prywatności danych są związane z bezpieczeństwem danych. Jednak kwestie bezpieczeństwa danych dotyczą bardziej technologicznego aspektu przetwarzania danych w inteligentnych branżach, w których koncentruje się na ochronie i zachowaniu wrażliwych danych produkcyjnych. Ale kwestie prywatności danych opisują pewne wyzwania związane z wewnętrzną i zewnętrzną wymianą danych, informacji i wiedzy. Ujawnianie cennych danych lub informacji nieuprawnionym stronom lub osobom może stworzyć wiele problemów dla właścicieli danych. Na przykład posiadanie dostępu do cennych danych przez konkurentów może dać im możliwość wykorzystania inżynierii wstecznej do wytwarzania tych samych produktów lub wyodrębnienia istotnych informacji, co może być jeszcze bardziej problematyczne. W związku z tym należy opracować mechanizm ochrony prywatności, aby zapewnić każdemu, kto ma dostęp do dowolnej części danych, możliwość korzystania z nich wyłącznie w określonych z góry celach, dla których dane są udostępniane. Na przykład dane wideo z nadzoru statku powietrznego należące do linii lotniczej są przechowywane przez dostawcę usług. Dane te są regulowane zgodnie z prywatnością pasażerów, a przepisy różnią się w zależności od kraju. Udostępnianie niektórych informacji z pewnych powodów, takich jak poprawa jakości, może być korzystne. Wymaga to polityki zapewnienia, która musi być opracowana w oparciu o interdyscyplinarne badania z udziałem prawa, biznesu, inżynierów i ekspertów z dziedziny informatyki.

Kwestie inwestycyjne

Jest to ogólny problem biznesowy w inteligentnych branżach. Złożoność i interdyscyplinarny charakter rat smart industries stanowi barierę dla każdego małego i średniego przedsiębiorstwa (MŚP). Wdrożenie inteligentnych ram przemysłowych w MŚP, takich jak system cyber-fizycznej logistyki (CPLS), wymaga znacznych inwestycji. Celem posiadania systemu CPLS jest zwiększenie elastyczności poprzez niezależne decyzje i umożliwienie redukcji zapasów poprzez niezależne rozwiązywanie błędów w czasie rzeczywistym. Pomiar zaufania do współpracy i możliwości usprawnień organizacyjnych nie są łatwe. Solidne stanowiska testowe stworzone przez Smart Manufacturing Leadership Coalition lub projekty latarni morskich mogą być właściwym początkiem do przeprowadzenia testów porównawczych i udanych przypadków, aby podkreślić potencjał takiej inwestycji. Poza tym potrzebne są badania teoretyczne dotyczące kwantyfikacji i zwrotu z inwestycji w inteligentne zastosowania przemysłowe, szczególnie w odniesieniu do efektów współpracy w złożonych i dynamicznych sieciach dostaw w MŚP

Obsługiwane modele biznesowe

Tradycyjnie BM w branżach produkcyjnych skupiają się głównie na produkcji lub montażu niestandardowych produktów fizycznych, a przychody mogą być generowane przez sprzedaż tych produktów. Ale koszty materiałów, urządzeń i sprawnej obsługi są bardzo wysokie. Tym samym wydajność procesów i powiązanie łańcucha dostaw mają istotny wpływ na konkurencyjność firmy. Jednocześnie tradycyjne BM są popychane przez globalną harmonizację standardów technologicznych i zmniejszenie barier handlowych do przejścia na nowoczesne BM. Kilku badaczy sugeruje, że firmy produkcyjne w rozwiniętych gospodarkach odgrywają kluczową rolę w łańcuchu wartości, dodając więcej usług do swoich produktów. Dzięki tym rozszerzeniom nie muszą już konkurować jedynie kosztami produkcji. Zgodnie z badaniem, zaproponowany framework wykorzystujący koncepcję systemu produkt-usługa (PSS) opisuje realizację, zintegrowany rozwój i oferuje określone pakiety produkt-usługa jako rozwiązanie dla klienta. Proponowane ramy opierają się na pięciu fundamentalnych zmianach: (1) przejście ze świata produktów do świata obejmującego rozwiązania, (2) produkty wyjściowe do wyników, (3) transakcje do relacji, (4) dostawcy do partnerów sieciowych i (5 ) elementy do ekosystemów . Koncepcja zastosowana w tym kontekście jest bardzo podobna do idei inteligentnych branż, w których tzw. CPS oferuje rozwiązanie konkretnego problemu poprzez wynik ich zastosowania. Relacje pomiędzy innymi systemami i ich otoczeniem mogą być budowane przez CPS i zastępowane jednorazowymi transakcjami sprzedaży. Na przykład dostęp do użytkowania w cyklu życia może prowadzić do usprawnienia procesów produkcyjnych. Może również oferować usługi dodatkowe dla podstawowego produktu. Dlatego wokół CPS można stworzyć ekosystem sieciowy, który łączy klientów, dostawców i innych partnerów. W innym badaniu wymyślono termin "Cyber-fizyczny system obsługi produktów" (CPSS) w celu zintegrowania koncepcji PSS i inteligentnych gałęzi przemysłu. Teraz, jeśli firma produkcyjna przechodzi od wytwarzania produktów do proponowania rozwiązań CPSS i przekształca swoją bazę dostawców w sieciowy ekosystem partnerów, musi analizować i dostosowywać elementy swojego BM, aby nadal osiągać zyski, a także pozostać konkurencyjną. Elementy te obejmują nową propozycję wartości, kluczowe zasoby, różne segmenty i relacje klientów, kanały dystrybucji, kluczowe zasoby, strukturę kosztów, a także strumienie przychodów.

Przyszłe kierunki IIoT w smart Industries 4.0

IoT to koncepcja, w której sieć/internet rozciąga się na rzeczywisty świat, obejmując przedmioty codziennego użytku. Z pomocą IoT teraz fizyczne przedmioty są w stanie pozostać połączone w ramach wirtualnego świata i można nimi sterować zdalnie jako fizyczny punkt dostępu do usługi internetowej. IoT naprawdę przynosi rewolucję w branży, gdzie obniża koszty, ułatwia monitorowanie, zwiększa produkcję, w pełni monitoruje zarządzanie łańcuchem dostaw, a także procesy produkcyjne różnych branż, co ma bardzo bezpośredni i duży wpływ na gospodarkę świat. Można się spodziewać przyszłej koncepcji inteligentnego przemysłu, w której wszystkie procesy będą zarządzane w inteligentny sposób, sterowane przez inteligentną robotykę. W obecnej epoce znaczenie danych, zdalny dostęp i terminowość jest niezbędnym elementem rozwoju każdej organizacji, co będzie miało bezpośredni wpływ na rozwój branży, a także pośrednio na gospodarkę kraju . IIoT prowadzi inteligentne branże do szybkiego tempa wzrostu, zapewniając wszelkie niezbędne wsparcie dla danych branżowych, poza ich automatyzacją i zdalnym monitorowaniem. IIoT jest źródłem transformacji dla branż, które poprawią wiele aspektów branży, w tym automatyzację i transport, opiekę zdrowotną, produkcję, handel detaliczny, łańcuch dostaw, infrastrukturę, ubezpieczenia, usługi komunalne itp. Ponadto zastosowania IoT mają bardzo szeroki zakres, w tym aplikacje IIoT. Niedawne badanie analizuje 20 najważniejszych zastosowań IIoT na teraźniejszość i przyszłość, które zmienią styl pracy i będą miały wysoki wzrost i wkład w gospodarkę. Wśród 20 sugerowanych zastosowań przemysłowych znajdują się:

1. ABB: Inteligentna robotyka
2. Airbus: fabryka przyszłości
3. Amazon: wymyślanie magazynów na nowo
4. Boeing: wykorzystanie Internetu Rzeczy do zwiększenia wydajności produkcji
5. Bosch: innowator śledzenia i śledzenia
6. Caterpillar: pionier IIoT
7. Fanuc: pomoc w minimalizowaniu przestojów w fabrykach
8. Gehring: pionier w połączonej produkcji
9. Hitachi: zintegrowane podejście do IIoT
10. John Deere: Ciągniki samojezdne i nie tylko
11. Kaeser Kompressoren: Powietrze jako usługa
12. Komatsu: Innowacje w górnictwie i ciężkim sprzęcie
13. KUKA: Połączona robotyka
14. Maersk: Inteligentna logistyka
15. Magna Steyr: Inteligentna produkcja motoryzacyjna
16. North Star BlueScope Steel: Zapewnienie bezpieczeństwa pracownikom
17. Innowacje w czasie rzeczywistym: innowacje w zakresie mikrosieci
18. Rio Tinto: Kopalnia przyszłości
19. Shell: inteligentny innowator na polu naftowym
20. Stanley Black & Decker: Połączona technologia dla budownictwa i nie tylko

Wniosek

Wzrost gospodarczy kraju jest bezpośrednio związany z jego rozwojem przemysłowym, podczas gdy wykorzystanie nowych technologii jest niezbędne dla rozwoju przemysłowego. Branże mogą produkować dobrze wydajnie i mądrze, i znany jako inteligentny przemysł, przyjmując technologie nowej ery, takie jak IIoT itp. W związku z tym branże zmieniają się wraz z wymaganiami nowej ery, od starszej mody do perspektywy technologicznej. Branże w pełni wyposażone w technologię są znane jako inteligentne branże, a IIoT to ten, który sprawia, że zwykłe branże stają się inteligentne, zapewniając im cięcie kosztów, zdalny dostęp, zarządzanie produkcją, łańcuch dostaw, monitorowanie, zmniejszanie kosztów zużycia energii itp. IIoT przynosi rewolucję w branży, aby znacznie zwiększyć swoją produkcję i umożliwić przemysłowi zdalny dostęp do danych i udostępnianie ich. Ten rozdział książki przyczynił się do wyjaśnienia podstawowych aspektów inteligentnego przemysłu lub I4.0, oprócz najnowocześniejszej rewolucji przemysłowej opartej na IIoT. Ponadto badamy bardziej dogłębne koncepcje, dostarczając różne przypadki użycia I4.0 opartego na IIoT. Ponadto rozdział zawiera również szczegółowe informacje na temat bieżących zastosowań, ograniczeń, otwartych problemów, wyzwań i przyszłych kierunków IIoT w inteligentnych branżach.

Symulacja w IV rewolucji przemysłowej

Zgodnie z definicją Boston Consulting Group, jednym z filarów technologicznych czwartej rewolucji przemysłowej jest symulacja, w której stwierdza się, że symulacje będą wykorzystywane w szerszym zakresie w operacjach zakładu, aby wykorzystać dane w czasie rzeczywistym i odzwierciedlić świat fizyczny w modelu wirtualnym , które mogą obejmować maszyny, produkty i ludzi. Umożliwi to operatorom przetestowanie i zoptymalizowanie ustawień maszyny dla następnego produktu w linii w świecie wirtualnym przed fizyczną zmianą, co skróci czas konfiguracji maszyny i zwiększy jakość. Według www.dictionary.com jedną z definicji symulacji jest reprezentacja zachowania lub właściwości jednego systemu poprzez użycie innego systemu, zwłaszcza programu komputerowego zaprojektowanego do tego celu. Sama symulacja nie jest pojęciem nowym; istnieje od czasu wynalezienia komputerów (przed czwartą rewolucją przemysłową). Jednak wraz z nadejściem czwartej rewolucji przemysłowej, w której wszystko zmienia się z zawrotną prędkością, znaczenie symulacji jeszcze bardziej wzrasta. Tu podamy przykłady różnych typów dostępnych symulacji, a także kilka przykładów i opisują korzyści płynące z symulacji, zwłaszcza w kontekście czwartej rewolucji przemysłowej.

Rodzaje symulacji

Symulacja to zazwyczaj model, który naśladuje charakterystykę i zachowanie systemu/procesu, bez faktycznego wykonywania lub uruchamiania systemu/procesu. Istnieją różne typy modeli, które zostaną szczegółowo opisane w tej sekcji.

Symulacja systemu fizycznego

Modele matematyczne układu fizycznego mogą przybierać różne formy, na przykład układy dynamiczne, modele statystyczne lub równania różniczkowe. W oprogramowaniu symulacyjnym i pakietach użytkownik musi po prostu wprowadzić (lub zaprogramować) informacje matematyczne, a oprogramowanie rozwiąże informacje (lub równania) i wygeneruje wynik.

Projekt kontrolera

Obszarem, w którym symulacja jest popularna, jest obszar teorii sterowania, którego celem jest zaprojektowanie sterowników dla systemów dynamicznych tak, aby zachowywały się w pożądany sposób. Zazwyczaj zachowaniem tych układów dynamicznych rządzą równania różniczkowe. Popularnym oprogramowaniem do tego rodzaju symulacji jest MATLAB, szeroko stosowany do rozwiązywania równań różniczkowych. W MATLAB dostępny jest również zestaw narzędzi Simulink, który zawiera bloki przeciągania i upuszczania dla użytkowników, którzy mogą potrzebować bardziej wizualnych reprezentacji modelu. Rozważmy popularny, ale prosty przykład, jakim jest układ masa-sprężyna, pokazany na rysunku.



Blok ma masę m (kg), a jego przemieszczenie oznaczono przez x (m). Sprężyna ma stałą k (N/m), a amortyzator ma stałą b (Ns/m). Na blok działa również siła F (N). Sprężyna generuje siłę, która jest proporcjonalna do przemieszczenia bloku, mianowicie kx, a amortyzator generuje siłę, która jest proporcjonalna do prędkości bloku, mianowicie bx. Oczywiste jest, że suma sił (na bloku) to F - bx - kx. Korzystając z drugiego prawa Newtona, suma sił jest równa masie razy przyspieszenie, a zatem zastosowanie drugiego prawa Newtona do bloku da równanie różniczkowe, które określa ruch bloku, a mianowicie

F - bx - kx = mx (1)

Równanie (1) można zaimplementować w środowisku MATLAB Simulink w formie graficznej, wykorzystując integratory i matematyczne bloki wzmocnienia, co pokazano na rysunku
br>

Teraz pożądane jest symulowanie (i przewidywanie) odpowiedzi systemu. Przypuśćmy, że stałe przyjmują wartości m = 1, b = 2, k = 8 i z zastrzeżeniem wejścia skoku jednostki (wielkości) w czasie t = 5. Dwa rysunki pokazują odpowiednio przemieszczenie i prędkość masy w odpowiedzi na siłę przyłożoną w czasie t = 5.





Z rysunku powyżej, można również sprawdzić inne sygnały, na przykład przyspieszenie. Dodatkowo można również zmienić przyłożoną siłę (na falę sinusoidalną lub na zaszumiony sygnał), a Simulink pokaże odpowiedź układu (przemieszczenie, prędkość, przyspieszenie). Wartości parametrów (np. masa, stała sprężyny, stała amortyzatora) również mogą być zmieniane i na tej podstawie można wykreślić odpowiedź. Stąd z tego przykładu można wywnioskować, że symulacja umożliwia:

- uzyskać głęboki wgląd w system, taki jak interakcja sygnałów wewnętrznych i
- przewidzieć reakcję systemu dla różnych wejść i wartości parametrów.

Z opracowanego modelu można teraz projektować i szeroko testować sterowniki, aż do uzyskania zadowalających wyników. Tutaj pokazujemy przykład konstrukcji kontrolera i pożądane jest uzyskanie niższego przeregulowania; jak pokazano na rysunku, przeregulowanie wynosi 20%, co jest bardzo wysokim wynikiem. Załóżmy, że wejście sterujące (czyli siła F) jest teraz funkcją sprzężenia zwrotnego położenia masy, tj. F = kp(r- x) gdzie r jest wartością odniesienia (docelową) wartości x; ta konfiguracja dla F jest znana jako sterowanie proporcjonalne, gdzie wejście sterujące (w tym przypadku F) jest proporcjonalne (pomnożone przez kp) do błędu śledzenia (którym jest w tym przypadku r). Diagram symulacji został teraz zmodyfikowany, aby uwzględnić to, jak pokazano na rysunku



Poprzez ustawienie następujących zmiennych wartości; kp = 0,5, 1.0, 10.0 symulację można łatwo powtórzyć, a wyniki odpowiedzi x pokazano na rysunku.



Z rysunku widać, że różne wartości wzmocnienia proporcjonalnego kp nie zmniejszają procentowego przeregulowania, aw rzeczywistości go zwiększają. Dlatego używana jest inna konfiguracja regulatora, a mianowicie F = kp(r-x) - kvx, gdzie dodano człon sprzężenia zwrotnego prędkości (i stąd otrzymujemy sprzężenie proporcjonalne prędkości), jak pokazano na rysunku



Następnie przeprowadzono kilka symulacji, przy czym ustalono kp = 10 i kv przyjmując wartości kv = 0.2 , 1.0, a wyniki pokazano na rysunku



, gdzie jest teraz oczywiste, że sprzężenie zwrotne prędkości znacznie zmniejszyło przeregulowanie. Z tego widać, że oprócz umożliwienia przewidywania wyjścia dla różnych wejść i parametrów, symulacja umożliwiła testowanie różnych struktur regulatorów (od regulatora proporcjonalnego do regulatora proporcjonalnego prędkości) płynnie i prawie bez wysiłku.

Systemy mechaniczne

Wychodząc z symulacji matematycznej, symulacja graficzna to oparta na fizyce animacja rzeczywistych środowisk, która jest często wykorzystywana w obszarach takich jak układy dynamiczne i dynamika płynów. W obliczeniowej dynamice płynów (CFD) inżynierowie przeprowadzają symulacje w celu wizualizacji przepływu płynów, które mogą być następnie wykorzystane do przyspieszenia (i optymalizacji) projektowania wydajnych samolotów lub samochodów wyścigowych, na przykład, jak pokazano na rysunku, który przedstawia analizę przepływu powietrza wokół bolidu Formuły 1.



W symulacji dynamiki wieloobiektowej inżynier jest w stanie zwizualizować ruch kilku ciał (sztywnych lub elastycznych), biorąc pod uwagę czynniki mechaniczne, takie jak ciężar, masa, siły, tarcie i bezwładność. Symulacje wieloczłonowe są szeroko stosowane w wielu sektorach, takich jak transport i automatyka, jako integralna część projektowania samolotów , projektowanie konstrukcji zawieszenia samochodowego i badanie dynamiki interakcji pociąg-tor. Jest również szeroko stosowany w biomechanice, na przykład do nieinwazyjnej oceny obciążenia kości [6], badania pogorszenia/zwyrodnienia stawu kolanowego oraz kontroli ruchu chodu [8]. Istnieje wiele programów umożliwiających przeprowadzanie symulacji dynamiki wieloobiektowej; Wśród nich znajdują się COMSOL i ADAMS. Oprogramowanie to rozwiązuje również równania ruchu w celu wygenerowania wyników symulacji. Użytkownicy mogą wprowadzać te równania, a także wszelkie skojarzone ograniczenia, a oprogramowanie je rozwiąże, a wyniki zostaną odzwierciedlone w symulacji.

Systemy produkcyjne

Symulacja jest również szeroko stosowana w przemyśle wytwórczym, gdzie symulacja to komputerowe modelowanie rzeczywistego systemu produkcyjnego. W przemyśle wytwórczym zapotrzebowanie na wydajność nigdy nie było większe i będzie nadal rosło. Koszty materiałów, transportu i pracy rosną z roku na rok, a konkurencja również się nasila - istnieje ogromna presja, aby produkować więcej, produkować lepiej i taniej. Aby utrzymać przewagę konkurencyjną, firmy muszą zadbać o to, aby koszty związane z czasem, sprzętem i inwestycjami były brane pod uwagę i optymalizowane. Producenci mogą wykorzystywać symulację do analizowania i eksperymentowania ze swoimi procesami w środowisku wirtualnym, zawsze w celu osiągnięcia celów produkcyjnych przy możliwie najniższych kosztach. Ponieważ odbywa się to w oprogramowaniu, eliminuje (lub znacznie zmniejsza) potrzebę uruchamiania rzeczywistego fizycznego procesu - oszczędzając w ten sposób czas i koszty. Symulacja zapewnia również środki do testowania i wdrażania zasad Lean Manufacturing i Six Sigma. Istnieje również wiele dostępnych na rynku pakietów oprogramowania do symulacji produkcji, takich jak FlexSim i Arena, żeby wymienić tylko kilka. W studium przypadku producent sprzętu AGD chciał przeprojektować znaczną część procesu końcowego montażu wkładów do lodówki oraz stworzyć i wdrożyć skuteczny i odpowiedni harmonogram produkcji dla tego procesu. Celem jest (a) określenie optymalnej ilości przestrzeni buforowej dla wykładzin oraz (b) zlokalizowanie dodatkowej powierzchni na zakup nowego sprzętu. System produkcyjny wytwarza wkłady do lodówek o różnych rozmiarach, przenosi całe wkłady do obszaru, w którym są cięte, oklejane i prasowane, a następnie przenosi wkładki do obszaru wkładania.



Na rysunku wyzwanie polegało na drugim podprocesie, aby określić odpowiednią mieszankę różnych rozmiarów wkładek do przeniesienia do obszaru "prasy", aby zmaksymalizować wykorzystanie sprzętu systemowego, ponieważ przezbrojenie może zająć dużo czasu. Przed strefą prasową znajduje się strefa buforowa, która ma "złożyć" wkładki na później aby używać podczas pracy poza zmianą lub powolnej produkcji z powodu awarii lub wąskich gardeł. Potrzebna była większa przestrzeń buforowa do przechowywania przelewów, a dodatkowa powierzchnia musiała zostać zlokalizowana na zakup nowego sprzętu. Firma była gotowa zainwestować znaczną ilość sprzętu i personelu w przeprojektowanie zakładu produkcyjnego; jednak ilość sprzętu i siły roboczej nie była znana. Oprogramowanie symulacyjne Arena zostało wykorzystane do opracowania przyjaznego dla użytkownika modelu symulacyjnego. Model był bardzo szczegółowy i mógł oceniać dynamiczne przepływy produktów przez system, oceniając obsługę materiałów oraz operacje produkcyjne. Do uchwycenia wrażliwości systemu dla operacji produkcyjnych w systemie potrzebny był wysoki poziom szczegółowości. Analiza i obliczenia wykazały wymaganą przestrzeń buforową dla różnych scenariuszy produkcyjnych i dla wielu układów urządzeń. Aby zweryfikować model, szczegółowa animacja wyświetlała każdą wkładkę podczas jej przemieszczania się przez system (i ujawniała wąskie gardła w systemie) i pokazywała dynamiczny stan buforów, weryfikując w ten sposób model. Wreszcie, dzięki realizacji przewidywanego harmonogramu produkcji, możliwe było wykonanie projektu z minimalnymi zasobami systemowymi niezbędnymi do realizacji celów produkcyjnych. W oparciu o model, sprzęt wyważający i koszty przenośników obliczono różne kompromisy kosztowe w stosunku do przepustowości i wielkości produkcji. W innym studium przypadku firma zajmująca się dystrybucją kosmetyków wykorzystała FlexSim do stworzenia modelu symulacyjnego swojego centrum dystrybucji, który został następnie wykorzystany jako narzędzie wspomagające podejmowanie decyzji. Korzystając z modelu, decydenci w firmie mogli szybko wprowadzać zmiany w zmiennych wejściowych (takich jak rozmieszczenie produktów, wielkości zamówień, asortyment zamówień, plany personelu/harmonogramu, wydajność operatorów i wiele innych) oraz dokładnie określić efekty. Model jest elastyczny i można go zmieniać i analizować w ciągu kilku minut. Stworzono pulpit nawigacyjny, aby natychmiast informować operatora/inżyniera o aktualnym stanie systemu, o tym, co wydarzyło się w ciągu dnia pracy, wskaźnikach wykorzystania operatora oraz zrównoważeniu obszarów kompletacji i stref kompletacji.

Systemy transportowe

Symulacja jest również wykorzystywana w dyscyplinie ruchu i transportu, gdzie urbaniści i inżynierowie transportu wykorzystują symulacje do planowania, projektowania i obsługi systemów transportowych. W transporcie symulacja jest bardzo ważna, ponieważ jej modele są bardzo skomplikowane, nieprzewidywalne, a czasem chaotyczne i dlatego uzyskanie matematycznego (czy analitycznego) rozwiązania jest prawie niemożliwe. W tych symulacjach projektant może zmieniać warunki (takie jak liczba pasów, czasy sygnalizacji świetlnej, położenie skrzyżowań itp.) i zobaczyć ich efekt. Symulacja ruchu odbywa się często na dwóch poziomach - makroskopowym i mikroskopowym. Symulacja mikroskopowa jest wykonywana na niskim poziomie, co obejmuje pojedyncze pojazdy, gdzie badane jest zachowanie pojazdów w odpowiedzi na zmiany zmiennych. Natomiast symulacja makroskopowa jest na wyższym poziomie, gdzie symulacja wykonywana jest dla sieci drogowej. Dostępne są różne pakiety oprogramowania do symulacji ruchu, takie jak SUMO (Simulation of Urban Mobility) i Vissim, żeby wymienić tylko kilka.

Interaktywna symulacja

Interaktywna symulacja zwykle obejmuje człowieka, gdzie symulator reaguje na działania człowieka. Jest to nieco podobne (lub powiązane) z wirtualną rzeczywistością, w której wirtualne środowisko jest platformą symulacyjną. Takie symulacje umożliwiają wizualizację otoczenia bez konieczności wchodzenia w nie. Na przykład istnieją symulatory jazdy, symulatory motocykli i symulatory lotu. Chociaż wiele z nich jest wykorzystywanych do rozrywki i gier, są one również bardzo przydatne do treningu. Na przykład symulator lotu może być wykorzystywany jako znacząca część szkolenia pilota; mimo że wymagane jest prawdziwe szkolenie w terenie, symulator może zapewnić większą część szkolenia, oszczędzając w ten sposób koszty i czas.

Symulacje reagujące fizycznie

Symulacje reagujące fizycznie to te, które wytwarzają ruchy mechaniczne, wibracje lub dźwięki w odpowiedzi na działania danej osoby; Symulacja kliniczna jest jednym z tych typów symulacji, w których symulowane są scenariusze kliniczne. Zwykle ma postać ludzkiego manekina, który może symulować różne stany, takie jak (wielokrotne) zatrzymanie akcji serca lub bycie przedmiotem chirurgii , w celu szkolenia studentów medycyny i pielęgniarstwa w reagowaniu na różne warunki, z jakimi mogą się zetknąć w przyszłej karierze zawodowej. Innym przykładem symulacji reagującej fizycznie jest taka, która generuje fizyczne reakcje, gdy użytkownik wykonuje określoną czynność. Na przykład systemy dotykowe symulują dotyk, wytwarzając siły, wibracje lub ruchy na użytkownika w odpowiedzi na jego działania. Ważnym zastosowaniem haptyki jest teleoperacja, w której użytkownik zdalnie steruje systemem (lub różnymi agentami) w środowiskach niebezpiecznych, takich jak sterowanie manipulatorami robotów do obsługi materiałów radioaktywnych lub kontrolowanie roju robotów w trudnych warunkach. W tych zadaniach byłoby bardzo korzystne, gdyby siły lub ruchy były zwracane do odczuwania przez użytkownika/operatora. W przypadku zdalnie sterowanego manipulatora robota, poprzez dostarczenie informacji zwrotnej o sile reakcji, umożliwiłoby to użytkownikowi/operatorowi określenie odpowiedniego poziomu siły chwytu do zastosowania. Innym zastosowaniem teleoperacji dotykowej jest robotyka chirurgiczna, gdzie chirurg wykonuje operację zdalnie sterując robotem, który jest w stanie osiągnąć znacznie większą precyzję. Jedną z kluczowych technologii wspomagających jest sprzężenie zwrotne siły dostarczane chirurgowi. Da Vinci firmy Intuitive Surgical jest jednym z takich istniejących robotów chirurgicznych do użytku klinicznego.

Symulacja rzeczywistości wirtualnej

Rzeczywistość wirtualna to platforma, która zapewnia wciągające wrażenia dla użytkownika. Był używany w wielu dziedzinach. Na przykład Balfour Beatty Rail wykorzystuje wirtualną rzeczywistość do symulacji konstrukcji, która ma zostać zbudowana, nawet przed podniesieniem łopaty. Planowanie urbanistyczne to kolejny obszar, który czerpie korzyści z wirtualnej rzeczywistości. Amerykańskie Stowarzyszenie Architektów Krajobrazu nazywa wirtualną rzeczywistość "potężnym narzędziem dla architektów krajobrazu, architektów, planistów i deweloperów - naprawdę każdego zaangażowanego w projektowanie naszych środowisk zabudowanych i naturalnych". Wciągający charakter VR, który pozwala widzom na poznanie symulowanego krajobrazu 3D z wielu punktów widzenia, może być bardzo przydatnym narzędziem dla urbanistów . Mogą go używać do przerysowywania ulic i dzielnic, oferując rzeczywiste i wyimaginowane widoki istniejących i proponowanych inwestycji. Rzeczywistość wirtualna może być również wykorzystywana do zwiększania wrażenia zwiedzających miejsca historyczne, gdzie odwiedzający mogą teraz aktywnie angażować się w eksponaty, na przykład, aby "doświadczyć" miejsc historycznych lub wydarzeń; można to wykorzystać, aby przyciągnąć znacznie większą publiczność (zwłaszcza młodsze dzieci), w przeciwieństwie do tradycyjnych metod wystawienniczych, które zwykle przyciągają tylko starsze pokolenie. Jednym z takich miejsc, które dodało tę funkcję, jest Instytut Franklina.

Korzyści z symulacji

Konserwacja predykcyjna

W procesach przemysłowych nieplanowane przestoje są bardzo kosztowne, zarówno pod względem zakłóceń produkcji/usług (utrata przychodów), jak i kosztów przywrócenia obsługi majątku. Niedziałający proces produkcyjny/urządzenia mogą nadal oznaczać straty w przychodach rzędu tysięcy dolarów na minutę. Regularna zaplanowana konserwacja może pomóc w uniknięciu (lub skróceniu) nieplanowanych przestojów, ale nie gwarantuje, że proces/sprzęt nie ulegnie awarii. Dlatego bardzo przydatna i cenna byłaby możliwość przewidzenia, kiedy proces lub sprzęt ulegnie awarii, tak aby można było podjąć niezbędne i odpowiednie działania naprawcze w zakresie konserwacji; zmniejsza to również częstotliwość prac konserwacyjnych. Wszystkie te korzyści można osiągnąć dzięki konserwacji predykcyjnej. Aby przeprowadzić konserwację predykcyjną, dane operacyjne w normalnych warunkach są uzyskiwane z procesu/urządzenia. Następnie dane są przetwarzane w celu stworzenia modelu symulacyjnego procesu/urządzenia (znanego również powszechnie jako Digital Twin). Model można również opracować przy użyciu pierwszych zasad lub równań fizycznych, które rządzą zachowaniem procesu/urządzenia (oprócz uzyskanych danych operacyjnych). Model zostanie następnie wykorzystany do symulacji wadliwych warunków w celu uzyskania danych podczas wadliwego działania (które określimy jako wadliwe dane). Wadliwe dane zostaną następnie wykorzystane do opracowania modelu predykcyjnego lub algorytmu predykcyjnego. Algorytm jest następnie wdrażany, aby działał równolegle z procesem/sprzętem, odbierając dane procesu/urządzenia w czasie rzeczywistym oraz przetwarzając i analizując dane w celu przewidzenia wystąpienia błędu oraz czasu, zanim proces/urządzenie ulegnie awarii . Przebieg konserwacji predykcyjnej zademonstrowano na pompie triplex z trzema tłokami. Symulacja 3D wieloobiektu jest opracowywana (przy użyciu modelu CAD producenta) i optymalizowana. Po opracowaniu symulacji wieloobiektowej (cyfrowy bliźniak) do modelu dodawane są zachowania awaryjne w celu symulacji wadliwych warunków, takich jak wyciek z uszczelnienia i zablokowany wlot. Na tej podstawie generowane są (błędne) dane dla wszystkich możliwych kombinacji usterek (uszkodzeń pojedynczych, a także usterek występujących jednocześnie). Przeprowadzono liczne symulacje, aby uwzględnić efekty kwantyzacji w czujniku - byłoby to prawie niemożliwe (i bardzo kosztowne) bez modelu symulacyjnego (lub Digital Twin). Wadliwe dane są następnie wykorzystywane do trenowania algorytmu uczenia maszynowego, który będzie rozpoznawał wzorce błędnych danych. Po opracowaniu algorytmu uczenia maszynowego jest on następnie testowany z większą liczbą danych symulacyjnych, aby zweryfikować jego skuteczność, a gdy to zrobisz, algorytm może zostać wdrożony w systemie.

Prognoza

Symulacja umożliwia użytkownikom przewidywanie wydajności systemu dla danych wejść i parametrów. Jednym z takich przykładów jest Nowa Zelandia, gdzie zapewnione są nieprzerwane dostawy z krajowej sieci energetycznej. Moc wytwórcza i zużycie obciążenia muszą być zbilansowane, gdzie musi istnieć wystarczająca rezerwa mocy, aby zaspokoić każde (wzrost) zapotrzebowania, a mimo to rezerwa mocy nie może być zbyt wysoka, ponieważ utrzymywanie wytworzonej mocy w rezerwie jest kosztowne. W związku z tym istnieje potrzeba precyzyjnego obliczenia minimalnej rezerwy wymaganej do zapewnienia niezawodności sieci. Tradycyjnie, aby to osiągnąć, do obliczenia wymaganej rezerwy minimalnej stosowano arkusze kalkulacyjne, co wymagało od pracownika wykonania wielu ręcznych czynności i uruchomienia niektórych skryptów. Spowodowało to sztywność, w której trudno było włączyć nowe generatory i przestrzegać coraz bardziej skomplikowanych zasad. Aby przezwyciężyć tę trudność, w MATLAB i Simulink opracowano narzędzie do zarządzania rezerwami (RMT), zawierające szczegółowy model całej sieci, hermetyzujący generatory, obciążenie i połączenia między dwiema głównymi wyspami Nowej Zelandii. Co 30 minut symulacje są uruchamiane w RMT w oparciu o informacje minuta po minucie w celu określenia aktualnie wymaganej rezerwy. W tych symulacjach zmierzone dane (mierzone co minutę) są wprowadzane do RMT i weryfikowane z rzeczywistą wydajnością generatora. Takie podejście umożliwiło udoskonalenie modelu sieci i poszczególnych modeli generatorów. W ten sposób zapewnione jest niezawodne zasilanie (wystarczająca rezerwa) w opłacalny sposób.

Projektowanie, rozwój i szkolenia

Jak wyjaśniono wcześniej, symulacja umożliwia powtarzalne działanie systemu, szybko i bez żadnych kosztów. Dzięki temu użytkownik (lub projektant) może modyfikować parametry oraz wizualizować i oceniać wydajność systemu. Dzięki temu użytkownik/projektant może szybko, bez kosztów i bezpiecznie przetestować symulację (produktu lub systemu) pod kątem różnych parametrów i ustawień. Jest to szczególnie nieocenione w przypadku wrażliwych systemów, takich jak samoloty lub statki kosmiczne, które są drogie, wrażliwe i potencjalnie niebezpieczne. Powtarzające się symulacje, na podstawie których użytkownik/projektant może zwizualizować/ocenić wydajność, mogą przyspieszyć proces projektowania i rozwoju, a tym samym skrócić czas wprowadzenia produktu (lub systemu) na rynek. Zdolność symulacji do szybkiego, bezpiecznego i bezkosztowego uruchamiania systemu w sposób powtarzalny jest również korzystna w przypadku szkolenia ludzi, ponieważ znacznie przyspiesza i zmniejsza koszty szkolenia ludzi. Posiadanie ustalonego symulatora umożliwia szkolenie danej osoby o wiele szybciej. Na przykładzie symulatora lotu przedstawiono zalety wykorzystania symulacji do szkolenia ludzi, zwłaszcza w misjach o kluczowym znaczeniu dla bezpieczeństwa.

1. Łatwe powielanie scenariuszy: Stażyści muszą znać wiele scenariuszy, aby mogli się zakwalifikować i muszą doświadczyć tych scenariuszy. Symulator może łatwo tworzyć te scenariusze i konsekwentnie je replikować. Ponadto za pomocą symulatora można dostosować program szkoleniowy do potrzeb osoby szkolącej się, co dodatkowo przyczynia się do przyspieszenia szkolenia.

2. Szybsze szkolenie: Ze względu na łatwość i spójność replikowanych scenariuszy, pilot może zostać przeszkolony znacznie szybciej. Symulacja pozwala również trenującemu na popełnianie błędów bez większych konsekwencji, co dodatkowo przyspiesza trening.

3. Tańsze szkolenie: Replikacja niektórych scenariuszy może być bardzo kosztowna, a symulator eliminuje ten problem.

4. Bezpieczniejsze szkolenie: Od poprzedniego punktu, niektóre scenariusze mogą być nawet niebezpieczne do odtworzenia (zwłaszcza sytuacje awaryjne związane z samolotami), i po raz kolejny symulator eliminuje ten problem.

Uznaje się jednak, że podczas szkolenia zawsze wymagane jest prawdziwe doświadczenie w terenie, a symulacja może osiągnąć pewne ograniczenia. Mimo to symulacja zmniejsza czas, koszty i ryzyko szkolenia, a zatem nadal stanowi integralny element szkolenia, zwłaszcza w zastosowaniach o znaczeniu krytycznym.

Przemysł 4.0 i inteligentne miasta

Industry 4.0 reprezentuje czwartą rewolucję, jaka dokonała się w przemyśle wytwórczym. Ta rewolucja nastąpiła dzięki cyfryzacji całego procesu produkcyjnego, która powoduje znaczną zmianę w sposobie wytwarzania produktów dzisiaj. Od pierwszej rewolucji przemysłowej, która obejmowała mechanizację poprzez energię parową, do drugiej rewolucji przemysłowej, która obejmowała masową produkcję i linie montażowe z wykorzystaniem silników i elektryczności, ogromny skok w produkcji nastąpił w trzeciej rewolucji przemysłowej, w której komputery i automatyzacja zostały szeroko wprowadzone na scenę przemysłową . Programowalne sterowniki logiczne (PLC) i roboty zostały wykorzystane do znacznej poprawy tempa, ilości i jakości produkcji, co w konsekwencji przyniosło dużą zmianę standardów życia w dzisiejszych miastach. Ponieważ produkty umożliwiające automatyzację można szybciej wytwarzać i wprowadzać na rynek przy niższych kosztach, ceny produktów na rynku znacznie spadły, co pozwala dużej części populacji zaangażować się w pojawienie się technologii, takich jak komputery i smartfony. Z biegiem czasu doprowadziło nas to do czwartej rewolucji przemysłowej, która bierze to, co rozpoczęło się w trzeciej rewolucji, i wzbogaca ją o inteligentne i autonomiczne systemy zasilane danymi i sztuczną inteligencją (AI). Dziś komputery mają możliwość łączenia się i komunikowania ze sobą na bardzo dużą skalę, dzięki szybkiemu rozwojowi Internetu, technologii komunikacji mobilnej, mocy obliczeniowej i pojemności pamięci. Rozwój posunął się do tego stopnia, że dzisiejsze komputery są zdolne do podejmowania szybkich, podobnych do ludzkich decyzji bez udziału człowieka, co byłoby niemożliwe na taką skalę przed rewolucją przemysłową. Poprzez ekspansję systemów cyber-fizycznych, Internetu Rzeczy (IoT) i AI, Przemysł 4.0 stał się rzeczywistością, prowadząc do istnienia inteligentnej fabryki. Inteligentna fabryka to fabryka, która jest bardziej wydajna i produktywna oraz mniej marnotrawna. Działa poprzez inteligentne i połączone ze sobą maszyny, które są w stanie samodzielnie podejmować decyzje, komunikować się i rejestrować dane w ujednoliconej bazie danych. Ustanowienie Przemysłu 4.0 wprowadza nową koncepcję zwaną Smart Cities, która odnosi się do miast, które wykorzystują duże ilości dostępnych technologii danych i komunikacji w celu poprawy wydajności i jakości życia oraz usług miejskich, aby ostatecznie zmniejszyć zużycie zasobów, marnotrawstwo i ogólne koszty. Zgodnie z podsumowaniem sesji inicjatywy Belt and Road dotyczącej miejskich rozwiązań przemysłowych w ramach Organizacji Narodów Zjednoczonych ds. Rozwoju Przemysłowego, koncepcja inteligentnego miasta to paradygmat rozwoju miejskiego integrujący nowe innowacyjne pomysły, koncepcje i pojawiające się technologie, takie jak IoT, Internet usług (IoS), Internetu Ludzi (IoP) i Internetu Energii (IoE), które ostatecznie tworzą koncepcję Internetu wszystkiego (IoE), znanego również jako Przemysł 4.0 lub Czwarta Rewolucja Przemysłowa. Koncepcja ta ma na celu zapewnienie skutecznych i wysokiej jakości usług publicznych i infrastruktury w czasie rzeczywistym, a tym samym lepszej jakości życia obywateli i przejście w kierunku zrównoważonych miast . Wraz z rosnącą innowacją i wprowadzaniem nowszych technologii, inteligentne miasta są już dziś rzeczywistością i nadal się rozwijają i stają się bardziej przedefiniowane. Według danych CB Insights dotyczących wielkości rynku, globalny rynek inteligentnych miast ma wynieść 1,4 biliona USD w ciągu najbliższych 6 lat. Miasta można sklasyfikować jako miasta inteligentne, gdy są w stanie zbierać i analizować duże ilości danych z wielu różnych branż, aby zoptymalizować wykorzystanie zasobów i czasu w celu maksymalizacji zrównoważonego rozwoju i efektywności środowiskowej oraz zminimalizowania marnotrawstwa czasu i zasobów. Duże ilości danych są pozyskiwane z dużej liczby czujników, urządzeń i oprogramowania, które są ze sobą połączone, aby udostępniać dane jednemu źródłu, co pozwala na szybką i systematyczną analizę wszystkich danych. Aby miasto naprawdę stało się miastem inteligentnym, musi spełnić te kryteria dla dużej liczby przestrzeni, w tym zarządzania ruchem, zarządzania parkingami, zarządzania energią, zarządzania odpadami i planowania infrastruktury. Według artykułu badawczego Politechniki Białostockiej, norma ISO37120 jest najbardziej praktyczną metodą pomiaru wydajności miasta. Jednym z kluczowych aspektów definiujących "inteligentność" inteligentnego miasta jest możliwość analizowania dużych ilości danych w krótkich odstępach czasu w celu zapewnienia optymalizacji usług w czasie rzeczywistym. Chociaż dostępna dziś moc obliczeniowa umożliwia bardzo szybką analizę danych, większość form danych występuje w postaci nieustrukturyzowanej, która wymaga podobnych do ludzkich zdolności rozumienia języka naturalnego, rozpoznawania wzorców i podejmowania decyzji. Dzięki sztucznej inteligencji i technikom uczenia maszynowego jest to możliwe. Algorytmy uczenia maszynowego (MLA) zmieniają sposób, w jaki zbieramy, przetwarzamy, kontrolujemy i analizujemy dane, aby zapewnić dokładne prognozy, które umożliwiają taką analizę danych w wielu branżach. W rzeczywistości sztuczna inteligencja i uczenie maszynowe są już dziś wykorzystywane od przemysłu wodnego i energetycznego po zarządzanie ruchem, organy ścigania i branżę opieki zdrowotnej ze sprawdzonymi wynikami. Przy dużym i szybkim napływie danych w miastach co sekundę, sztuczna inteligencja odgrywa kluczową rolę w rozwoju inteligentnych miast.

Sztuczna inteligencja

Termin "sztuczna inteligencja" został po raz pierwszy ukuty przez Johna McCarthy′ego w Propozycji Projektu Sztucznej Inteligencji w Dartmouth w 1956 roku, kiedy zaprosił grupę badaczy do wzięcia udziału w letnich warsztatach o nazwie Dartmouth Summer Research Project on Artificial Intelligence w celu omówienia szczegółów tego, co mogłoby stać się polem AI. Badacze składali się z ekspertów z różnych dyscyplin, takich jak symulacja języka, sieci neuronowe i teoria złożoności. Termin "sztuczna inteligencja" został wybrany ze względu na jego neutralność, to znaczy, aby uniknąć nazwy, która zbytnio skupiała się na którymkolwiek z projektów , które były w tym czasie realizowane. Propozycja konferencji głosiła: "Badanie ma opierać się na przypuszczeniu, że każdy aspekt uczenia się lub jakakolwiek inna cecha inteligencji może być w zasadzie tak dokładnie opisana, że można stworzyć maszynę do jej symulacji. Podjęta zostanie próba znalezienia sposobu na to, by maszyny posługiwały się językiem, formowały abstrakcje i koncepcje, rozwiązywały problemy zarezerwowane obecnie dla ludzi i doskonaliły się". Jednak sztuczna inteligencja stała się popularniejsza dopiero w ostatnim czasie dzięki rosnącym wolumenom danych, opracowywaniu bardziej zaawansowanych algorytmów oraz udoskonalaniu mocy obliczeniowej i pamięci masowej. Ponadto, wraz ze wzrostem konieczności automatyzacji bardziej szczegółowych zadań w dziedzinach takich jak produkcja, sztuczna inteligencja zyskuje coraz większą uwagę w dzisiejszym świecie. W przeszłości rozwój sztucznej inteligencji ewoluował etapami. Od lat 50. do 70. rozwój sztucznej inteligencji obracał się wokół sieci neuronowych. Od lat 80. do 2010 r. uczenie maszynowe stało się popularne, a dziś boom sztucznej inteligencji jest napędzany przez głębokie uczenie. Sieć neuronowa składa się z połączonych ze sobą warstw węzłów, zaprojektowanych w celu bardzo prostego odtworzenia połączeń neuronów w mózgu. Każdy węzeł reprezentuje neuron, a połączenia w sieci neuronowej zaczynają się od wyjścia jednego sztucznego neuronu do wejścia drugiego. Przykładem sieci neuronowej jest splotowa sieć neuronowa (CNN). Sieci CNN zawierają pięć różnych typów warstw, którymi są warstwy wejściowe, konwolucji, łączenia, w pełni połączone i wyjściowe. CNN okazały się obiecujące w zastosowaniach, takich jak klasyfikacja obrazów i wykrywanie obiektów, przetwarzanie języka naturalnego (NLP) i prognozowanie. Innym przykładem sieci neuronowych jest rekurencyjna sieć neuronowa (RNN). RNN wykorzystują informacje sekwencyjne, takie jak dane ze znaczników czasu z czujników lub zdania złożone z sekwencji słów. Sieci RNN działają inaczej niż tradycyjne sieci neuronowe, w których nie wszystkie dane wejściowe do sieci RNN są od siebie niezależne, a dane wyjściowe dla każdego elementu zależą od obliczeń elementów poprzedzających. Są szeroko stosowane w prognozowaniu, aplikacjach szeregów czasowych, analizie sentymentu i innych aplikacjach tekstowych. Uczenie maszynowe to technika analizy danych, która uczy komputery uczenia się na podstawie doświadczenia, czyli z powtarzających się wzorców. MLA wykorzystują metody obliczeniowe, aby uczyć się bezpośrednio z danych, bez początkowego wymagania modelu w postaci z góry określonego równania. Wraz ze wzrostem wielkości próbki algorytm dostosowuje się i poprawia się jego wydajność. Uczenie maszynowe wykorzystuje dwa rodzaje technik, czyli uczenie nadzorowane i uczenie nienadzorowane. Nadzorowane metody uczenia, takie jak klasyfikacja i regresja, opracowują model predykcyjny oparty zarówno na danych wejściowych, jak i wyjściowych, dzięki czemu zyskuje możliwość przewidywania danych wyjściowych na podstawie danych wejściowych, podczas gdy nienadzorowane metody uczenia, takie jak grupowanie grup, interpretują dane na podstawie danych wejściowych, tak że mogą znaleźć ukryte złożone wzorce, które istnieją w danych. Powszechnymi algorytmami klasyfikacji są maszyny wektorów nośnych (SVM) i k-najbliższy sąsiad. Typowe algorytmy technik regresji to regresja liniowa i regresja nieliniowa. Typowe algorytmy klastrowania to klastrowanie hierarchiczne i grupowanie subtraktywne. Sztuczna inteligencja zyskuje na znaczeniu z wielu powodów. Wykorzystując gromadzone przez lata dane, sztuczna inteligencja automatyzuje powtarzalne uczenie się i proces odkrywania. Jednak sztuczna inteligencja to coś więcej niż tylko sprzętowa automatyzacja robotów, która po prostu automatyzuje zadania ręczne. Sztuczna inteligencja ma moc wykonywania dużych i częstych zadań niezawodnie i bez zmęczenia. Co ważniejsze, sztuczna inteligencja może nawet zautomatyzować zadania które wymagają zdolności poznawczych, które wcześniej były możliwe tylko dla ludzi. Ponadto sztuczna inteligencja włącza inteligencję do istniejących produktów. W większości przypadków sztuczna inteligencja nie będzie pakowana jako indywidualny produkt. Zamiast tego produkty, które już istnieją na rynku, będą wyposażone w możliwości sztucznej inteligencji. Przykładami takiego włączenia dzisiaj są dodanie Siri do nowszych generacji produktów Apple i dodanie Watsona do usług obliczeniowych IBM. Dzięki dużej ilości danych, które są obecnie tworzone i przechowywane, a także tonom danych, które już istnieją, Sztuczna inteligencja w postaci automatyzacji, platform konwersacyjnych, botów i inteligentnych maszyn usprawni wiele technologii w domach i miejscu pracy w wielu dziedzinach, od wywiadu bezpieczeństwa po finanse i bankowość. Co więcej, sztuczna inteligencja może dostosowywać się za pomocą algorytmów progresywnego uczenia się, dzięki czemu zamiast programistów kodujących reguły na podstawie danych, dane mogą wykonywać programowanie poprzez generowanie reguł na podstawie przeszłych zdarzeń. Sztuczna inteligencja szuka struktur i wzorców w danych, co zamienia algorytm w predyktor lub klasyfikator, ponieważ może następnie wyszukiwać podobne wzorce w nowych danych, aby podejmować decyzje. Na przykład algorytm AI zaprogramowany do gry w szachy może nauczyć się następnego zestawu ruchów, które musi wykonać, na podstawie poprzednich ruchów i tego, czy wynik ruchów był pozytywny, czy negatywny. Podobnie algorytm usługi przesyłania strumieniowego filmów, takiej jak Netflix, zaprogramowany do polecania filmów użytkownikom, może nauczyć się, jakie filmy preferują niektórzy użytkownicy, i polecić filmy podobnego gatunku, aby zapewnić użytkownikom większą wygodę. Ponieważ modele otrzymują więcej różnych rodzajów danych, dostosowują się. Gdy użytkownik uczy się nowego gatunku filmów i zaczyna preferować ten gatunek; algorytm uczy się tej preferencji i zaczyna polecać różne rodzaje filmów z tego nowo preferowanego gatunku. Techniką AI polegającą na dostosowywaniu się do danych jest propagacja wsteczna, która umożliwia dostosowanie modelu poprzez trenowanie i dodawanie danych, gdy początkowe wyniki są nieprawidłowe. Ponieważ moc obliczeniowa i pamięć gwałtownie wzrosły w poprzednich dekadach, w ostatnich latach możliwe stało się analizowanie większych ilości i głębi danych za pomocą sieci neuronowych, które mają wiele ukrytych warstw. Jeszcze kilka lat temu zbudowanie algorytmu sieci neuronowej do wykrywania oszustw z zaledwie pięcioma ukrytymi warstwami było prawie niemożliwe. To samo zadanie można łatwo wykonać dzisiaj, korzystając z istniejącej mocy obliczeniowej i dużych zbiorów danych. Ponadto do trenowania modeli uczenia głębokiego z wieloma ukrytymi warstwami potrzebne są duże ilości danych, ponieważ uczą się one bezpośrednio z danych. Im więcej danych jest podawanych do modeli, tym modele stają się dokładniejsze. Na przykład produkty takie jak Alexa firmy Amazon, wyszukiwarka Google i Zdjęcia Google, które codziennie uzyskują duże ilości danych poprzez interakcje z ludźmi i są oparte na głębokim uczeniu, stają się tym dokładniejsze, im częściej są używane. W dziedzinie medycyny techniki sztucznej inteligencji pochodzące z głębokiego uczenia się, takie jak klasyfikacja obrazów i rozpoznawanie obiektów, mogą obecnie wykrywać raka w obrazowaniu metodą rezonansu magnetycznego (MRI) z dokładnością podobną do tej, jaką mają doświadczeni radiolodzy. Ostatecznie, dzięki sztucznej inteligencji, jakość prognoz jest prawie całkowicie zależna od jakości danych. To sprawia, że dane stają się własnością intelektualną. Ponieważ dane odgrywają teraz ważniejszą rolę niż kiedykolwiek wcześniej, mogą one stworzyć przewagę konkurencyjną. Dane o najwyższej jakości oznaczają najwyższą jakość prognoz, klasyfikacji i rekomendacji. Typowe zastosowania sztucznej inteligencji to widzenie maszynowe i rozpoznawanie obiektów, NLP i przetwarzanie kognitywne. Rola sztucznej inteligencji w inteligentnych miastach w większości wykorzystuje te trzy aplikacje, które zostały omówione poniżej.

Widzenie maszynowe i rozpoznawanie obiektów

Według Tractica News prognozuje się, że do 2022 r. rynek sprzętu i oprogramowania do wizji komputerowej wyniesie 48,6 mld USD, przy łącznym rocznym tempie wzrostu wynoszącym 32,9 procent . Widzenie komputerowe to dziedzina badań obejmująca wysiłki na rzecz zapewnienia komputerom możliwości wizualnego odczuwania świata za pomocą kamer, w sposób, w jaki ludzie używają oczu do interakcji ze światem. Odbywa się to poprzez automatyczne wyodrębnianie, analizowanie i rozumienie cennych informacji z obrazów. Jednym z najpopularniejszych obecnie zastosowań widzenia maszynowego jest wykrywanie obiektów. Wykrywanie obiektów to aspekt widzenia maszynowego, który obejmuje wykrywanie i klasyfikowanie obiektów na obrazie lub filmie, takich jak ludzie, pojazdy i różne rodzaje żywności. Wykrywanie obiektów umożliwia automatyzację powtarzalnych zadań, takich jak liczenie tłumu, co wcześniej było możliwe tylko dzięki zastosowaniu bardziej skomplikowanych i kosztownych czujników, a niemożliwe przy użyciu zwykłych kamer. Wykrywanie obiektów istnieje już od dłuższego czasu; jednak stał się bardzo popularny dopiero w ostatnich latach dzięki odkryciu najnowocześniejszych modeli wykrywania obiektów opartych na sztucznej inteligencji, które sprawiają, że proces wykrywania obiektów jest niezwykle dokładny i możliwy z prędkością w czasie rzeczywistym. Obecnie narzędzia takie jak interfejs programowania aplikacji (API) Tensorflow Object Detection umożliwiają bardzo szybkie uczenie modelu wykrywania obiektów na przeciętnym komputerze wyposażonym w procesor graficzny (GPU). W rezultacie technologie wykrywania i rozpoznawania obiektów stały się powszechnie dostępne dla każdego, z którymi można eksperymentować i umożliwić sobie stanie się popularną dziedziną badań o szybkim rozwoju. Różne techniki wykrywania obiektów, które istnieją, obejmują splotową sieć neuronową opartą na regionie (RCNN), Fast RCNN, Faster RCNN, detektor pojedynczego strzału multibox (SSD), patrzysz tylko raz (YOLO) i RetinaNet. Niektóre z tych technik wyjaśniono poniżej. Podejście do głębokiego uczenia się do wykrywania obiektów wykorzystuje model wykrywania obiektów RCNN .Przed zrozumieniem działania modelu RCNN konieczne jest zrozumienie, jak działa model CNN. Model CNN przyjmuje obraz jako dane wejściowe, dzieli obraz na różne regiony, traktuje każdy region jako osobny obraz, przekazuje regiony przez CNN i klasyfikuje je na różne klasy oraz łączy regiony z klasami, aby uzyskać oryginalny obraz z wykryte obiekty. Korzystanie z modelu opartego na CNN ma tę wadę, że obiekty na obrazie mogą mieć różne lokalizacje przestrzenne i proporcje. Ten problem można rozwiązać, dzieląc obraz na dużą liczbę regionów; wymaga to jednak dużej mocy obliczeniowej i zajmuje dużo czasu. RCNN rozwiązuje ten problem, przekazując CNN tylko niektóre obszary zainteresowań (RoI). Odbywa się to za pomocą metody propozycji regionu, takiej jak wyszukiwanie selektywne. Wyszukiwanie selektywne pobiera obraz wejściowy, generuje początkowe podsegmentacje w celu wytworzenia różnych regionów obrazu, a następnie łączy podobne regiony w oparciu o podobieństwo koloru, tekstury, rozmiaru i kształtu, aby utworzyć większe segmentacje, a te segmentacje dają ostateczną lokalizację obiektu, czyli , ROI. Model RCNN jest opracowywany przez przeszkolenie wstępnie wytrenowanego modelu CNN przez trenowanie ostatniej warstwy sieci neuronowej na podstawie liczby klas, które mają zostać wykryte. Po wdrożeniu modelu pobiera obraz, uzyskuje RoI za pomocą sieci propozycji regionów (RPN), takiej jak wyszukiwanie selektywne, przekształca regiony zainteresowania tak, aby pasowały do rozmiaru wejściowego CNN i używa SVM do klasyfikowania obiektów. Dla każdej klasy, która ma zostać wykryta, szkolona jest osobna binarna maszyna SVM. Daje to przybliżone ramki ograniczające w lokalizacjach wykrytych obiektów. Model regresji liniowej służy do uzyskania ściślejszych ramek ograniczających, które dokładniej wiążą wykryte obiekty na obrazie. Ponieważ przy wykrywaniu obrazów podejmowana jest duża liczba kroków, model RCNN może zająć do 50 s, aby wykonać prognozy dla każdego nowego obrazu, co sprawia, że model jest niewykonalny do wykrywania obiektów i kłopotliwy w przypadku uczenia modelu z dużymi zestawami danych. Ze względu na wady RCNN opracowano model Fast RCNN. Zamiast używać trzech różnych modeli, takich jak RCNN, FastRCNN używa pojedynczego modelu, który wyodrębnia cechy z regionów na obrazie, dzieli je na różne klasy i zwraca pola graniczne dla zidentyfikowanych klas za jednym razem. Dlatego zamiast konieczności przepuszczania tysięcy obszarów obrazu przez CNN, co jest obliczeniowo kosztowne, cały obraz przechodzi przez CNN raz. Odbywa się to poprzez przekazanie obrazu przez metodę propozycji regionu, która generuje RoI. Następnie do wszystkich tych regionów stosuje się pulowanie ROI w celu przekształcenia ich zgodnie z danymi wejściowymi metody propozycji regionów, a regiony są jednocześnie przekazywane do CNN. W górnej części CNN do wyprowadzania klas używana jest warstwa softmax. Równolegle używana jest warstwa regresji liniowej do wyprowadzania współrzędnych prostokąta granicznego dla każdej wykrytej klasy. To sprawia, że Faster RCNN jest znacznie szybszy niż RCNN. Ponieważ jednak wyszukiwanie selektywne jest nadal używane w szybkim RCNN, podobnie jak w RCNN, a ponieważ wyszukiwanie selektywne jest procesem czasochłonnym, wykrywanie jest spowolnione i zajmuje około 2 s, aby dokonać prognozy dla każdego nowego obrazu. Aby rozwiązać ten problem, opracowano Faster RCNN, który działa nawet szybciej niż Fast RCNN. W porównaniu do Fast RCNN, który wykorzystuje selektywne wyszukiwanie do generowania RoI, Faster RCNN wykorzystuje metodę o nazwie RPN. Najpierw obraz przechodzi przez CNN, która tworzy mapy cech obrazu. Mapy cech są następnie przekazywane do RPN, który używa przesuwanego okna nad mapami cech i generuje w każdym oknie k-Zakotwiczenia o różnych kształtach i rozmiarach. Dla każdej kotwicy wykonywane są dwie prognozy - (a) prawdopodobieństwo, że kotwica jest obiektem i (b) regresor pola ograniczającego w celu dostosowania kotwic, aby lepiej pasowały do obiektu. Tworzy to ramki ograniczające o różnych kształtach i rozmiarach, które są następnie przekazywane do warstwy puli RoI. Warstwa puli wyodrębnia mapy obiektów o stałym rozmiarze dla każdej kotwicy. Mapy obiektów są przekazywane do ostatniej warstwy, która zawiera warstwę softmax i warstwę regresji liniowej. Warstwy te tworzą klasy wykrytych obiektów i współrzędne obwiedni dla każdego obiektu. Dzięki ulepszeniom wprowadzonym z Faster RCNN do Faster RCNN prognozy dla każdego nowego obrazu zajmują około 0,2 s przy użyciu modelu Faster RCNN. Model wykrywania obiektów SSD jest przeznaczony do wykrywania obiektów w czasie rzeczywistym. Termin "Single Shot" oznacza, że zadania lokalizacji i klasyfikacji obiektów są wykonywane w jednym przejściu do przodu sieci neuronowej, "MultiBox" to nazwa techniki regresji pola ograniczającego, a "Detector" oznacza, że sieć jest detektorem obiektów który klasyfikuje wykryte obiekty. W przeciwieństwie do modelu Faster RCNN, który wykorzystuje RPN do tworzenia ramek granicznych, a następnie używa tych ramek do klasyfikowania obiektów, co tworzy predykcje o dużych dokładnościach, dysk SSD eliminuje RPN z modelu. Dzieje się tak, ponieważ model RCNN działa z prędkością około 7 klatek na sekundę, co jest niezwykle powolne w przypadku wykrywania obiektów w czasie rzeczywistym. Jednak usunięcie RPN wiąże się z kosztami dokładności. Dysk SSD rekompensuje tę stratę, włączając funkcje wieloskalowe i domyślne pola. Dzięki temu dysk SSD jest w stanie osiągnąć szybkość przetwarzania w czasie rzeczywistym i dokładność nawet lepszą niż w modelu Faster R-CNN. W standardowych zestawach danych, takich jak PascalVOC i COCO, dysk SSD osiąga ponad 70 procent średniej precyzji (mAP) przy 19 klatkach na sekundę. Jednym z najnowocześniejszych podejść do wykrywania obiektów, dającym szybkości i dokładności większe niż inne podejścia, jest YOLO. Jak sama nazwa wskazuje, w przeciwieństwie do poprzednich modeli, YOLO pobiera cały obraz w jednej instancji i przewiduje prawdopodobieństwa klas oraz współrzędne ramki granicznej dla wykrytych obiektów na obrazie. YOLO działa, wykonując obraz wejściowy, dzieląc obraz wejściowy na siatki, na przykład siatki 3 x 3, a następnie przeprowadzając klasyfikację i lokalizację obrazu na każdej siatce. Następnie YOLO przewiduje prawdopodobieństwa klas i współrzędne ramki granicznej dla wykrytych obiektów. Na standardowych zestawach danych, takich jak VOC2007, YOLO wykazał, że generuje mAP na poziomie 63,4%, a wykrywanie odbywa się z prędkością 45 klatek na sekundę. Innym aspektem wizji komputerowej, który zyskuje na popularności, jest szacowanie ludzkiej pozy. Szacowanie ludzkiej pozy to przewidywanie części ciała i pozycji stawów osoby na podstawie obrazu lub filmu. Jest to narastający problem związany z rosnącą liczbą zastosowań w dziedzinie bezpieczeństwa i nadzoru, opieki zdrowotnej, transportu i sportu. Przykłady takich zastosowań obejmują nadzór wideo w czasie rzeczywistym, wykrywanie udaru i zawału serca, życie wspomagane, zaawansowane systemy wspomagania kierowcy (ADAS) i analiza sportu. Szacowanie ludzkiej pozy jest ogólnie podzielone na dwie kategorie: (a) szacowanie pozycji 2D i (b) szacowanie pozycji 3D. Szacowanie pozycji 2D obejmuje oszacowanie pozycji człowieka we współrzędnych x i y, podczas gdy oszacowanie pozycji 3D obejmuje oszacowanie pozycji człowieka we współrzędnych x, y i z dla stawów w kolorze czerwonym/zielonym/niebieskim (RGB). Szacowanie ludzkiej pozy jest uważane za trudny problem do rozwiązania ze względu na różnice między ludźmi, które występują na obrazach, a także inne czynniki, takie jak okluzja, odzież, warunki oświetleniowe, małe stawy i silne artykulacje. Wcześniej do szacowania pozycji przegubowych używano metod klasycznych, takich jak ramy struktur obrazkowych. Jest to ustrukturyzowane zadanie przewidywania obejmujące reprezentację obiektu za pomocą zbioru "części", które są ułożone w odkształcalnej konfiguracji. "Części" to szablony ludzkich stawów, które są dopasowane do tych na obrazie, a sprężyny służą do pokazywania połączeń przestrzennych między częściami. Ta metoda może modelować artykulację, dając przybliżenie ludzkiej pozy. Innym klasycznym podejściem do szacowania pozy człowieka są modele części odkształcalnych. W tym podejściu zastosowano mieszany model części, które wyrażają złożone relacje połączeń. Podobnie do struktury obrazkowej, model ten jest zbiorem szablonów w odkształcalnej konfiguracji; jednak ten model jest bardziej złożony, ponieważ składa się z większej liczby "części" z szablonami globalnymi i szablonami części. Jednak klasyczne podejścia mają swoje ograniczenia, takie jak brak wyrazistości, a dziś badania nad szacowaniem pozy w dużej mierze wymagają użycia CNN. Po wprowadzeniu metody szacowania ludzkiej pozy DeepPose opartej na głębokich sieciach neuronowych, większość badań nad szacowaniem ludzkiej pozy rozpoczęła się polegać na głębokim uczeniu się. Obecnie ConvNets zastąpiły większość zaprogramowanych funkcji i modeli graficznych jako główny blok konstrukcyjny większości systemów szacowania pozycji, tworząc duże ulepszenia wydajności szacowania pozycji w standardowych testach porównawczych. Niektóre z najpopularniejszych podejść do szacowania ludzkich pozycji opartych na głębokim uczeniu to DeepPose, Convolutional Pos Machines, wydajna lokalizacja obiektów za pomocą sieci Convolutional Networks, Convolution Network Estimation with iterative error Feedback i Stacked Hourglass Networks do szacowania ludzkiej pozycji. Chociaż opublikowano wiele artykułów naukowych dotyczących głębokiego uczenia się i innych podejść AI do szacowania ludzkich pozycji, DeepPose był pierwszym ważnym artykułem, który zastosował głębokie uczenie w szacowaniu ludzkiej pozy, uzyskując najnowocześniejszą wydajność i pokonując istniejące modele. DeepPose formułuje problem szacowania pozy jako problem regresji opartej na CNN w stosunku do stawów ciała. Kaskada regresorów jest używana do udoskonalania szacowania pozy. Artykuł badawczy na temat DeepPose stwierdza, że CNN zapewniają holistyczne rozumowanie ludzkich póz, więc nawet jeśli stawy są niejasne, małe lub ukryte, CNN są w stanie wnioskować i oszacować pozycję stawów. Zazwyczaj oszacowanie pozy obejmuje wnioskowanie o lokalizacji części ciała lub punktów orientacyjnych, a jakość prognozy opiera się na metrykach obejmujących porównania między przewidywaną a naziemną lokalizacją na płaszczyźnie obrazu. Innym aktywnym polem badań jest szacowanie kątów w stawach ludzkich, które polega na szacowaniu kątów tworzonych przez segmenty ludzkiego ciała w punktach orientacyjnych stawów we współrzędnych światowych. Można to zrobić na dwa różne sposoby: (a) bezpośrednio regresując kąty połączeń z obrazu i (b) oszacowując kąty połączeń za pomocą geometrii. Pierwsza metoda wymaga przeszkolenia modelu szacowania kąta stawu poprzez zasilenie go obrazami pozycji ludzkich i kątów stawu, które można rejestrować za pomocą czujników, takich jak system przechwytywania ruchu Qualisys (MoCap), dzięki któremu wdrożenie modelu zapewniłoby wspólne kąty z obrazów wejściowych. Druga metoda polega na oszacowaniu ludzkiej pozy na obrazie, co daje jako wynik przestrzenny układ 2D lub 3D wszystkich stawów ciała. Można to łatwo osiągnąć za pomocą trygonometrii, wytwarzając niezbędne kąty stawów w trzech wymiarach, jeśli ocena ludzkiej pozy odbywa się w trzech wymiarach. Zastosowanie oceny ludzkiej pozy polega na tym, aby robot podążał trajektorią ludzkiej pozy, tak aby odtwarzał ruchy osoby. Roboty przydatne w tej dziedzinie to roboty dwuramienne z wieloma osiami na ramię, takie jak YuMi firmy ABB, z dwoma ramionami i siedmioma osiami na ramię. Tę aplikację można osiągnąć, wykonując kadry osoby i przekazując je do modelu szacowania ludzkiej pozy, który daje trójwymiarowy układ stawów ciała, obliczając kąty stawów ramion za pomocą geometrii i wysyłając te kąty do każdej odpowiedniej osi ramienia robota. Osie ramienia robota są następnie programowane do poruszania się pod tymi kątami. Wykonanie tego w czasie rzeczywistym zapewniłoby replikację ludzkiej pozy w czasie rzeczywistym na robocie z dwoma ramionami. To zastosowanie może zyskać duże znaczenie w szkoleniu robota, aby wytwarzał ruch bardziej podobny do ludzkiego, co staje się przydatne w dziedzinie opieki zdrowotnej podczas programowania robotów do wspomaganego życia osób starszych lub przy wykonywaniu operacji z użyciem robota.

Przetwarzanie języka naturalnego

NLP to dziedzina, która umożliwia maszynom rozumienie, analizowanie i manipulowanie ludzkim językiem. Jest to rozległa dziedzina obejmująca wiele dyscyplin, od informatyki po lingwistykę komputerową. Ostatecznym celem NLP jest wypełnienie luki, która istnieje między komunikacją ludzką a językiem maszynowym. Podczas gdy ludzie mówią wieloma różnymi językami, od angielskiego przez chiński po hiszpański, komputery z natury pracują i rozumieją język maszynowy, który na najniższych poziomach maszyn jest złożoną kombinacją jedynek i zer. Ponad 70 lat temu programiści wybijali karty z jedynkami i zerami, aby komunikować się z maszynami. NLP ma na celu umożliwienie komputerom zrozumienia komunikacji międzyludzkiej i, na bardziej złożonych poziomach, interakcji międzyludzkich, a jednocześnie umożliwienie ludziom okiełznania dużej ilości dostępnej obecnie mocy obliczeniowej do wykonywania zadań, od przetasowania do następnej piosenki, po tłumaczenie akapit e-maila w innym języku, zachowując ton tekstu. NLP jest uważany za trudny problem do rozwiązania ze względu na naturę ludzkiego języka. Różnorodność reguł ludzkich języków utrudnia zaprogramowanie narzędzi NLP do rozumienia i analizowania szerokiego zakresu tekstów i rozmów. Gdy mamy do czynienia z podstawowymi zasadami gramatyki, takimi jak dodanie litery "s" na końcu rzeczownika w celu wskazania liczby mnogiej, podczas opracowywania narzędzi NLP można napisać proste warunki "jeśli-inne". Jednak radzenie sobie z sarkazmem w przekazywaniu informacji jest złożonym problemem do rozwiązania i wymagałoby od narzędzia NLP zrozumienia wzorców rozmowy i tematów ostatnio omawianych w celu wykrycia sarkazmu. Podczas opracowywania narzędzia NLP do rozwiązywania złożonych problemów związanych z przetwarzaniem tekstu lub rozmów, sztuczna inteligencja jest kluczowym składnikiem ze względu na jej zdolność do rozpoznawania wzorców. Głębokie sieci neuronowe są dziś powszechnie używane do opracowywania potężniejszych systemów NLP, które są w stanie prowadzić z ludźmi konwersację podobną do ludzkiej. Przykładami takich aplikacji są zautomatyzowane chatboty wykorzystujące sztuczną inteligencję, używane obecnie przez wielu dostawców usług do zapewniania natychmiastowych odpowiedzi na zapytania swoich klientów. Chociaż NLP istnieje od lat 50. XX wieku, kiedy Alan Turing opublikował artykuł zatytułowany "Computing Machinery and Intelligence", w którym jako kryterium inteligencji zaproponował to, co obecnie nazywa się testem Turinga, zyskał on ostatnio wiele uwagi ze względu na rosnące zainteresowanie komunikacja człowiek-maszyna (H2M), oprócz dużych ilości danych przechowywanych każdego dnia, coraz potężniejszej dostępnej mocy obliczeniowej i ulepszonych algorytmów. Ponadto, wraz z wykładniczym wzrostem AI i głębokich sieci neuronowych, które okazały się obiecujące, gdy są stosowane w narzędziach NLP, rynek NLP rośnie w szybkim tempie. Według raportu firmy Gartner 2018 World Artificial Intelligence Industry Development Blue Book, globalny rynek NLP będzie wart 16 miliardów dolarów do 2021 roku. NLP bardzo szybko staje się istotnym narzędziem dla firm, w zastosowaniach takich jak analiza sentymentu, chatboty, obsługa klienta, zarządzanie reklamami lejki i wywiad rynkowy. Jednym z prostszych zadań NLP z AI jest klasyfikacja tekstu. Podobnie jak modele wykrywania obiektów klasyfikują obiekty na obrazie, klasyfikacja tekstu za pomocą NLP obejmuje klasyfikację tekstu na różne predefiniowane kategorie. Staje się to ważne w aplikacjach, takich jak wykrywanie spamu lub analiza sentymentu, w których wiersze lub akapity tekstu są danymi wejściowymi modelu NLP, a dane wyjściowe modelu to "prawda" lub "fałsz" w przypadku systemów wykrywania spamu lub "szczęśliwe" lub "smutny" na przykład w przypadku systemów analizy sentymentu. Kolejnym zadaniem NLP jest odkrywanie tematów i modelowanie. Modelowanie tematyczne to zadanie polegające na wykorzystaniu uczenia nienadzorowanego do wyodrębnienia głównych tematów występujących w tekście lub zbiorze dokumentów; w związku z tym można go łatwo porównać z grupowaniem. W większości przypadków dane pojawiają się w formie nieustrukturyzowanej, na przykład szeroki zakres tematów publikowanych codziennie w witrynie blogowej lub szeroki zakres produktów publikowanych w witrynie sprzedawcy. Wykonując modelowanie tematyczne na danych, możemy uzyskać zestaw tematów, które są bardziej powszechne i pozwalają na sklasyfikowanie dużej ilości danych w ramach tych tematów. Istnieje kilka algorytmów modelowania tematów, takich jak utajona alokacja Dirichleta (LDA), oparta na probabilistycznych modelach graficznych, utajona analiza semantyczna (LSA) i nieujemna faktoryzacja macierzy (NMF), które są oparte na algebrze liniowej.

Obliczenia kognitywne

Obliczenia poznawcze to symulacja procesów myślowych człowieka w maszynie lub modelu skomputeryzowanym. Definiuje się ją jako zestaw komponentów obliczeniowych siły przemysłowej wymaganych do dostarczania klientom poznania jako usługi (w tym trzech L - języka (language), uczenia się (learning) i poziomów (levels)). Obliczenia kognitywne umożliwiają poznanie jako usługę i zasilają usługi kognitywne, które poszerzają i skalują ludzką wiedzę. Trzy kluczowe filary obliczeń kognitywnych to uczenie maszynowe, NLP i generowanie hipotez z możliwością wyjaśnienia opartego na dowodach. Wykorzystując cechy poznawcze ludzkiego mózgu, takie jak eksploracja danych, NLP, rozpoznawanie wzorców i inne algorytmy samouczące się, przetwarzanie kognitywne umożliwia komputerom podejmowanie decyzji w oparciu o zdarzenia lub warunki, tak jak zrobiłby to człowiek. Jednak replikowanie ludzkich procesów myślowych nie jest łatwym zadaniem, ponieważ wciąż nie mamy do niego pełnego zrozumienia. Mimo że komputery uzyskują niezrównaną szybkość obliczeń i przetwarzania znacznie przekraczającą ludzkie możliwości, nie były w stanie wykonywać zadań, które ludzie uważają za proste, takich jak rozumienie języka naturalnego lub wykrywanie obiektów na obrazie. Przykładem systemu kognitywnego jest IBM Watson, który opiera się na sieciach neuronowych i algorytmach głębokiego uczenia. Przetwarza dane, porównując je z uczącym zestawem danych. W związku z tym im więcej danych trafia do systemu IBM Watson, tym więcej się uczy i tym bliżej jego decyzji do podjęcia właściwej decyzji. sektora finansowego. Wybór akcji, która ma dobre wyniki i oczekuje się, że będzie mieć rosnącą wartość, wymaga wielu zgadywania i badania wzorców akcji przez inwestorów. Edge Up Sports to kolejna firma w branży sportowej, która wykorzystuje obliczenia kognitywne do pomocy trenerom i trenerom osobistym w rozwijaniu zespołu. Wykorzystuje sztuczną inteligencję, aby pomóc zmniejszyć urazy sportowe w terenie za pomocą kamer śledzących czujniki na sportowcach, które przekładają ich ruch na wgląd w wyniki, aby dostarczać trenerom informacje na temat zdrowia i aktywności. Przewiduje się, że ogromne zdolności poznawcze globalnych dostawców CaaS (poznanie jako usługa) będą tanie i dostępne za pośrednictwem interfejsów API dla każdego urządzenia od nanoskali po gigantyczne globalne aplikacje i usługi. W takim świecie poznanie jako usługa może być tak samo wszechobecne, jak elektryczność jest dla nas dzisiaj. W sektorze edukacji przetwarzanie kognitywne może stać się silną siłą napędową w procesie nauczania i uczenia się, aby zmaksymalizować potencjał ucznia. Podobnie jak w przypadku nauczyciela, który musi przejść liczne szkolenia i lata doświadczenia, zanim stanie się biegły w kształceniu uczniów, program informatyki kognitywnej musi być zasilany dużą ilością danych dotyczących procesu rozwoju uczniów i programu nauczania w systemie edukacyjnym zanim będzie mogła skutecznie wspomóc proces edukacji. Jednak nauczyciel nie może po prostu natychmiast przekazać całej swojej wiedzy i wykształcenia nowemu, niedoświadczonemu nauczycielowi. Nowy nauczyciel musiałby przejść przez lata szkolenia, zanim stanie się tak zręczny jak doświadczony nauczyciel. Jednak dobrze wyszkolony program poznawczy można szybko i łatwo odtworzyć bez konieczności ponownego wykonywania całego procesu szkoleniowego. Umożliwia to wykorzystanie komputerów kognitywnych w klasach jako spersonalizowanych asystentów dla każdego ucznia, skupiając się na mocnych i słabych stronach każdego ucznia i zapewniając niezbędny poziom trudności w ćwiczeniach, aby uczeń szybko się rozwijał. Może to złagodzić stres, z jakim borykają się nauczyciele, gdy prowadzą zajęcia z dużą liczbą uczniów. Pojedynczy nauczyciel nie może również zaspokoić potrzeb każdego ucznia, nie zaniedbując postępów innych uczniów. Taka kognitywna aplikacja obliczeniowa w edukacji może również rozwijać wiele technik, takich jak tworzenie scenariuszy lekcji dla uczniów. Dziś sztuczna inteligencja w procesie edukacji istnieje już jako aplikacje mobilne, takie jak Mika i Thinskter Math, wirtualni nauczyciele, którzy dostosowują się do potrzeb uczniów i pomagają im doskonalić się w przedmiotach. Oczekuje się, że obliczenia kognitywne przekształcą sektor biznesu na trzy sposoby. Po pierwsze, obliczenia kognitywne poprawią zdolności pracowników, ich wkład i wydajność. Algorytmy głębokiego uczenia przyspieszą i podniosą jakość pracy, automatyzując zadania o małej wartości, takie jak zbieranie danych statystycznych czy aktualizowanie rekordów klientów o dane finansowe lub demograficzne. Kodowanie predykcyjne, mechanizm sztucznej inteligencji, pomoże prawnikom przeszukiwać duże ilości danych, aby przyspieszyć proces eksploracji, aby zapewnić klientom większą wartość i lepsze usługi. Po drugie, obliczenia kognitywne umożliwią analizę danych o wyższej jakości. Organizowanie danych w znaczące porcje nie jest łatwym procesem, zwłaszcza jeśli dane mają wiele różnych ustrukturyzowanych i nieustrukturyzowanych form. Algorytmy głębokiego uczenia umożliwią dokładną, terminową i znaczącą analizę dużych ilości danych, oszczędzając duże ilości czasu. Po trzecie, przetwarzanie kognitywne poprawi ogólne wyniki biznesowe. Informatyka kognitywna pomoże firmom uchwycić istotne informacje i wykorzystać je do podejmowania dobrych decyzji podczas dostarczania na rynek lepszych produktów lub usług o wyższej jakości przy użyciu statystyk rynkowych i wyników wcześniejszych decyzji podjętych przez firmy. W dzisiejszych czasach najbardziej udane firmy to te, które łączą planowanie strategiczne i inteligentne technologie osadzone w poznaniu. Dwie firmy, które mają obie te funkcje, to Google i Amazon, dwie spośród obecnie najlepiej działających firm.

Rola AI w inteligentnych miastach
Bezpieczeństwo i nadzór


Bezpieczne miasto to kluczowa koncepcja inteligentnego miasta. Bezpieczeństwo i ochrona to niezwykle istotne elementy jakości życia w mieście. Dlatego inteligentne miasto musi być bezpiecznym miastem do życia. Na sympozjum Campbell Institute, National Safety Council, skupiono się na implikacjach IR4.0 dla bezpieczeństwa. Najbardziej przypisywaną tej epoce etykietą jest "Cyber-Fizyczny System". Według prognoz ONZ do 2050 roku 68 procent światowej populacji będzie mieszkać na obszarach miejskich. Wraz z rozwojem coraz większej liczby i inteligentniejszych miast rządy inwestują więcej w infrastrukturę publiczną w celu poprawy usług publicznych, takich jak transport i opieka zdrowotna ,operacji i ogólnego doświadczenia miejskiego. Dzięki większej liczbie połączonych urządzeń w rozkwicie IoT przez Internet przesyłanych jest więcej danych niż kiedykolwiek wcześniej. Wraz z postępem technologii telekomunikacyjnych i wzrostem liczby wzajemnie połączonych urządzeń, przywódcy i obywatele miast każdego dnia są przedstawiani nowym zagrożeniom bezpieczeństwa i prywatności. Według badania przeprowadzonego przez McMaster University, 88 procent ludzi w Kanadzie obawia się o swoją prywatność w kontekście inteligentnych miast. Ponieważ wdrażanie inteligentnych miast wciąż przyspiesza, miasta mają coraz większe trudności z identyfikowaniem, reagowaniem i zapobieganiem cyberatakom i zagrożenia prywatności z następujących powodów:

1. Bezpieczeństwo wciąż nie jest priorytetem dla urbanistów. Niezabezpieczone urządzenia są nadal bardzo podatne na ataki, ponieważ można uzyskać do nich dostęp z Shodan.io.
2. Miasta nie są przygotowane na ogromne ilości gromadzonych danych.
3. Zespoły ds. bezpieczeństwa nie są przygotowane do radzenia sobie z lukami w cyberbezpieczeństwie.
4. Fizyczne zagrożenia dla podłączonych systemów nie są dokładnie rozwiązywane.

Wraz z szybkim rozwojem sztucznej inteligencji i IoT w ostatnich latach, sztuczna inteligencja wielokrotnie wykazała, że jest zdolna do zastosowania rzeczywistych aplikacji do wspomagania, a nawet całkowitego nadzorowania systemów bezpieczeństwa. Gdy zbliżamy się do ludzkich ograniczeń w wykonywaniu tych aplikacji, sztuczna inteligencja staje się realnym zamiennikiem ludzi w dziedzinie bezpieczeństwa. Według wiadomości NBC, policja w wielu miastach w całych Stanach Zjednoczonych już ma za mało personelu, co utrudnia zapewnienie bezpieczeństwa publicznego we wszystkich miejscach przez cały czas [20]. Niektóre sposoby, w jakie inteligentne miasta mogą wykorzystywać sztuczną inteligencję wraz z IoT i czujnikami w celu poprawy ogólnego bezpieczeństwa w miastach, obejmują wykorzystanie analizy wideo do monitorowania nadzoru kamer w czasie rzeczywistym, używanie czujników i kamer do monitorowania dużych tłumów w celu wykrywania potencjalnych zagrożeń oraz używanie robotów patrolowych i drony do monitorowania potencjalnie niebezpiecznych obszarów. Trzy główne obszary bezpieczeństwa i ochrony, które mają ulec znacznej poprawie dzięki zastosowaniu sztucznej inteligencji, to:

1. Wykrywanie przestępstw
2. Zapobieganie przestępczości
3. Cyberbezpieczeństwo.

Wykrywanie przestępstw

Jednym z głównych celów wykorzystania AI jest wykrywanie zjawisk przestępczych i wspieranie władz w dotarciu na miejsce przestępstwa w jak najkrótszym czasie. Na przykład po oddaniu strzału policji trudno jest określić dokładną lokalizację strzału i ocenić krytyczność sytuacji. Zaawansowana technologia nadzoru Shotspotter jest w stanie rozwiązać ten problem, wykrywając przemoc z broni palnej za pomocą czujników akustycznych i sztucznej inteligencji. Wysyła ostrzeżenie do policji i innych władz w ciągu 45 sekund od incydentu z bronią palną. Alarm zawiera ważne informacje sytuacyjne dotyczące incydentu, takie jak dokładna lokalizacja, liczba oddanych strzałów oraz strzelanie jednego lub wielu strzelców. Wykrywanie przestępstw Jednym z głównych celów wykorzystania AI jest wykrywanie zjawisk przestępczych i wspieranie władz w dotarciu na miejsce przestępstwa w jak najkrótszym czasie. Na przykład po oddaniu strzału policji trudno jest określić dokładną lokalizację strzału i ocenić krytyczność sytuacji. Zaawansowana technologia nadzoru Shotspotter jest w stanie rozwiązać ten problem, wykrywając przemoc z użyciem broni za pomocą czujników akustycznych i sztucznej inteligencji. Wysyła ostrzeżenie do policji i innych władz w ciągu 45 sekund od incydentu z bronią palną. Alarm zawiera ważne informacje sytuacyjne dotyczące incydentu, takie jak dokładna lokalizacja, liczba oddanych strzałów oraz strzelanie jednego lub wielu strzelców. Wykrywanie przestępstw Jednym z głównych celów wykorzystania AI jest wykrywanie zjawisk przestępczych i wspieranie władz w dotarciu na miejsce przestępstwa w jak najkrótszym czasie. Na przykład po oddaniu strzału policji trudno jest określić dokładną lokalizację strzału i ocenić krytyczność sytuacji. Zaawansowana technologia nadzoru Shotspotter jest w stanie rozwiązać ten problem, wykrywając przemoc z broni palnej za pomocą czujników akustycznych i sztucznej inteligencji. Wysyła aby zaalarmować policję i inne władze w ciągu 45 sekund od strzału z broni palnej. Alarm zawiera ważne informacje sytuacyjne dotyczące incydentu, takie jak dokładna lokalizacja, liczba oddanych strzałów oraz strzelanie jednego lub wielu strzelców.

Zapobieganie przestępczości

Oprócz wykrywania przestępczości sztuczna inteligencja okazała się również przydatna w ogólnym zapobieganiu przestępczości w miastach. Korzystając ze zdolności MLA do rozpoznawania wzorców, można zdekonstruować wzorce przestępczości, stworzyć mapy cieplne krytyczności przestępczości i przewidzieć przyszłe przestępstwa w miastach. W Vancouver wydział policji wdrożył rozwiązanie do uczenia maszynowego, które przeprowadza analizę przestrzenną, aby przewidzieć, gdzie nastąpi włamanie do mieszkań, aby można było odpowiednio rozmieścić patrole policyjne, aby zminimalizować przestępczość . System został opracowany przez inżynierów geoprzestrzennych i statystyków, którzy opracowali algorytm do prawidłowego wykrywania wzorców przestępstw przeciwko mieniu. System przewiduje przestępstwa w promieniu 100 mi 2-godzinnym oknie czasowym na podstawie przeszłych przypadków przestępstw. Według Esri, twórcy systemu prognozowania przestępczości, system wykazał dokładność większą niż 80 procent. W Kalifornii Aveta Intelligence wykorzystuje sztuczną inteligencję do przewidywania działań terrorystów. Odbywa się to poprzez analizę opisową, diagnostyczną i predykcyjną z inteligencją kognitywną i uczeniem maszynowym w celu dynamicznego uczenia się różnych rodzajów zagrożeń bezpieczeństwa i reagowania na nie . Firma wykorzystuje wiele narzędzi, takich jak analiza grafów, sieci neuronowe, heurystyka, złożone przetwarzanie zdarzeń, symulacje, silniki rekomendacji i uczenie maszynowe, aby pomóc w poprawie bezpieczeństwa w miastach. Aveta Intelligence oferuje dwa podstawowe produkty: Trust i Sentinel, w których Trust określa potencjalne zagrożenia w organizacji poprzez zachowania społeczne, analizy predykcyjne i konkurencyjne, a Sentinel przewiduje fizyczne zagrożenia bezpieczeństwa pracowników organów ścigania i kampusu poprzez analizę danych fizycznych, takich jak media społecznościowe, incydenty raporty, harmonogramy imprez i nagrania telewizji przemysłowej (CCTV) w celu zapobiegania przestępstwom. Inną firmą, która wykorzystuje sztuczną inteligencję w predykcji przestępczości jest Predpol, skrót od predykcyjnego policji. Predpol twierdzi, że jego algorytmy analizy przestępczości mogą poprawić wykrywanie przestępstw o 10-50 procent w niektórych miastach. Wykorzystując wieloletnie dane historyczne, takie jak rodzaj, miejsce i czas wystąpienia przestępstw oraz inne dane społeczno-ekonomiczne, algorytm, początkowo zaprojektowany do prognozowania wstrząsów wtórnych po trzęsieniach ziemi, przeprowadza analizę przestępczości i przewiduje miejsce, czas i rodzaj przestępstwa, które nastąpi w ciągu najbliższych 12 godzin, a w miarę wprowadzania nowych danych algorytm jest codziennie aktualizowany. Stosowana technika jest nazywana przez firmę "prognozowaniem przestępczości w następstwie wstrząsów w czasie rzeczywistym w czasie rzeczywistym". Prognozy dotyczące przestępstw są wyświetlane na mapie za pomocą kolorowych pól, z których każde reprezentuje obszar 46 metrów kwadratowych. Miejsca "wysokiego ryzyka" są oznaczone czerwonymi ramkami, a patrole policyjne są zachęcane do spędzania tam co najmniej 10 procent czasu.

Bezpieczeństwo cybernetyczne

Ponieważ liczba podłączonych urządzeń szybko rośnie, a liczba podłączonych urządzeń IoT ma wzrosnąć do prawie 20 miliardów do 2020 r. , cyberbezpieczeństwo nabiera coraz większego znaczenia w rozwoju inteligentniejszych miast. Cyberataki w jednym regionie mogą mieć nasilony wpływ na inne regiony, prowadząc do poważnej utraty danych, ryzyka utraty reputacji i skutków finansowych dla firm, a nawet mogą zakłócić krytyczne usługi miejskie i infrastrukturę w wielu dziedzinach, w tym w opiece zdrowotnej, transporcie, mieszkalnictwie, usługi energetyczne, komunalne, prawne i egzekucyjne. Takie podatności mogą spowodować śmiertelne niebezpieczeństwo i załamanie systemów ekonomicznych i społecznych. Obecnie najpopularniejszą metodą ochrony sieci jest wdrożenie zapory, zainstalowanej jako oprogramowanie lub fizycznie podłączonej do sieci jako sprzęt. Zapory sieciowe śledzą połączenia sieciowe i śledzą, które połączenia są dozwolone na portach sieciowych, blokując inne żądania. Generalnie administratorzy sieci serwera kontrolują uprawnienia połączeń przychodzących do określonych portów w systemie. Jeśli hakerowi uda się przebić przez zaporę systemu i zabezpieczenia sieci, następną linią obrony jest system antywirusowy zainstalowany na serwerze. System antywirusowy jest zazwyczaj przeznaczony do wyszukiwania złośliwego kodu w oprogramowaniu lub podejrzanych połączeń, którego celem jest usunięcie złośliwego oprogramowania lub wirusa, zanim zdąży zaatakować system, na przykład oprogramowanie ransomware, lub rozprzestrzeni się na inne połączone ze sobą maszyny w organizacji. Systemy antywirusowe uniemożliwiają również podejrzanym połączeniom uzyskanie osobistych lub zastrzeżonych informacji z systemu bez zgody właściciela. Zazwyczaj organizacje przechowują również kopie zapasowe swoich systemów i mają zorganizowany system zarządzania kopiami zapasowymi, aby zapobiec utracie danych w przypadku ataku, na przykład oprogramowania ransomware. Dzięki planowi odzyskiwania po awarii mogą szybko odzyskać sprawność po awariach lub naruszeniach bezpieczeństwa danych. Techniki stosowane obecnie w cyberbezpieczeństwie ostatecznie zależą od wiedzy osób obsługujących serwery sieci, a umiejętności osób są budowane dzięki energicznym szkoleniom i doświadczeniu. Organizacje odnoszące największe sukcesy stale edukują swoich nowych i dotychczasowych pracowników w zakresie zagrożeń występujących w Internecie oraz sposobów ochrony siebie i organizacji. Większość istniejących narzędzi cyberbezpieczeństwa wymaga interakcji z człowiekiem w celu konfiguracji systemu i sieci, zasad zapory, harmonogramów tworzenia kopii zapasowych i ostatecznie zapewnienia pomyślnego działania systemu. Wykorzystując sztuczną inteligencję w systemach cyberbezpieczeństwa można zminimalizować interakcję człowieka z systemem. Ponadto, ponieważ pracownicy w organizacji muszą być stale szkoleni w zakresie obsługi bezpieczeństwa sieci, a pracownicy w organizacji ciągle się zmieniają, zaawansowana sieć cyberbezpieczeństwa oparta na sztucznej inteligencji może być lepsza, ponieważ może przejść uczenie się transferu i staje się bardziej dokładna z czasem, gdy zbiera więcej informacji. Dzisiejsze narzędzia AI mogą już obsługiwać dużą liczbę zadań wykonywanych przez administratorów sieci, takich jak monitorowanie zdarzeń i reagowanie na incydenty. Sztucznie inteligentne zapory będą miały wbudowane MLA, które pozwolą im rozpoznawać wzorce w żądaniach sieciowych i automatycznie blokować te, które mogą stanowić zagrożenie. Ponadto systemy sztucznej inteligencji mają możliwości języka naturalnego, które mają odegrać dużą rolę w przyszłości cyberbezpieczeństwa. Skanując duże pule danych w Internecie, systemy cyberbezpieczeństwa z wbudowanymi narzędziami NLP mogą dowiedzieć się, w jaki sposób dochodzi do cyberataków i ostrzec organizację, zanim pojawi się poważny problem. Firmą, która opracowuje narzędzia cyberbezpieczeństwa osadzone w NLP, jest Armorblox. Według Dhananjay Sampath, współzałożyciela Armorblox, wiadomości e-mail i pliki są głównymi wektorami kradzieży danych. Według ankiety Trend Micro 91 procent cyberataków zaczyna się od wiadomości phishingowej zawierającej złośliwe załączniki lub odsyłacze do złośliwego oprogramowania. Według Armorblox w ciągu ostatnich 2 lat z powodu kompromitacji biznesowej poczty e-mail stracono 12 miliardów dolarów. Armorblo to silnik NLP, który uzyskuje wgląd w komunikację organizacyjną i dane. Uczy się, co jest kluczowe dla misji organizacji i przedstawia zalecenia dotyczące zasad. W przypadku potencjalnego naruszenia wysyła alerty do odpowiednich osób w organizacji, dzięki czemu można podjąć środki zapobiegawcze przed atakiem. Według Maurice′a Stebila, dyrektora ds. bezpieczeństwa informacji w firmie Harman, Armorblox wykorzystuje rozumienie języka naturalnego, aby poradzić sobie z warstwą bezpieczeństwa, która była nieosiągalna dla innych systemów bezpieczeństwa, czyli warstwą ludzką - kontekstem komunikacji między ludźmi. Hakerzy są świadomi tej słabości, a zrozumienie języka naturalnego jest w stanie rozwiązać ten problem. System wykrywania i zapobiegania włamaniom (IDPS) to zainstalowane oprogramowanie lub podłączony system sprzętowy, który wykrywa występowanie wejść systemu i próbuje im zapobiec. Zazwyczaj IDPS powinien mieć te cechy, aby zapewnić skuteczną ochronę przed cyberatakami, jak pokazano w tabeli.

Charakterystyka IDPS: Opis w zakresie inteligentnej fabryki

Czas rzeczywisty : Wykrywanie włamań podczas trwania ataku. Wykrywanie włamań natychmiast po ataku

Niezawodna niezależność : minimalna liczba fałszywych alarmów. Minimalny nadzór człowieka. Praca ciągła. Możliwość samodzielnego monitorowania w celu wykrycia prób włamań

Odzyskiwalne: Możliwość przywrócenia systemu po przypadkowych awariach. Możliwość przywrócenia systemu po cyberataku

Zgodny : Monitorowanie zachowania użytkowników w odniesieniu do polityk bezpieczeństwa systemu

Adaptowalność: Dostosowywanie się do zmian w zachowaniu użytkowników w czasie Dostosowywanie się do zmian systemowych

W przeszłości w ciągu ostatnich kilku lat systemy IDPS zostały zintegrowane z MLA, algorytmami genetycznymi, logiką rozmytą i sztucznymi sieciami neuronowymi w celu zwiększenia szybkości wykrywania i zminimalizowania czasu wykrywania systemów. Według raportu Reinventing Cybersecurity with Artificial Intelligence Report firmy Capgemini pięć najczęstszych przypadków wykorzystania sztucznej inteligencji w celu poprawy cyberbezpieczeństwa to wykrywanie oszustw, wykrywanie złośliwego oprogramowania, wykrywanie włamań, ryzyko punktacji sieci oraz analiza zachowań użytkowników/maszyny. Dwadzieścia przypadków użycia w IoT, IT i technologii operacyjnej zostało przeanalizowanych i uszeregowanych według złożoności wdrożenia i korzyści w zakresie skrócenia czasu. Zgodnie z analizą Capgemini, Forbes zalecił pięć z największych potencjalnych przypadków użycia o wysokich korzyściach i niskiej złożoności. Pięćdziesiąt cztery procent przedsiębiorstw w Stanach Zjednoczonych już wdrożyło przypadki użycia .

Opieka zdrowotna

Szpitale i przychodnie od dłuższego czasu gromadzą i archiwizują duże ilości danych, w tym informacje o pacjentach i procesach leczenia. Dzięki dostępnej mocy obliczeniowej, szybkiemu rozwojowi technik sztucznej inteligencji i ogromnym zbiorom danych z branży medycznej, umowy MLA mogą zrewolucjonizować sposób, w jaki szpitale i instytucje opieki zdrowotnej wykorzystują dane do tworzenia prognoz, które mogą identyfikować potencjalne skutki zdrowotne. Ogólnie rzecz biorąc, oczekuje się, że sztuczna inteligencja przekształci branżę opieki zdrowotnej poprzez następujące aspekty:

1. Dobre samopoczucie
2. Wczesne wykrycie
3. Diagnoza
4. Podejmowanie decyzji
5. Leczenie
6. Opieka u schyłku życia
7. Badania
8. Szkolenie

Dobre samopoczucie

Jedną z największych potencjalnych korzyści płynących ze sztucznej inteligencji jest pomoc ludziom w utrzymaniu ich zdrowia w ryzach, dzięki czemu wizyty u lekarza stają się rzadsze. Aplikacje oparte na sztucznej inteligencji w urządzeniach mobilnych mogą śledzić wiele istotnych aspektów zdrowia i dostarczać sugestii lub zmian, które należy wprowadzić, aby poprawić samopoczucie użytkownika i poprawić stan jego zdrowia w dłuższej perspektywie. Wykorzystanie AI i Internetu Rzeczy Medycznych (IoMT) w zastosowaniach związanych ze zdrowiem konsumentów jest już w użyciu i pomaga ludziom. Mobilne aplikacje medyczne wykorzystujące sztuczną inteligencję obejmują TalkLife, która pomaga użytkownikom z problemami ze zdrowiem psychicznym, depresją, samookaleczeniami i zaburzeniami odżywiania, oferując im bezpieczne miejsce do rozmowy o ich problemach, oraz Flo Period Tracker, który zapewnia dokładne i wiarygodne prognozy menstruacji , owulacja i dni płodne przy użyciu uczenia maszynowego, nawet jeśli użytkownicy mają nieregularne cykle. Ponadto sztuczna inteligencja w aplikacjach mobilnych umożliwia pracownikom służby zdrowia, takim jak lekarze, uzyskiwanie informacji dotyczących codziennych wzorców diety pacjenta, rutyny ćwiczeń i innych aspektów związanych ze zdrowiem, a dzięki tym informacjom są w stanie zapewnić lepsze informacje zwrotne, wsparcie i wskazówki dotyczące zachowania zdrowia.

Wczesne wykrycie

Jeśli chodzi o wykrywanie chorób, takich jak rak, lekarze wykorzystują lata swojego doświadczenia w poszukiwaniu wzorców, które wykazują nieprawidłowości w skanowaniu lub diagnozie, i na podstawie znalezionych wzorców potwierdzają istnienie choroby. Dzięki zdolności rozpoznawania wzorców sztuczna inteligencja może być wykorzystywana do wykrywania chorób, nawet na wcześniejszych etapach niż specjaliści medyczni. W rzeczywistości sztuczna inteligencja jest już wykorzystywana we wczesnej diagnostyce raka z większą dokładnością. Według American Cancer Society duża część mammografii daje fałszywe wyniki. W rezultacie jedna na dwie zdrowe kobiety dowiaduje się, że ma raka. Naukowcy z HoustonMethodist Research Institute w Teksasie opracowali oprogramowanie AI, które może przeglądać i tłumaczyć mammogramy 30 razy szybciej i z 99-procentową dokładnością, zmniejszając potrzebę niepotrzebnych, inwazyjnych biopsji. Ponadto naukowcy z Mayo Clinic przeprowadzili badanie, w którym sztuczną inteligencję wykorzystano do szybkiego i niedrogiego wykrywania wczesnych stadiów chorób serca przy użyciu wyłącznie sygnałów elektrokardiograficznych (EKG), uzyskując dokładność 85,7 procent.

Diagnoza

Oprócz wczesnego wykrywania chorób przewlekłych sztuczna inteligencja jest również wykorzystywana do szeroko zakrojonej, potężnej ogólnej diagnozy stanów zdrowia. Na przykład program Watson for Health firmy IBM pomaga wielu organizacjom opieki zdrowotnej w stosowaniu technologii kognitywnych do zaawansowanych diagnoz. Watson jest w stanie przechowywać znacznie więcej informacji medycznych, w tym każde studium przypadku i odpowiedź na leczenie, każdy dziennik medyczny i każdy objaw, oraz przeglądać je z szybkością wykładniczo większą niż to tylko możliwe . Ponadto firma DeepMind Health firmy Google współpracuje z klinicystami i naukowcami, aby rozwiązywać problemy związane z opieką zdrowotną i przenosić pacjentów z testów do leczenia w krótszym czasie za pomocą sieci neuronowych, które naśladują ludzki mózg. Naukowcy wykorzystują również metody sztucznej inteligencji, aby znacznie zwiększyć dokładność diagnoz określonych chorób. System sztucznej inteligencji został opracowany przy użyciu algorytmów sztucznych sieci neuronowych (ANN) do diagnozowania chorób serca na podstawie sygnałów fonokardiogramu, zapewniając dokładność do 98 procent.

Podejmowanie decyzji

Sztucznie inteligentne technologie kognitywne są wprowadzane w dziedzinie opieki zdrowotnej, aby zmniejszyć ludzką rolę w podejmowaniu decyzji, a docelowo mają na celu zminimalizowanie czynnika ludzkiego błędu w podejmowaniu decyzji w opiece zdrowotnej. Według badania Johnsa Hopkinsa błędy medyczne są trzecią najczęstszą przyczyną śmierci w Stanach Zjednoczonych, ale niekoniecznie wynikają one ze złego personelu medycznego; zamiast tego są one często spowodowane błędami poznawczymi, takimi jak nieudane heurystyki i uprzedzenia, brak bezpieczeństwa i innych protokołów oraz nieuzasadniony kontrast w praktykach lekarzy. Sztuczna inteligencja okazała się obiecująca w wykonywaniu obciążenia poznawczego, zapewniając lepsze dokładności i ogólne wrażenia pacjenta. Badania wykazały, że wspomagane komputerowo odczyty obrazów radiologicznych są tak samo dokładne, jak te wykonywane przez radiologów. Może się to jednak wydawać zagrożeniem bezpieczeństwa pracy lekarzy i lekarzy na całym świecie. Jednak zamiast utraty pracy na dużą skalę spowodowanej automatyzacją ludzkiej pracy, sztuczna inteligencja może dać szansę na bardziej skoncentrowane na człowieku podejście do augmentacji. Wraz z przejęciem obciążeń poznawczych przez systemy sztucznej inteligencji klinicyści będą mogli swobodniej wykonywać zadania wyższego poziomu

Leczenie

Oprócz przeglądu wcześniejszych danych dotyczących zdrowia, aby pomóc pracownikom medycznym w diagnozowaniu chorób, sztuczna inteligencja może również pomóc im przyjąć bardziej integracyjne podejście do zarządzania chorobami, poprawić koordynację planów opieki zdrowotnej i pomóc pacjentom w zarządzaniu i przestrzeganiu ich długoterminowych programów leczenia. Sztuczna inteligencja może być również wykorzystywana do przewidywania skuteczności zabiegów medycznych i ich wyników. Korzystając z modelowania, fińscy naukowcy z Uniwersytetu Wschodniej Finlandii, szpitala KuopioUniversity i Uniwersytetu Aalto opracowali metodę porównywania różnych alternatyw leczenia i identyfikacji pacjentów, którzy odniosą korzyści z leczenia. Metoda oparta na sztucznej inteligencji opiera się na przyczynowych sieciach bayesowskich. Od prostych robotów laboratoryjnych do bardzo złożonych robotów chirurgicznych, zrobotyzowane metody leczenia chirurgicznego są stosowane w medycynie od ponad 30 lat i mogą albo wspomagać chirurga ludzkiego, albo wykonywać samodzielnie operacje. Wykorzystywane są również w powtarzalnych zadaniach, takich jak rehabilitacja i fizjoterapia. Sztuczna inteligencja poprawi wydajność robotów chirurgicznych, zapewniając większą optymalizację ruchu robota, a w przyszłości będą mogły samodzielnie wykonywać bardziej złożone operacje.

Opieka u schyłku życia

Według Banku Światowego średnia długość życia w Malezji wyniosła 75,3 lat w 2016 roku i wykazuje stały wzrost od lat 90. XX wieku. Ponieważ średnia długość życia na całym świecie rośnie, ludzie umierają wolniej i w inny sposób. Dzisiaj, gdy ludzie zbliżają się do końca życia, cierpią na schorzenia takie jak osteoporoza, niewydolność serca i demencja. Ta faza życia często obejmuje samotność i depresję. Chociaż sztuczna inteligencja nie zastąpi lekarzy pod koniec życia, umożliwi im podejmowanie lepszych decyzji. Medyczna sztuczna inteligencja wdroży MLA do analizy uporządkowanych danych i charakterystyki pacjentów w klastrach w celu przewidywania prawdopodobieństwa wystąpienia choroby. Ostrzeże to lekarzy o pogarszającym się stanie zdrowia, zanim stanie się on poważny i nieuleczalny. Na przykład MLA, które mogą wykryć występowanie pogarszającej się osteoporozy lub niewydolności serca, mogą umożliwić lekarzom podjęcie wczesnych działań, zanim stan się pogorszy, a pacjent zestarzeje się z nieuleczalnymi fazami tych schorzeń. Ponadto sztuczna inteligencja wraz z robotyką ma ogromny potencjał, aby zrewolucjonizować opiekę u schyłku życia, pomagając osobom starszym w dłuższej samodzielności i zmniejszając konieczność przyjęć do domów opieki lub szpitali. Narzędzia NLP stosowane przez sztuczną inteligencję mogą umożliwiać konwersacje i inne interakcje społeczne ze starzejącymi się ludźmi, aby zachować bystrość umysłu i spowolnić rozwój chorób, takich jak demencja.

Badania

Dostarczanie pacjentom nowego leku z laboratoriów badawczych to długi i kosztowny proces. Według Kalifornijskiego Stowarzyszenia Badań Biomedycznych, podróż leku z laboratorium badawczego do pacjenta zajmuje średnio 12 lat. Tylko pięć na 5000 leków, które rozpoczynają badania przedkliniczne, trafia do testów na ludziach, a tylko jeden z tych pięciu jest zatwierdzony do stosowania u ludzi. A opracowanie nowego leku z laboratorium badawczego do pacjenta będzie kosztować firmę średnio 359 milionów dolarów. Na spotkaniu CASP13 w Meksyku w grudniu 2018 r. DeepMind firmy Google pokonał doświadczonych biologów w przewidywaniu kształtów białek, podstawowych elementów budulcowych choroby. W procesie poszukiwania sposobów, w jakie leki mogą atakować choroby, uporządkowanie struktur białek jest niezwykle złożonym problemem. Istnieje więcej możliwych kształtów białek niż atomów we wszechświecie, co sprawia, że przewidywanie jest zadaniem niezwykle intensywnym obliczeniowo. Przez ostatnie 25 lat biolodzy obliczeniowi spędzili dużo czasu na tworzeniu oprogramowania, aby skuteczniej wykonywać to zadanie. Narzędzie, które może dokładnie modelować struktury białkowe, może przyspieszyć opracowywanie nowych leków. DeepMind, z ograniczonym doświadczeniem w fałdowaniu białek, ale wyposażony w najnowocześniejsze algorytmy sieci neuronowych, zrobił więcej niż 50 najlepszych laboratoriów z całego świata. Badania i odkrycia leków mogą być jednym z najnowszych zastosowań sztucznej inteligencji w opiece zdrowotnej, ale przynoszą obiecujące wyniki. Takie zastosowanie sztucznej inteligencji może znacząco skrócić zarówno czas wprowadzania nowych leków na rynek, jak i ich koszty.

Szkolenie

Sztuczną inteligencję, za pomocą algorytmów sieci neuronowych, można nauczyć rozumienia naturalnej mowy i interakcji z drugim człowiekiem prawie tak, jak człowiek, a to tworzy środowisko dla osób z sektora opieki zdrowotnej, które przechodzą szkolenie, aby przechodzić naturalistyczne symulacje w sposób, który jest prosty komputer- sterowane algorytmy nie są w stanie. Pojawienie się rozumienia i syntezy mowy naturalnej oraz potencjał sztucznie inteligentnego komputera do niemal natychmiastowego czerpania z dużej bazy danych scenariuszy może stwarzać wyzwania dla uczestników szkolenia w oparciu o szeroki zakres scenariuszy i danych poprzez zadawanie pytań, porad i decyzji oraz odpowiadanie na nie. Sesje szkoleniowe są również elastyczne i łatwo dostępne, ponieważ sieci neuronowe mogą uczyć się na podstawie odpowiedzi uczestnika szkolenia i dostosowywać wyzwania, aby zmaksymalizować tempo uczenia się uczestnika, a szkolenie można przeprowadzić w dowolnym miejscu dzięki wbudowaniu sztucznej inteligencji w smartfony i inne urządzenia mobilne. Oznacza to, że kursant może przejść szkolenie w mniejszych i szybszych sesjach, a nawet podczas chodzenia lub jazdy.

Big Data

Analityk branżowy Doug Laney sformułował definicję big data jako trzech V:

1. Wolumen (Volume)- dane są gromadzone z wielu różnych źródeł, takich jak dane maszynowe, dane z czujników, media społecznościowe i transakcje biznesowe. Przechowywanie tak dużych ilości danych było kiedyś dużym problemem. Jednak dzisiaj, przy dużych pojemnościach pamięci masowej i technologiach, takich jak Hadoop, proces ten stał się duży łatwiejszy.
2. Szybkość (Velocity) - Nowe dane są dziś wprowadzane z niezwykłą szybkością; konieczne jest szybkie przetwarzanie tych danych. Ciągłe wprowadzanie dzienników z aplikacji, tagów RFID, inteligentnych pomiarów, danych z mediów społecznościowych i danych z czujników sprawia, że bardzo ważne jest radzenie sobie z napływem danych w czasie zbliżonym do rzeczywistego.
3. Różnorodność (Variety) - wprowadzanie danych odbywa się zarówno w formatach ustrukturyzowanych, jak i nieustrukturyzowanych. Dane strukturalne obejmują uporządkowane dane w tradycyjnych bazach danych, a dane niestrukturalne obejmują dokumenty tekstowe, artykuły, e-maile i filmy.

Oprócz trzech powyższych V, SAS Institute, Inc. bierze pod uwagę dwa dodatkowe wymiary w big data:

1. Zmienność - Wraz z nadwyżką prędkości i różnorodności danych napływ danych może być bardzo nieprzewidywalny. Chociaż niektóre formy danych są przewidywalne, takie jak okres między logami danych z czujników, inne formy danych mogą przepływać niespójnie, na przykład temat zyskujący popularność w mediach społecznościowych. Takie formy przepływu danych mogą osiągać szczyt w dowolnym momencie dnia, co utrudnia zarządzanie dużymi danymi. Obsługa nieustrukturyzowanych danych po prostu zwiększa wyzwanie.
2. Złożoność - dane mogą pochodzić z wielu źródeł, co utrudnia łączenie, dopasowywanie, czyszczenie i przekształcanie danych w różnych systemach. Niemniej jednak ważne jest, aby powiązać relacje i hierarchie, w przeciwnym razie organizacja może szybko stracić kontrolę nad danymi.

Z drugiej strony Oracle twierdzi, że w ciągu ostatnich kilku lat pojawiły się jeszcze dwa V big data, które są wartością i prawdziwością. Powszechnie wiadomo, że dane są niezwykle cenne; jednak dopóki ta wartość nie zostanie zrealizowana, dane są bezużyteczne. Co ważniejsze, trzeba wiedzieć, czy dane są prawdziwe i wiarygodne. Korzystanie z niewiarygodnych danych zapewniłoby organizacjom niedokładne spostrzeżenia, które mogą wyrządzić więcej szkody niż pożytku. Znalezienie wartości w dużych zbiorach danych to coś więcej niż tylko analiza danych. Obejmuje cały proces eksploracji, który wymaga wnikliwych analityków, użytkowników biznesowych i kadry kierowniczej, którzy potrafią rozpoznawać wzorce, formułować świadome założenia i przewidywać zachowania. Według badań przeprowadzonych przez CB Insights, 32 firmy, które wykorzystują sztuczną inteligencję w swoich podstawowych obszarach działalności, przekroczyły w 2018 r. granicę wyceny 1 mld USD. Wykorzystują one uczenie maszynowe i inne rozwiązania sztucznej inteligencji w różnych dziedzinach, w tym w opiece zdrowotnej, pojazdach autonomicznych, cyberbezpieczeństwie i robotyce. Te firmy oparte na sztucznej inteligencji mają szereg modeli biznesowych i branż; łączy je jednak wspólna przewaga, którą dzielą także najbardziej innowacyjne i wartościowe organizacje na świecie, takie jak Alphabet, Amazon, Microsoft, Netflix, Salesforce czy Samsung. Zaletą jest to, że wykorzystują sztuczną inteligencję w analizie Big Data. Organizacje te przodują w łączeniu dużych ilości danych i możliwości sztucznej inteligencji w zróżnicowane rozwiązania o dużych wartościach rynkowych. Raport MIT Sloan Management Review nazywa połączenie dużych zbiorów danych i sztucznej inteligencji "pojedynczym najważniejszym osiągnięciem, które kształtuje przyszłość tego, w jaki sposób firmy czerpią wartość biznesową ze swoich danych i możliwości analitycznych" Według badania Forrester Business Technographics obejmującego ponad 3000 globalnych technologii i biznesu decydentów od 2016 r. 41 proc. światowych firm już inwestuje w sztuczną inteligencję, a kolejne 20 proc. planuje zainwestować w przyszłym roku. Na podstawie raportów analityka badawczego firmy Forrester, Brandona Purcella, dotyczących obecnego dużego zainteresowania sztuczną inteligencją i tego, czego można się po niej spodziewać, "Najlepsze wschodzące technologie w sztucznej inteligencji" oraz "Technologie i rozwiązania sztucznej inteligencji, I kwartał 2017 r.", większość dużych organizacji zaczyna integrować sztuczną inteligencję do swoich firm poprzez chatboty do obsługi klienta, co nazywa się "rozwiązaniami w zakresie obsługi konwersacyjnej". Odchodząc od zakodowanych na stałe chatbotów opartych na regułach, które są wstępnie zaprogramowane do wyszukiwania słów kluczowych i udzielania odpowiedzi z baz danych, obecnie chatboty są sztucznie inteligentne dzięki wykorzystaniu NLP i głębokiego uczenia. Wiele firm korzysta nawet z możliwości analizy obrazu, wideo i mowy, jakie daje sztuczna inteligencja, aby uzyskać wgląd w nieustrukturyzowane dane. Każdego dnia wprowadzane są duże ilości danych, a każdego dnia ilość dodawanych danych rośnie. Według Domo, Inc. do 2020 r. każda osoba na ziemi będzie generować 1,7 MB danych na sekundę. Wszystkie dodane dane mają potencjał rozwiązywania problemów, które są dziś prawie niemożliwe do rozwiązania, jeśli zostaną odpowiednio wykorzystane. I tu wkracza sztuczna inteligencja. Głębokie sieci neuronowe są w stanie działać aby dokładnie rozpoznawać wzory w wielu sytuacjach; jednak najpierw muszą zostać przeszkolone przy użyciu danych. Im więcej danych wykorzystanych w procesie uczenia, tym dokładniejszy model w tworzeniu prognoz. Obfitość zebranych danych zapewnia sztucznej inteligencji szkolenie potrzebne do identyfikowania różnic i dostrzegania drobniejszych szczegółów we wzorcach. Zwykle trudno jest wyodrębnić przydatne informacje z ogromnych zbiorów danych wraz z danymi nieustrukturyzowanymi. Jednak dzisiaj sztuczna inteligencja pomaga dużym firmom w uzyskiwaniu wglądu z danych, które przez długi czas znajdowały się w ogromnych bankach danych. W rzeczywistości dzisiejsze bazy danych zmieniają się i stają się coraz bardziej wszechstronne i wydajne. W porównaniu do konwencjonalnych relacyjnych baz danych, dziś istnieją potężne bazy danych grafowych. Te bazy danych są osadzone w sztucznej inteligencji i są w stanie kojarzyć punkty danych i odkrywać relacje. Według Singularity University proces wdrażania AI w analityce big data można podzielić na cztery różne kategorie. Najbardziej podstawową kategorią, która dostarcza najbardziej podstawowych spostrzeżeń dla organizacji, jest analityka opisowa, w której dane z przeszłości są wykorzystywane do opisu wydarzeń w organizacji. Na przykład firma A, której sprzedaż spada od lat, może skorzystać z systemu analityki opisowej, który pokazuje dokładnie, jaka jest sprzedaż firmy, traci w ujęciu rocznym, kwartalnym i miesięcznym. Kolejna kategoria to analityka diagnostyczna, która wyszukuje wzorce w danych, aby przedstawić historię. Na przykład firma A może wykorzystać analitykę diagnostyczną do badania i analizowania danych dotyczących warunków rynkowych i przeszłych transakcji, aby zapewnić bardziej szczegółowy wgląd w schematy, w których firma traciła sprzedaż, co opowiada historię o tym, jak firma A traciła sprzedaż i co to spowodowało. W ten sposób firma A może rozpocząć poszukiwanie rozwiązań problemu, eliminując źródła problemu. Następnie analityka predykcyjna wykorzystuje istniejące dane do przewidywania przyszłych zdarzeń. Firma A może również korzystać z analiz predykcyjnych do przewidywania przyszłości swoich firm, dzięki czemu może zdecydować, w jaki sposób będzie musiała utrzymać lub zmienić swoje strategie biznesowe, aby dostosować się do zmian rynkowych. Wreszcie, analiza nakazowa zapewnia największą wartość i spostrzeżenia dzięki informacjom kognitywnym, które umożliwiają podjęcie decyzji o kolejnym kierunku działania w celu uzyskania maksymalnych korzyści. Zastosowanie analityki nakazowej może pomóc firmie A w procesie zarządzania firmą, poprzez zasady, modele i polityki, które zostały przez firmę ustalone. Na tym etapie system AI pełni w firmie rolę konsultanta. Wiele organizacji stosuje te strategie na różnych poziomach iw różnych kombinacjach; jednak organizacje, które odnoszą największe sukcesy w analizie Big Data, mają solidną wiedzę na temat analiz predykcyjnych i nakazowych. Dzięki bardziej dogłębnym zastosowaniom tych strategii organizacje mają tendencję do lepszego zrozumienia zachowań klientów, lepszego wglądu w wyniki biznesowe obecnie i w przyszłości, kluczowych wskaźników wydajności dla podejmowania decyzji oraz większej ogólnej przewagi nad swoimi mniej opartymi na danych konkurentami. . W przyszłości integracja sztucznej inteligencji i technik uczenia maszynowego z analityką big data może oznaczać sukces lub porażkę organizacji. Przy tak dużych ilościach przepływających obecnie danych wiele organizacji korzysta już z zaawansowanej analityki, aby wykorzystać posiadane dane. Obejmuje to prognozowanie odpowiednich trendów technologicznych i rynkowych, które umożliwiłyby im proaktywne podejmowanie niezbędnych działań i podejmowanie lepszych decyzji w celu dostosowania się i wyprzedzenia konkurentów nawet przed zmianami na rynku. Miałyby również tę zaletę, że wykorzystywałyby analitykę predykcyjną, aby zminimalizować występowanie efektu HiPPO, czyli oparcia się na Opinii Najwyższego Płatnika, a nie danych, które opowiadają rzeczywistą historię aktualnej sytuacji biznesowej. Ponadto przy obecnej mocy obliczeniowej systemy sztucznej inteligencji byłyby w stanie z łatwością śledzić postęp i prędkość każdego projektu realizowanego w organizacji na każdym etapie rozwoju oraz przewidywać wartość i wynik każdego projektu, aby organizacje mogły zmaksymalizować wartościowe projekty i zminimalizować projekty związane z białym słoniem.

Transport i infrastruktura

Zastosowanie AI w branży infrastrukturalnej to wykrywanie defektów struktury. Korzystając z wizji komputerowej wraz z głębokim uczeniem, struktury lub poszczególne elementy wyposażenia mogą być stale skanowane pod kątem usterek, aby można było zidentyfikować problemy, zanim staną się poważne. W większości przypadków defekty strukturalne narastają z czasem i pozostają niezauważone, a zanim staną się wystarczająco poważne, aby można je było zauważyć, naprawa wady staje się procesem kosztownym, trudnym i czasochłonnym. Jeśli wada zostanie wykryta we wcześniejszych stadiach, problem można łatwiej rozwiązać. Dziś modelowanie rzeczywistości jest już wykorzystywane do wykrywania wad w betonie lub pęknięć w konstrukcji, podkreślając wagę problemu. Po wykryciu i fragmentacji defektu inżynierowie mogą określić skalę defektu wraz z innymi informacjami, takimi jak kształt i rozmiar defektu. Dzięki tym informacjom inżynierowie mogą łatwiej i szybciej sformułować rozwiązanie. Oprócz wykrywania wad konstrukcyjnych sztuczna inteligencja jest wykorzystywana do przeprowadzania zdalnych i autonomicznych inspekcji, aby skrócić czas trwania inspekcji i zmniejszyć ryzyko zawodowe inspektorów. Firma Aiview Group, będąca klientem, poprawia się w zakresie pomiarów, konserwacji i inspekcji ponad 4000 budynków infrastrukturalnych każdego roku, używając bezzałogowego statku powietrznego (UAV) firmy Leica Geosystems do generowania bardzo precyzyjnych danych do inspekcji mostów. Opracowali również algorytm oceny zdjęć zrobionych przez UAV i wykrywania problemów z biblioteką taksonomii defektów, która sprawdza problemy z cementem, żelazem dla mostu, roślinnością i ogólnie środowiskiem, według Marietti, inspektora mostu z Grupa Aiview. Ponadto bloki Komisji Mieszkaniowej i Rozwoju (HDB) w Jurong East w Singapurze rozpoczęły wykorzystywanie dronów z wbudowanymi kamerami w celu uzupełnienia działań związanych z inspekcją budynków, szczególnie w miejscach trudno dostępnych lub takich, które mogą stanowić większe zagrożenie dla inspektorów. Dron był obsługiwany przez HUS Unmanned Systems, a analizę obrazu przeprowadza system AI firmy H3 Zoom.AI. Dron wykonuje tysiące zdjęć, które są przesyłane do systemu AI hostowanego w chmurze w celu przeprowadzenia analizy. Następnie system identyfikuje usterki w raporcie generowanym automatycznie po każdej inspekcji. Aby chronić prywatność mieszkańców, oprogramowanie maskujące zamazuje szczegóły, jeśli podczas inspekcji zostaną zrobione zdjęcia mieszkańców. Popularnie rosnącym zastosowaniem sztucznej inteligencji w branży transportowej są pojazdy autonomiczne. Chociaż w pełni autonomiczne samochody i ciężarówki są jeszcze w powijakach, liczba produkowanych nowych autonomicznych pojazdów rośnie w szybkim tempie. Według badania przeprowadzonego przez Allied Market Research, światowy rynek pojazdów autonomicznych będzie wart 54,23 mld USD w 2019 r., a do 2026 r. wzrośnie do 556,67 mld USD, przy łącznym rocznym tempie wzrostu wynoszącym 39,47 proc. w tym okresie . Oznacza to, że wartość globalnego rynku pojazdów autonomicznych wzrośnie ponad dziesięciokrotnie w latach 2019-2026. Zbudowano również prototypy dla większych pojazdów autonomicznych, takich jak pojazdy do zbiórki śmieci, a Szwecja i Niemcy pilotowały autobusy bez kierowcy. Pojazdy autonomiczne to pojazdy zdolne do przyspieszania, hamowania i manewrowania po drogach bez ingerencji człowieka. Opierają się na wyspecjalizowanych czujnikach, takich jak czujniki wykrywania światła i zasięgu (Lidar), radary, anteny GPS i kamery, aby zrozumieć swoją aktualną lokalizację, otoczenie i otaczające je obiekty, aby podjąć decyzję o kolejnym działaniu. Wykorzystując lidar do pojazdów autonomicznych, firmy najpierw wyposażają zwykłe pojazdy w czujniki lidarowe, które zbierają informacje i generują mapę otoczenia. Gdy mapa jest gotowa, pojazdy autonomiczne mogą używać mapy do śledzenia swojego otoczenia i porównywania mapy z rzeczywistym otoczeniem, aby zrozumieć, gdzie się znajduje i jakie obiekty leżą wokół niego. Towarzyszy temu GPS, aby poprawić oszacowanie pozycji pojazdu. Korzystając z transmisji na żywo z kamer zainstalowanych wokół pojazdu, pojazdy autonomiczne mogą zrozumieć otaczające je obiekty, takie jak poruszające się samochody i motocykle oraz pieszych, poprzez wykrywanie i rozpoznawanie obiektów. Może również uzyskać informacje, takie jak odległość od pojazdu do obiektu i szybkość zbliżania się do pojazdu. Ze względu na złożoność zdarzeń, które mogą wystąpić w prawdziwym życiu, zaprogramowanie działania pojazdu autonomicznego w każdej możliwej sytuacji za pomocą zestawu reguł byłoby prawie niemożliwe. Firmy takie jak Waymo i Uber polegają na uczeniu maszynowym, aby uczyć się zachowań za pomocą dużych ilości danych dotyczących dróg i zachowań innych obiektów na drogach. Wzrost wykorzystania pojazdów autonomicznych przyniósłby wiele korzyści nie tylko użytkownikom dróg, ale ostatecznie gospodarce kraju i środowisku. Wraz ze wzrostem liczby pojazdów autonomicznych ogólny ruch na drogach się zmniejszy. Naukowcy Dan Work z Vanderbilt University i Benjamin Seibold z Temple University ustalili w swoim artykule badawczym, że nawet procent pojazdów autonomicznych tak mały, jak 5 procent, może mieć znaczący wpływ na eliminację fal i zmniejszenie całkowitego zużycia paliwa nawet o 40 na procent i wypadki hamowania nawet o 99 procent. Naturalnie, kierowcy mają tendencję do tworzenia ruchu typu stop-and-go z powodu naturalnych oscylacji podczas jazdy przez człowieka. Zwykle dzieje się tak w przypadkach, gdy ktoś zmienia pas lub łączy się. Naukowcy odkryli, że kontrolując tempo autonomicznego samochodu w swoich eksperymentach terenowych, autonomiczny samochód rozpraszałby fale stop-and-go, więc ruch uliczny nie oscyluje, jak to ma miejsce, gdy wszystkie samochody są prowadzone przez ludzi. Ponadto powszechne stosowanie pojazdów autonomicznych może wyeliminować do 90 procent wypadków w samych Stanach Zjednoczonych, zapobiegając szkodom i kosztom zdrowotnym sięgającym 190 miliardów USD rocznie i ratując tysiące istnień ludzkich, wynika z nowego raportu firmy konsultingowej McKinsey. & Co. Dzięki zmniejszeniu korków i bardziej zoptymalizowanym algorytmom jazdy pojazdy autonomiczne znacznie zmniejszą emisje. Według artykułu, samo korzystanie z autonomicznych taksówek elektrycznych może zmniejszyć emisje gazów cieplarnianych o 87-94% na milę do roku 2030. Te korzyści ostatecznie wynikają z zastosowania sztucznej inteligencji w optymalizacji ruchu pojazdu w celu zminimalizowania czasu podróży , zużycie i ogólne zagęszczenie ruchu. Oprócz wyżej wymienionych korzyści płynących ze sztucznej inteligencji w pojazdach, sztuczna inteligencja prowadziłaby również do większej wydajności samochodów elektrycznych. Dr Michael Fairbank i dr Daniel Karapetyan z University of Essex pracowali z firmą Spark EV Technology, aby opracować algorytmy, które pomogą pojazdom elektrycznym w dalszej podróży między ładowaniami i eliminują stres kierowców, którzy nie wiedzą, czy mają wystarczającą moc, aby ukończyć podróż. Oprogramowanie gromadzi dane na żywo dotyczące wielu zmiennych, takich jak warunki drogowe, warunki pogodowe, zużycie opon i zachowanie kierowcy, aby przewidzieć, ile energii jest potrzebne do każdej podróży. Spark wykorzystuje uczenie maszynowe do porównywania prognozy z rzeczywistym zapotrzebowaniem na energię, aby zwiększyć dokładność każdej przyszłej podróży. Sztuczna inteligencja jest również wykorzystywana w systemach transportu publicznego do planowania i optymalizacji harmonogramów systemów transportowych, ostatecznie oszczędzając czas pasażerów i koszty operacyjne. Według Retail Sensing, ich automatyczny system liczenia pasażerów oszczędza brytyjskiej firmie autobusowej tysiące funtów na autobus] . Automatycznie zlicza liczbę osób, które wsiadają i wysiadają z autobusu, aby sprawdzić liczbę pasażerów z transakcjami w automatach biletowych. Kiedy firma zdała sobie sprawę, że liczba pasażerów była większa niż liczba transakcji biletowych, podjęła działania w celu naprawienia brakujących przychodów z taryf. Licząc liczbę osób, które wsiadają i wysiadają z autobusu, firma transportowa może zebrać dane, które pomogą w planowaniu i prognozowaniu. Mogą również z łatwością generować raporty dla zewnętrznych agencji finansujących, takich jak władze regionalne, i monitorować jazdę na przestrzeni czasu. Jest to również ważne w analizie wydajności, dając miary, takie jak liczba pasażerów na milę, koszt na pasażera i liczba pasażerów na kierowcę. System liczenia wykorzystuje rozpoznawanie obiektów do rozpoznawania osób, a następnie zlicza liczbę osób wchodzących lub wychodzących z autobusu w oparciu o kierunek ich ruchu w materiale wideo. Retail Sensing twierdzi, że system zliczania wideo ma dokładność 98 procent, czyli większą niż ręczne zliczanie, które jest dokładne tylko w około 85 procentach. Sztuczna inteligencja jest również wykorzystywana w przestrzeni nawigacyjnej, aby zapewnić użytkownikom najszybszą trasę do celu. Mobilne aplikacje nawigacyjne, takie jak Waze i Mapy Google, wykorzystują algorytmy odnajdywania ścieżek AI, aby sugerować najwygodniejsze trasy, aby dotrzeć do żądanego miejsca docelowego. Decyzję podejmuje się na podstawie wielu czynników, w tym preferencji użytkownika dotyczących tras bez opłat i warunków na drodze. Dzięki dużej ilości danych gromadzonych przez aplikacje nawigacyjne z dużą liczbą codziennych użytkowników, mogą one stale szkolić swoje algorytmy uczenia maszynowego i głębokiego uczenia, aby poprawić wrażenia użytkowników, analizując i testując duże ilości danych. Ponadto użytkownicy mogą ustawić alarm na czas, w którym muszą opuścić swoją lokalizację, aby dotrzeć do miejsca docelowego w określonym czasie. Te platformy nawigacyjne stale zbierają dane o ruchu i przechowują je w oparciu o określone funkcje, takie jak pora dnia, dzień tygodnia, święto państwowe i warunki pogodowe. Trenując algorytmy AI na podstawie zebranych danych, są w stanie dokładnie przewidzieć, jak warunki drogowe będą się zmieniać w przyszłości i zapewnić użytkownikom dokładny czas podróży. Dzieje się tak również w przestrzeni e-mailowej. Firmy takie jak Uber i Grab są w stanie dokładnie oszacować cenę przejazdu podczas rezerwacji taksówki za pomocą uczenia maszynowego. Co więcej, wykorzystują również algorytmy sztucznej inteligencji w wyborze najlepszego kierowcy dla każdego pasażera, aby zminimalizować czas oczekiwania i objazdy. W przeciwieństwie do aplikacji nawigacyjnych, takich jak Waze i Mapy Google, które opierają się na dużych ilościach danych geolokalizacyjnych użytkownika do obliczania warunków drogowych, można korzystać z systemów prognozowania ruchu opartych na kamerach, wykonując analizę ruchu na obrazie wideo przechwyconym przez kamery drogowe zainstalowane na drogach i autostrady. Takie systemy przewidywania ruchu oparte na kamerach działają poprzez rozpoznawanie obiektów na klatkach wideo i zliczanie liczby różnych typów pojazdów na różnych drogach. Jest to konieczne, aby uzyskać oddzielne dane o ruchu dla każdej drogi i zrozumieć, jak różne rodzaje pojazdów wpływają na ruch. Na przykład ciężarówki mają większy wpływ na zagęszczenie ruchu w porównaniu do motocykli, ponieważ zajmują większy obszar i zazwyczaj przyspieszają wolniej niż motocykle. Przybliżona prędkość pojazdów jest również obliczana poprzez obliczenie odległości przebytej przez pojazd między klatkami i pomnożenie jej przez liczbę klatek na sekundę. Średnia liczba pojazdów i średnia prędkość pojazdu w większości wystarczają do zrozumienia warunków ruchu na określonej drodze. Dane te można wykorzystać do obliczenia współczynnika zagęszczenia ruchu dla każdej drogi na skrzyżowaniu, aby zrozumieć, jak przepływa ruch na drogach i skrzyżowaniach. Dane o ruchu drogowym można następnie wykorzystać do trenowania modelu głębokiego uczenia, który może być następnie wykorzystany do przewidywania warunków ruchu na podstawie różnych czynników, takich jak pora dnia i warunki pogodowe (rysunek 8.7). Dodatkową korzyścią z używania kamer drogowych na skrzyżowaniach z sygnalizacją świetlną jest to, że zebrane dane o ruchu mogą być bezpośrednio wykorzystywane do sterowania sygnalizacją świetlną. Zwykle celem sterowania sygnalizacją świetlną jest zapewnienie równomiernego ruchu na wszystkich drogach. Dlatego konwencjonalnie różne sygnalizacje świetlne na skrzyżowaniu są programowane z tym samym czasem trwania światła czerwonego i zielonego. Jednak zwykle tak nie jest, ponieważ natężenie ruchu na różnych drogach zmienia się w ciągu dnia w zależności od kierunku dróg. Na przykład rano natężenie ruchu może być wyższe na drodze prowadzącej z obrzeży do miasta w porównaniu z drogą prowadzącą z miasta na przedmieścia, ponieważ wielu mieszkańców z przedmieść pracuje w mieście. Wieczorami działo się odwrotnie, bo mieszkańcy wracali do swoich domów po pracy. Dłuższy czas trwania zielonego światła powinien być zapewniony na drogach o większym natężeniu ruchu, aby zmaksymalizować przepływ ruchu przez skrzyżowanie. Ponieważ system może z dużą dokładnością obliczyć liczbę pojazdów na każdej drodze, dane te można wykorzystać do kontrolowania czasu rotacji sygnalizacji świetlnej.

Planowanie i zarządzanie energią

Ze względu na niską sprawność i destrukcyjny wpływ nieodnawialnych źródeł energii na środowisko, o których dyskutowano podczas rozmów klimatycznych ONZ w Polsce, wiele narodów aktywnie podejmuje wysiłki na rzecz zwiększenia wykorzystania odnawialnych źródeł energii, takich jak energia słoneczna, wiatrowa i wodna, co są korzystne dla środowiska. Jednak korzystanie z odnawialnych źródeł energii stanowi wyzwanie dla energetyki ze względu na nieprzewidywalny charakter zużycia energii przez konsumentów i odnawialne źródła energii. Sztuczna inteligencja służy do rozwiązania tego problemu i poprawy ogólnego procesu wytwarzania, przesyłu, dystrybucji i zużycia energii, przy jednoczesnym obniżeniu całkowitych kosztów procesów i minimalizacji strat energii. Jest używany w różnych zastosowaniach w przemyśle energetycznym, w tym w prognozowaniu wahań podaży i popytu na energię, aby dostawcy mogli zapewnić nieprzerwaną dostępność energii, oraz optymalizację zużycia energii elektrycznej w celu zmniejszenia marnotrawstwa. Na przykład DeepMind firmy Google obniżył zużycie energii w swoich centrach danych o 15 procent, korzystając z umowy MLA. Prowadzone są również badania nad wykorzystaniem sztucznie inteligentnych systemów do łagodzenia zjawiska miejskiej wyspy ciepła, którą definiuje się jako obszar metropolitalny, który jest znacznie cieplejszy niż otaczające go obszary wiejskie. Ciepło generowane jest przez pojazdy, takie jak samochody, autobusy i pociągi oraz budynki w dużych miastach, takich jak Nowy Jork, Pekin i Kuala Lumpur. Ze względu na ciepło wytwarzane przez pojazdy i właściwości izolacyjne materiałów budowlanych, ciepło jest gromadzone i wychwytywane w dużych miastach, tworząc miejskie wyspy ciepła, co pogarsza jakość powietrza i wody oraz obciąża rodzime gatunki, takie jak organizmy wodne przyzwyczajone do niższych temperatur. Aby złagodzić ten problem, badana jest integracja i optymalizacja inteligentnych systemów sterowania dla budynków o zerowym zużyciu energii. Inteligentne technologie sterowania, takie jak metody oparte na uczeniu, w tym systemy rozmyte i sieci neuronowe, technika sterowania predykcyjnego opartego na modelach (MPC) i systemy sterowania oparte na agentach, są prawdopodobnymi technikami, które spełniają kilka celów, w tym zwiększenie efektywności energetycznej i kosztowej operacji budowlanych oraz poziom komfortu w budynkach. Technologie te mogą być stosowane w sterowaniu siłownikami systemów zacieniających, systemów wentylacyjnych, pomocniczych systemów ogrzewania/chłodzenia oraz sprzętu AGD w celu optymalizacji kosztów i zużycia energii elektrycznej. Podczas gdy zużywają energię elektryczną, pojazdy elektryczne staną się również mobilnymi magazynami energii dla inteligentnej sieci, eksportując energię do sieci. Wraz ze wzrostem popularności pojazdów elektrycznych sieć stanie się bardziej elastyczna w reagowaniu na podaż i zapotrzebowanie na energię. Pojazdy byłyby wyposażone w dopracowane technologie Vehicle-to-grid (V2G) i Grid-to-vehicle (G2V), aby sprostać wyzwaniom związanym z wykorzystaniem technik energii odnawialnej. Na przykład, jeśli w mieście nastąpi nagły nieoczekiwany wzrost zapotrzebowania na energię elektryczną, dostawcy energii mogą nie być w stanie natychmiast dostarczyć dużej ilości energii elektrycznej do odbiorców z powodu niedoboru dostępnej energii. Mogą natychmiast zwiększyć produkcję energii elektrycznej z elektrowni wodnych, a nawet elektrowni węglowych; jednak nadal może występować opóźnienie w przesyłaniu energii ze stacji do odbiorców. W takim przypadku inteligentna sieć może tymczasowo pobierać energię elektryczną zmagazynowaną w akumulatorach pojazdów elektrycznych podłączonych do sieci i dostarczać energię elektryczną, aby zaspokoić wzrost zapotrzebowania. Do czasu, gdy wytworzona energia będzie gotowa do użycia, inteligentna sieć może nadal ładować pojazd elektryczny, aby zastąpić pobraną energię. Francisco Carranza, dyrektor ds. usług energetycznych w Nissan Europe, potwierdził, że pojazdy elektryczne mogą być wykorzystywane z korzyścią dla sieci. Badanie przeprowadzone w Danii przez Nissana i Enel S.p.A., największego włoskiego przedsiębiorstwa energetycznego, wykazało, że przedsiębiorstwa użyteczności publicznej mogą wykorzystywać zaparkowane pojazdy elektryczne do pompowania energii do sieci, a nawet zapewniać właścicielom pojazdów zwrot pieniężny. Chociaż wykorzystanie pojazdów elektrycznych do wspierania inteligentnych sieci w dostarczaniu energii może rozwiązać wielkie wyzwanie stojące przed systemami inteligentnych sieci, stanowi nowe wyzwanie dla właścicieli pojazdów elektrycznych. Z jednej strony wiadomo, że pojazdy elektryczne mają bardziej ograniczony zasięg w porównaniu z pojazdami benzynowymi, co oznacza, że pozyskiwanie zmagazynowanej energii z pojazdów elektrycznych dodatkowo ograniczyłoby dostępną energię zmagazynowaną w pojazdach elektrycznych, potencjalnie powodując unieruchomienie użytkowników, gdyby byli podróżować na większe odległości. Z drugiej strony, przy dużej liczbie pojazdów elektrycznych, które mają być podłączone do sieci, lokalne sieci dystrybucyjne napotkają szczyty, które mogą skutkować wysokimi cenami energii elektrycznej i przeciążeniem elektrycznym. Obecnie prowadzone są duże ilości badań w celu opracowania strategii rozwiązywania tych problemów. Wśród najpopularniejszych technik znajduje się wykorzystanie sztucznej inteligencji do usprawniania pojazdów elektrycznych i systemów zarządzających zbiorami pojazdów elektrycznych. Na podstawie ankiety dotyczącej zarządzania pojazdami elektrycznymi w inteligentnej sieci za pomocą sztucznej inteligencji opracowano kilka technik sztucznej inteligencji o różnej złożoności i skuteczności, aby rozwiązać szeroki zakres problemów związanych z pojazdami elektrycznymi i inteligentnymi sieciami, w tym:

1. Energooszczędne wyznaczanie tras pojazdów elektrycznych i maksymalizacja zasięgu w celu wyznaczania tras pojazdów elektrycznych w celu zminimalizowania strat energii i maksymalizacji energii zebranej podczas podróży. Obejmuje to również maksymalizację wydajności baterii, aby zmaksymalizować żywotność baterii.

2. Zarządzanie zatorami w celu zarządzania i kontroli ładowania pojazdów elektrycznych tak, aby zminimalizować kolejki na stacjach ładowania i dyskomfort kierowców.

3. Włączenie pojazdów elektrycznych do inteligentnej sieci w celu planowania i kontrolowania ładowania pojazdów elektrycznych w celu uniknięcia szczytów i ewentualnych przeciążeń sieci elektrycznej przy jednoczesnym zminimalizowaniu kosztów energii elektrycznej.

Szanse i zagrożenia

Wcześniej omówiono zastosowanie AI w różnych aspektach miast w tworzeniu inteligentnych miast. Oczywiste jest, że sztuczna inteligencja i techniki uczenia maszynowego są nie tylko szybko rozwijane, ale są już przyjmowane przez miasta w celu obniżenia kosztów operacyjnych, zwiększenia zrównoważonego rozwoju i ostatecznie poprawy jakości życia. Obecnie większe korporacje używają głównie inteligentnych narzędzi analitycznych do badania swoich danych, ponieważ mają więcej danych, z którymi muszą sobie radzić i są w stanie pozwolić sobie na tak drogie systemy, podczas gdy mniejsze firmy i firmy mogą nadal nie mieć konieczności i możliwości korzystania z takich systemów. Jednak w miarę postępów w rozwoju narzędzi uczenia maszynowego i coraz większej liczby firm i organizacji zaczynających stosować te systemy, koszty operacyjne tych inteligentnych narzędzi analitycznych zmniejszą się, umożliwiając mniejszym firmom korzystanie z nich. Ponadto, ponieważ firmy stają się coraz bardziej zależne od danych, aby zmaksymalizować swoje przychody, w końcu zaczną brakować umiejętności analizy dużych ilości danych i ostatecznie będą wymagać AI do obsługi ich operacji. Ponieważ algorytmy NLP i rozpoznawania obiektów wciąż się poprawiają, organizacje i rządy będą miały większe zaufanie do korzystania z nich w celu poprawy usług i przejmowania zadań, gdy mogą wykonać zadanie z większą wydajnością. Na przykład większość dzisiejszych sygnalizacji świetlnych jest programowana za pomocą sterowników PLC i zaprogramowana jest tak, aby mieć ustalone czasy dla każdego pasa ruchu na skrzyżowaniu. Niekoniecznie musi to być najlepsza metoda minimalizowania ruchu, ponieważ sygnalizacja świetlna na pustym pasie może być zielona, podczas gdy sygnalizacja świetlna na zatłoczonym pasie jest czerwona. Funkcjonariusz policji drogowej kontrolujący ruch drogowy wykonałby lepszą pracę niż taki system sygnalizacji świetlnej, ponieważ może zapewnić bardziej zatłoczone drogi więcej "czasu zielonego światła". Jednak system AI, który analizuje dane o ruchu w celu sterowania sygnalizacją świetlną, może przewyższać oba systemy. Dzięki licznym połączonym ze sobą kamerom drogowym w całym mieście, wraz z danymi geolokalizacyjnymi ruchu, systemy AI mogą optymalizować czasy sygnalizacji świetlnej dla wszystkich sygnalizacji świetlnej na wszystkich skrzyżowaniach miasta, aby zminimalizować skutki zatorów na jednym skrzyżowaniu na drugim skrzyżowaniu miasta. Jednak rządy musiałyby mieć dużą pewność co do takiego systemu, zanim wdrożą go na dużą skalę. Jeśli system AI kontrolujący ruch ulegnie awarii, spowoduje to duże zatory w całym mieście. Firmy, które opracowują te systemy AI, zaczynałyby od przetestowania systemu w symulacjach, a następnie do testów na mniejszą skalę, zanim w pełni wdrożą taki system. Najczęściej rozwijany rodzaj sztucznej inteligencji jest znany jako wąska sztuczna inteligencja, co oznacza, że jest przeznaczony do wykonywania określonego zadania i nie wykonuje innych rodzajów zadań. Większość przykładów wykorzystania sztucznej inteligencji opisanych tu, takich jak rozpoznawanie twarzy, NLP i przewidywanie ruchu, jest klasyfikowana jako wąska sztuczna inteligencja. Jednak wielu badaczy pracuje nad rozwojem ogólnej sztucznej inteligencji, która może dobrze wykonywać wiele zadań. Podczas gdy wąskie systemy sztucznej inteligencji są w stanie przewyższyć ludzi w określonych zadaniach, ogólne systemy sztucznej inteligencji byłyby w stanie prześcignąć ludzi w wielu zadaniach poznawczych. Chociaż sztuczna inteligencja jest postrzegana jako bardzo korzystna w automatyzacji codziennych zadań, wiele znanych nazwisk w nauce i technologii, takich jak Elon Musk, Bill Gates i Stephen Hawking, wraz z wieloma czołowymi badaczami sztucznej inteligencji wyraziło swoje obawy dotyczące zagrożeń stwarzanych przez sztuczną inteligencję. Obawy pojawiły się, gdy rozwój sztucznej inteligencji, który eksperci przewidywali, że będzie oddalony o dziesięciolecia, został osiągnięty zaledwie 5 lat temu, co doprowadziło do możliwości superinteligencji w naszym życiu. Większość badaczy zgadza się, że superinteligentna sztuczna inteligencja prawdopodobnie nie będzie przedstawiać ludzkich emocji, więc nie spodziewają się, że sztuczna inteligencja stanie się celowo uprzejma lub złośliwa. Według Future of Life, przy rozważaniu, w jaki sposób sztuczna inteligencja może stać się zagrożeniem, eksperci biorą pod uwagę następujące dwa scenariusze:

1. AI jest zaprogramowana do robienia czegoś destrukcyjnego. Przykładem technologii dostosowanej do tego scenariusza jest broń autonomiczna, która może powodować masowe ofiary. W miarę jak techniki sztucznej inteligencji staną się bardziej zaawansowane, niektóre strony zdadzą sobie sprawę z potencjału sztucznej inteligencji w powodowaniu geofizycznych uszkodzeń na dużą skalę, co wkrótce doprowadzi do wynalezienia autonomicznej broni sztucznej inteligencji. Ponadto wyścig zbrojeń AI może doprowadzić do wojny AI, która może spowodować straty przekraczające wojny toczone przez ludzi. Nawet przy wąskiej AI to ryzyko jest obecne. Wraz z rozwojem ogólnej sztucznej inteligencji, broń autonomiczna zyskałaby większą autonomię, powodując, że ludzie prawdopodobnie straciliby kontrolę nad sytuacją.

2. Cel AI staje się niezgodny z celem, w jakim został stworzony. W tym scenariuszu, w przeciwieństwie do poprzedniego, sztuczna inteligencja jest zaprogramowana do wykonania korzystnego zadania; jednak opracowuje destrukcyjną metodę osiągnięcia swojego celu. Może się tak zdarzyć, gdy AI otrzymuje zadanie do rozwiązania lub wykonania i skupia się wyłącznie na rozwiązaniu problemu bez uwzględniania konsekwencji swoich działań w innych aspektach. Jeśli superinteligentny system otrzyma zadanie wykonania dużego projektu geoinżynieryjnego, może to wyrządzić szkodę ekosystemowi jako efekt uboczny, ponieważ jego jedynym celem jest wykonanie danego zadania, bez względu na konsekwencje.

Badania nad bezpieczeństwem AI to obszar badań, który koncentruje się na zapewnieniu, że cel AI jest zawsze zgodny z naszym, a jednocześnie AI musi troszczyć się o ludzkość i środowisko. Z powyższych scenariuszy widać, że troska o zaawansowaną sztuczną inteligencję nie wynika z obawy, że może stać się zła, ale że osiąga poziom kompetencji, na którym ludzie nie są w stanie jej powstrzymać. Podczas gdy tygrysy znajdują się na szczycie łańcucha pokarmowego w dżungli, są obezwładnieni przez ludzi, ponieważ nasza inteligencja znacznie przewyższa ich inteligencję. Ponieważ sztuczna inteligencja znacznie przewyższa ludzką inteligencję, może uzyskać podobną formę kontroli nad nami. Kluczowym celem badań nad bezpieczeństwem AI jest zapewnienie, że motywacja AI w wykonywaniu jej zadań nigdy nie przewyższa bezpieczeństwa ludzkości i środowiska.

Jak roboty przemysłowe tworzą inteligentne fabryki

Od wielu lat roboty przemysłowe są wykorzystywane do zmiany masowej produkcji i automatyzacji rejestracji w celu szybszego i bezpieczniejszego wykonywania unikalnych procedur bez żadnych potknięć. Masowa produkcja z robotów przemysłowych obniża koszt produktu i zwiększa szybkość dostawy bez większych błędów. Procedury produkcyjne, rozwój technologii, inteligentny łańcuch dostaw i aspekty handlowe zostały zmienione przez Przemysł 4.0. Sztuczna inteligencja (AI) i uczenie maszynowe zmieniły starsze sposoby realizacji procesów i obsługi robotów przemysłowych. W tym celu przeprowadzono nowatorskie badania i opracowano plany dotyczące przyszłej generacji robotów, linii automatyzacji i inteligentnych fabryk. Chociaż Przemysł 4.0 nie jest powszechnie używanym terminem i znaną ideą, to jest wyjątkowo zdolny do poprawy ludzkiego życia. Prognozuje się, że wszystkie procedury produkcyjne i poziomy dostaw będą miały wpływ na produkcję. W tym rozdziale opisano związek Przemysłu 4.0 i inteligentnych fabryk w zakresie robotów przemysłowych oraz omówiono korzyści i zastosowania. Wpływ robotów przemysłowych na inteligentne fabryki i przyszłe oczekiwania zostaną omówione w dalszej części tekstu.

Przemysł 4.0 i roboty przemysłowe

Jaki jest główny wpływ Przemysłu 4.0 na inteligentne maszyny i jak inteligentne fabryki są generowane przez roboty przemysłowe? Na początku wyrażenie "Czwarta Rewolucja Przemysłowa" lub cyfryzacja produkcji, zwłaszcza "Przemysł 4.0", zostało wprowadzone w ramach niemieckiego projektu realizowanego przez Germany Trade and Invest (GTAI) rozpoczętego w 2011 roku. W tym projekcie Przemysł 4.0 jest definiowany jako zmiana paradygmatu, która jest aktualizowana przez postęp technologiczny, polegający na odwróceniu tradycyjnej logiki procesu produkcyjnego. Oznacza to, że nie tylko oczekuje się, że maszyny wykonają obróbkę, ale również produkt musi być komunikowany przez maszyny, aby poinformować go o tym, co dokładnie ma robić. W projekcie znanym jako wizja niemieckiej strategii 2020, końcowe wyniki tej komisji połączą zaawansowane technologie i międzynarodowe przywództwo. Programy takie jak "Smart Nation Program" w Singapurze, "Industrial Value Chain Initiative" w Japonii, "Made in China 2025" w Chinach i "Smart Manufacturing" w Stanach Zjednoczonych należą do podobnych kroków podejmowanych przez inne narody. Co więcej, projekt GTAI wspomina, że Przemysł 4.0 oznacza technologiczny wzrost od systemów wbudowanych do systemów cyber-fizycznych, która jest metodą łączącą wbudowane technologie produkcyjne i inteligentne procedury produkcyjne. Innymi słowy, Przemysł 4.0 to stan, w którym systemy produkcyjne i wytwarzane przez nie produkty są nie tylko połączone, ale Przemysł 4.0 przenosi fizyczne informacje na pole cyfrowe i przekazuje, analizuje i wykorzystuje tego rodzaju informacje, aby uzyskać bardziej inteligentne działania z powrotem do świata fizycznego, aby przeprowadzić transformację z fizycznego na cyfrowy i odwrotny. Przemysł 4.0 to mieszanka wielu innowacyjnych rozwiązań technologicznych takich jak technologie informacyjne (IT) i technologie komunikacyjne, systemy cyberfizyczne, komunikacja sieciowa, masowe przetwarzanie danych i przetwarzanie w chmurze, modelowanie, wirtualizacja, symulacja oraz ulepszony sprzęt do komunikacji i współpracy człowiek-komputer. Pojęcie Przemysłu 4.0 toruje drogę do różnych pozytywnych zmian w dzisiejszej produkcji, takich jak personalizacja masowa, elastyczna produkcja, zwiększona szybkość produkcji, więcej produktów wysokiej jakości, obniżony poziom błędów, zoptymalizowana wydajność, podejmowanie decyzji w oparciu o dane, większa bliskość z klientem, produkcja nowej wartości strategie i rozszerzone życie zawodowe. Ponadto istnieją kwestie związane z przekształceniami paradygmatu biznesowego, bezpieczeństwem, ochroną, kwestiami prawnymi i standaryzacją, a także szereg problemów związanych z planowaniem zasobów ludzkich. Poprzez maszynę parową i krosno Przemysł 1.0 zajmował się mechanizacją w XVIII i XIX wieku. Mechanizacja wyparła główny rodzaj energii, jaką była siła ludzka, i umożliwiła szybsze i bezpieczniejsze wykonywanie procesów. W międzyczasie tempo produkcji znacznie wzrosło później. Druga rewolucja miała miejsce pod koniec XIX wieku poprzez uprzemysłowienie elektryczności. W fabrykach wykorzystywano energię elektryczną; linie montażowe zostały wykorzystane do celów masowej produkcji. Wykorzystanie mikroelektroniki i programowalnych sterowników logicznych (PLC) nastąpiło w Industry 3.0 wraz z niezwykłym postępem w dziedzinie komputerów, robotyki, sterowników PLC, komputerowego sterowania numerycznego (CNC) i większej automatyzacji. Obecnie korzyści czerpie się z eksplozji czujnika oraz możliwości sieci i zdalnego dostępu do informacji z tych maszyn. Rysunek 9.1 przedstawia ogólny widok osi czasu rewolucji przemysłowych. Wraz z rozwojem technologii i pojawieniem się algorytmów uczenia maszynowego większość rutynowych prac wykonywała automatyka, komputery, roboty i maszyny. Przewiduje się, że tego typu prace są wyspecjalizowane w powtarzających się procesach i nie posiadają żadnych umiejętności na wysokim poziomie. Rejestracja robotów przemysłowych do rutynowych zadań będzie bardzo wydajna w Przemyśle 4.0. Robotyka, systemy cyber-fizyczne, automatyzacja i Internet rzeczy (IoT) stworzyły inteligentne fabryki. Po Przemyśle 3.0 (komputery i internet), Przemyśle 2.0 (produkcja masowa i elektryczność), Przemyśle 1.0 (mechanizacja i energetyka wodno-parowa), inteligentne fabryki to czwarta rewolucja przemysłowa. Producenci Przemysłu 4.0 próbują połączyć swoje maszyny z chmurą i stworzyć Industrial IoT. Oczekuje się, że przyszła generacja produkcji i fabryk będzie inteligentna w schemacie przemysłowym 4.0. Wszystkie obiekty, czyli maszyny, urządzenia, roboty, procesy i komputery muszą być połączone w grupy lub jeden po drugim. Masowe łączenie systemów tworzy bogatą społeczność zajmującą się ogromną analizą danych, przewidywalnymi pętlami i procesami autokorekty wśród wielu innych prawdopodobieństw. Inicjalizacja Przemysłu 4.0 jest już doceniona pomimo ogromnych przeobrażeń dla rozwoju w przyszłości. Przekształcenie surowca w produkt końcowy wydaje się bardzo trudne. Bardzo trudno jest nawigować drogą projektowania procesów o wysokich kosztach z najszybszym procesem dostawy w momencie dostosowywania linii produkcyjnej na podstawie życzeń konsumentów. Pomimo niezwykłego postępu i przełomu w produkcji i wytwarzaniu, przewiduje się więcej od Przemysłu 4.0. Reorganizacja struktury, metodologii i wydajności jest wymagana zgodnie z potencjałami Przemysłu 4.0 na każdym etapie, począwszy od rozwoju produktu i sprzedaży, aż po zaopatrzenie i dostawę. Wraz z wprowadzeniem nowatorskich, opracowanych technologii oczekuje się, że Przemysł 4.0 uzyska lepszą wydajność i produktywność w zakresie gromadzenia danych, analizy danych i korekcji procesów. W inteligentnych fabrykach produkcja stanie się cyfrowa, a sztuczna inteligencja będzie realizowana. Przemysł 4.0 wpływa na wszystkie etapy produkcji fabrycznej, takie jak projektowanie, produkcja, inżynieria, marketing, operacje, finanse i tak dalej. Podstawową troską jest oddzielny rozwój każdego etapu wraz z innymi bez pomysłu, jak dojść do porozumienia. Ten problem może rozwiązać scentralizowany inteligentny system sieciowy. Zero Down Time Solution to oparte na chmurze oprogramowanie produkowane przez General Motors (GM), głównego producenta amerykańskiego przemysłu motoryzacyjnego w zakresie kryteriów konserwacji. Za pomocą tej platformy analizowane są dane zebrane z robotów w fabrykach GM w celu przewidywania przyszłości. Od uruchomienia tej platformy w 2014 roku jest ona codziennie rozwijana i przynosi niewiarygodne rezultaty. Program przeanalizował dane zebrane w celu zapewnienia zwrotu z inwestycji (ROI) i uniknięcia przestojów. Każdy przestój może kosztować ponad 20 000$ za każdą minutę w branży motoryzacyjnej. ROI został wykorzystany przez oprogramowanie do przewidywania awarii, zanim ona nastąpi. Poprzednie tło było wykorzystywane przez mózg AI do szacowania i znajdowania konserwacji, podczas gdy jest to bardzo wymagane w produkcji. Chociaż nie jest to jeszcze możliwe po zebraniu wystarczających danych o działaniu robota, celem jest stworzenie systemu do samodiagnozy zgodnie z niewielkimi zmianami w procedurach dostosowanych w celu zwiększenia całkowitej wydajności

Inteligentne fabryki

Gromadzenie i analizowanie danych jest jednym z głównych kryteriów Przemysłu 4.0. Informacje są zbierane ze wszystkich stacji przez AI. Następnie informacje są wydobywane, porządkowane i analizowane w celu uzyskania wyników. Do przetwarzania i podejmowania decyzji o analizie ogromnych danych potrzebna jest wysoce zaawansowana technika analityczna. Uczenie maszynowe jest możliwe dzięki masowej analizie danych. Oznacza to umiejętność poznania wzorców danych i wykorzystania przeszłych doświadczeń w celu uzyskania precyzyjnych prognoz. Zamiast pisać miliony wierszy kodu dla przewidywalnych drzew decyzyjnych, uczenie maszynowe umożliwia samouczenie się algorytmu, aby indywidualnie radzić sobie z nadchodzącymi problemami lub dobrze obsługiwać obiekty . Technologia identyfikacji radiowej należy do szeroko stosowanych nowatorskich technologii w przemyśle produkcyjnym w celu cyfryzacji. Technologia ta została wykorzystana w różnych czujnikach, siłownikach, komunikatorach, nadajnikach, tagach i kodach kreskowych. Dane zebrane z takich urządzeń informują nas o stanach magazynowych, aby zapewnić sprawną realizację operacji lub czas naprawy sprzętu. Aktualny nadzór i optymalizację czasu można przeprowadzić, łącząc wszystkie urządzenia i maszyny za pośrednictwem centralnego systemu w inteligentnej fabryce. Wszystko można było połączyć w inteligentnej fabryce, a maszyny, zasoby i procedury można by zautomatyzować i połączyć. Ten rodzaj produkcji mógłby być bardziej wydajny, przewidywalny i umożliwiałby wytwarzanie towarów wyższej jakości przy krótszych przestojach sprzętu niż to, o czym wiemy obecnie. Wdrożenie koncepcji komunikacji jeden po drugim nie jest przewidziane w Industry 4.0, natomiast wymagane jest okablowanie wraz z maszynami. Wiadomo, że jest to niezwykła szansa dla producentów. Powinna wziąć pod uwagę możliwości automatyzacji i przeprowadzić badania nad technologią niezbędną do połączenia automatyzacji w sprawne działanie. Bardzo prostym przykładem jest samodzielny robot mobilny przechodzący obok otwieranych drzwi. W przeciwnym razie takie drzwi byłyby obsługiwane przez ludzi podczas transportu elementów, podczas gdy nawet już wykonane produkty muszą być łączone, aby umożliwić robotom komunikowanie się z nimi wraz z automatycznym otwieraniem i zamykaniem podczas przenoszenia produktów. Z robotami można również zintegrować urządzenia bezpieczeństwa, takie jak alarm przeciwpożarowy lub sytuacja awaryjna. Jakie są oczekiwania wobec inteligentnych fabryk i jakie są główne komponenty Przemysłu 4.0? Przemysł 4.0 może pozytywnie wpływać na zaspokajanie indywidualnych potrzeb klientów, elastyczność produkcji, optymalizację podejmowania decyzji, produktywność i wydajność zasobów, możliwości tworzenia wartości dzięki nowatorskim usługom, zmiany demograficzne w miejscu pracy, siłę roboczą ludzi, równowagę między życiem zawodowym a prywatnym oraz konkurencyjność gospodarka z wysokimi zarobkami. Podkreślono tutaj cztery główne elementy, które, jak się przewiduje, mogą spowodować wielką różnicę. Są to

•  wydajność i produktywność,
•  bezpieczeństwo i ochrona,
•  elastyczność i
•  łączność.

Wydajność i produktywność

Zwiększenie wydajności inteligentnych maszyn jest jednym z głównych celów w branży. Różne rodzaje czujników są wdrażane przez inteligentne maszyny w celu nadzorowania siebie, aby uniknąć wszelkiego rodzaju awarii. Dzięki gromadzeniu danych z inteligentnych maszyn i sieci możemy mieć bardziej niezawodne i elastyczne linie automatyzacji/montażu, które zapewniają bardziej wydajną wydajność. Inteligentne maszyny są używane na pierwszej linii produkcyjnej w hali produkcyjnej, a wbudowane inteligentne maszyny są bardzo potrzebne w przypadku czujników i siłowników maszyny. Przy takim poziomie wyposażenia możliwe byłoby uniknięcie lub zminimalizowanie wszelkich uszkodzeń, konserwacji zapobiegawczej dotyczącej maszyn i ich przestojów. To dodaje wartości do systemu. Produkcja będzie szybsza dzięki zaawansowanej cyfryzacji i symulacji/wirtualizacji produktu. Prawdopodobne jest wykrycie wartości każdej transformacji projektowej i wpływu szybkości produkcji. Przejrzystość zostanie zapewniona w całej produkcji poprzez zbieranie, wstępne przetwarzanie i analizowanie wszystkich dostępnych danych z hali produkcyjnej. Dopuszcza się identyfikację wąskich gardeł i potencjalnych miejsc poprawy. Na przykład, w większości przypadków cechy projektowe są już określone przez klientów. W smartie wymagany jest odpowiedni poziom inteligencji maszyny do szybkiej analizy zebranych danych. Po przekroczeniu ustalonych kryteriów w przypadku danych z czujnikami, bardziej wydajne byłoby zarządzanie całym systemem i łatwiejsza obsługa systemu.

Bezpieczeństwo i ochrona

Należy wziąć pod uwagę poprawę wydajności lub skuteczności, bezpieczeństwo i ochronę. Czujniki bezpieczeństwa, takie jak alarmy, skanery laserowe, detektory ręczne i kamery dodane do elementów automatyki, w tym sterowników PLC, napędów, komputerów i innych, muszą być brane pod uwagę w celu zwiększenia bezpieczeństwa operatorów. Wykorzystanie tych możliwości jest możliwe dzięki inteligentnym fabrykom, a bezpieczeństwo danych jest głównym wyzwaniem w gromadzeniu danych. W dzisiejszych czasach bezpieczeństwo danych jest głównym czynnikiem hamującym przyjmowanie przez użytkowników końcowych nowych technologii sieciowych i procedur pracy. Osiąganie korzyści produkcyjnych poprzez łączenie w sieć komponentów i maszyn niesie ze sobą ryzyko. Należy wziąć pod uwagę bezpieczeństwo na różnych poziomach, zwłaszcza w przypadku IoT (lub IIoT) i rosnących poziomów łączności. Bezpieczeństwo musi być zapewnione na różnych poziomach, podczas gdy sprzęt, oprogramowanie i usługi muszą być włączone. Producenci maszyn (i dostawcy komponentów automatyki) muszą upewnić się, że użytkownicy są świadomi luk w zabezpieczeniach. Infrastrukturą sieciową można zarządzać w celu zmniejszenia ryzyka naruszenia. Cyberbezpieczeństwo to jeden z problemów, który niepokoi producentów: należy mieć gwarancję, że nie zostaną zinfiltrowani lub ich fabryki nie zostaną przejęte. Ponadto musimy upewnić się, że sprzęt produkcyjny nie zagraża zasobom ludzkim ani środowisku pracy. Należy zadbać o to, aby pracownicy byli stale szkoleni w kwestiach bezpieczeństwa.

Elastyczność

Oczekuje się, że inteligentne maszyny będą zgodne z obecnymi instalacjami lub maszynami wielu producentów oryginalnego sprzętu (OEM); użytkownicy produktów żądają produktów, które można zainstalować w krótkim czasie. Obecnie monolityczna lub pojedyncza konstrukcja nie jest dopuszczalna przez cykl życia maszyn. Wykorzystywane są wzorce sprawdzonego projektu od prostych funkcji oprogramowania do całkowicie funkcjonalnych jednostek, które zapewniają opis mechaniki, elektryki, ruchu i interfejsów, cech i zachowań. Modułowość jest czynnikiem umożliwiającym, w którym model ponownego wykorzystania oprogramowania i sprzętu w innej sytuacji wymaga nowego poziomu myślenia. Idea precyzyjnych i sztywnych interfejsów z dobrze opisanym zachowaniem do zbadania wywodzi się ze świata IT. Jego przestrzeń znajduje się w automatyce z pewną adaptacją. Dzięki utworzeniu inteligentnych fabryk, bardziej elastyczna produkcja jest możliwa dzięki inteligentnym maszynom, które torują drogę do wytwarzania szerokiej gamy produktów za pomocą danego sprzętu produkcyjnego, szybszych procedur produkcyjnych przy jednoczesnym reagowaniu na zmiany i tymczasowe potrzeby [6] . W ten sposób firmy zaczynają produkować dla większej liczby klientów i zmieniają się zgodnie z chwilowymi wzrostami i spadkami rynku. Na przykład, w przypadku niskiego zapotrzebowania na dany produkt, linię produkcyjną można łatwo przekształcić w inny produkt o większej wydajności i szybszym niż oczekiwanym dostarczaniu komponentów do klientów. W ten sposób klienci będą bardziej ufać producentom.

Łączność

Szersze (oparte na Ethernet) sieci zostaną bezpośrednio zintegrowane z inteligentnymi maszynami. Dzięki temu możliwe jest udostępnianie danych i planowanie produkcji. To więcej niż możliwości samodzielnych maszyn i automatyzacji. Technologia informatyczna i operacyjna jest zintegrowana z inteligentnymi maszynami, co umożliwia dostęp do danych produkcyjnych. Ten zestaw danych może być wykorzystywany w wielu środowiskach zarządzania. Pomysł wykorzystania urządzeń mobilnych w pracy jest mile widziany przez operatorów maszyn i inżynierów hal produkcyjnych. Monitorowanie i zarządzanie wydajnością personelu nie zależy już od bliskości maszyny. Problemy mogą być diagnozowane przez inżynierów maszynowych z dużej odległości, a tym samym mogą być oferowane wskazówki, aby przyspieszyć przeprowadzenie rozwiązania. W ten sposób zminimalizowane są przestoje i straty wynikające z awarii komponentów. Wyśmienity hamburger może być łatwo przygotowany przez wielozadaniowy robot (Momentum Machines) w ciągu 10 s, zastępując cały zespół McDonalds. Pionier technologii sztucznej inteligencji Google zdołał zdobyć patent na rozpoczęcie produkcji robotów robotniczych z własnymi tożsamościami. Coraz częściej inteligentne maszyny rozpoczęły swoją drogę do pracy i stają się bardziej skomplikowane i rozwinięte niż poprzednie pokolenia. Nie trzeba dodawać, że w inteligentnych fabrykach na pewnym etapie wymagane jest monitorowanie i dostosowywanie przez ludzi. Nadzorcy mogą zarządzać działaniami robotów za pomocą technologii podręcznych, takich jak smartfony i tablety, oraz wprowadzać zmiany za pomocą powszechnie dostępnej, niedrogiej i specjalistycznej technologii. Zastosowanie inteligentnej technologii przyspiesza pracę kierowników produkcji w warunkach szybkiego tempa produkcji, w których kiedyś byli przywiązani do komputera lub stacjonarnego systemu danych.

Internet przedmiotów

Niezależne strategie produkcyjne umożliwione przez IoT to kluczowa cecha Przemysłu 4.0. W tym stanie każda maszyna, obiekt, urządzenie i komputer muszą być połączone i mogą się komunikować. Nadal możemy znaleźć ślady IoT w naszym świecie, a liczba urządzeń podłączonych cyfrowo rośnie coraz bardziej. Bardzo mała liczba takich urządzeń kontaktuje się z nami, podczas gdy oczekuje się, że będzie ich więcej. Niezależne roboty, które są powszechne we wszystkich branżach, są prostym przykładem dla produkcji przemysłowej i inteligentnych fabryk. Wcześniej procedura automatyzacji i programowanie były zarządzane przez sterowniki PLC. PLC zachowują się jak szefowie automatyki przemysłowej, ale ich wadą jest to, że prawdopodobnie zostaną okablowane. Do ich obsługi i pisania drabin logicznych potrzebni są bardzo wykwalifikowani programiści. Biorąc pod uwagę zawiłość i surowość, wykonanie i przekształcenie tych rozwiązań dużo kosztuje. Roboty muszą być połączone w celu komunikacji w inteligentnych fabrykach Przemysłu 4.0. Dzięki połączeniu z centralnym serwerem, bazą danych lub sterownikiem PLC koordynacja i automatyzacja działań robotów byłaby prawdopodobna w większym stopniu niż kiedykolwiek. Zadania można inteligentnie wykonać w uporządkowany sposób przy najmniejszym udziale człowieka. Autonomiczne roboty mobilne (AMR) mogą transportować materiały po hali produkcyjnej, jednocześnie omijając bariery, współpracując z kolegami z floty i próbując w dowolnym momencie dowiedzieć się, gdzie wymagany jest odbiór i odbiór. Pracownicy montażu i produkcji mogą skoncentrować się na rzeczywistym montażu i produkcji, biorąc pod uwagę odbiór przez AMR sygnałów pracy z systemów produkcyjnych w czasie rzeczywistym i systemu wdrażania produkcji. Na przykład obecne systemy PLC można łączyć z robotami za pomocą zestawu narzędzi integracyjnych Logic OS firmy Aethon. Komunikacja dowodzenia i kontroli między urządzeniami automatyki, narzędziami i czujnikami jest ułatwiona przez Logic OS, podczas gdy jest nadzorowana przez sterowniki PLC i niezależne roboty mobilne. Do wstępnej analizy surowych danych i raportowania zgodnie z wymaganiami należy wziąć pod uwagę kilka warstw i filtrów, aby zapobiec łączeniu producentów z ogromną ilością otrzymanych danych. Dane mogą być raczej rozumiane i cenione przez firmy w bardzo silny sposób. Roboty są znane jako wybitny fizyczny i poznawczy partner producentów w procesie tworzenia cyfrowej fabryki. Takie maszyny są niezbędne ze względu na ich zdolność do wykonywania zadań, gromadzenia i analizowania wydajności danych, jakości, wiarygodności, a także ich kosztów i innych udogodnień w procedurze z wglądem dostępnym do zrozumienia i wykonania.

Sztuczna inteligencja

Sztuczna inteligencja została wdrożona w branży produkcyjnej, czego liczne przykłady wskazują, że technologia ta jest obecnie wykorzystywana w całym sektorze. Firmy technologiczne z najwyższej półki, takie jak Tesla, Intel i Microsoft, są pionierami na arenie międzynarodowej, inwestując, wytwarzając lub stosując aplikacje. Sieci neuronowe są od lat wykorzystywane przez firmę Siemens do nadzorowania wydajności swoich hut. To wcześniejsze doświadczenie jest wykorzystywane do zrewolucjonizowania produkcji sektora AI z wykorzystaniem AI w nadzorowaniu zmiennych (np. temperatury) na turbinach gazowych koordynujących pracę maszyn w celu uzyskania wysokiej wydajności bez nieoczekiwanych produktów ubocznych. Nadrzędne systemy są również wykorzystywane do znajdowania możliwych problemów i ich rozwiązań, jeszcze zanim zostaną rozpoznane przez operatora. Ze względu na zdolność sztucznej inteligencji do wykrywania zużycia maszyn, zanim wymknie się ono spod kontroli, zastosowanie tej technologii przyniosło pozytywne rezultaty dla inteligentnych fabryk, takie jak obniżenie kosztów utrzymania. Wszystko wskazuje na to, że uważa się, że globalne obroty na rynku "inteligentnej produkcji" osiągną prognozowane 320 miliardów dolarów do roku 2020. Wiadomo, że uczenie maszynowe jest jednym z powszechnych zastosowań sztucznej inteligencji w produkcji, podczas gdy technika ta opiera się głównie na dokonywać prognoz ze strony systemów predykcyjnego utrzymania ruchu. Ta technika ma wiele zalet; jednym z nich jest znaczna redukcja kosztów i wyeliminowanie konieczności planowanych przestojów w wielu przypadkach. Po zapobieżeniu awarii za pomocą algorytmu uczenia maszynowego, nie mogą wystąpić żadne przerwy w działaniu systemu. Gdy wymagana jest naprawa, należy skoncentrować się na przekazywaniu informacji o tym, jakie elementy należy sprawdzić, naprawić i wymienić, określając jednocześnie, jakich narzędzi użyć i jakich metod zastosować. Sztuczna inteligencja może być również wykorzystywana przez producentów w fazie projektowania. Algorytm sztucznej inteligencji, znany również jako oprogramowanie do projektowania generatywnego, może być używany przez projektantów i inżynierów do eksploracji prawdopodobnych konfiguracji rozwiązania za pomocą dokładnie opisanego briefu projektowego jako danych wejściowych. W briefie można uwzględnić ograniczenia i definicje rodzajów materiałów, strategii produkcji, ograniczeń czasowych i budżetowych. Uczenie maszynowe może służyć do testowania zestawu rozwiązań podanych przez algorytm. Dodatkowe informacje są podane w fazie testowania na temat wydajności i nieefektywności pomysłów i decyzji projektowych. W ten sposób można aktualizować więcej opracowań, aż do osiągnięcia optymalnego rozwiązania. W sektorze produkcyjnym należy zwrócić uwagę na dostęp do danych. Niewątpliwie notoryczne koszty systemów AI mogłyby wpłynąć na przychody małych i średnich przedsiębiorstw (MŚP), czyli w konkurencji finansowej z międzynarodowymi korporacjami, gdyby zostały one bardziej wzmocnione przez AI. Oprócz odniesień do terminatorów, kolejnym ważnym problemem w technologii AI jest bezpieczeństwo. "Trzy prawa robotyki" Asimova są obecnie zaniedbywane, a kwestie odpowiedzialności nie są rozwiązywane, gdy awaria maszyny może spowodować obrażenia pracownika. Sektory biznesu muszą być przygotowane na prawdopodobne przekształcenia kadrowe, oprócz bezpośredniej regulacji. Przewiduje się, że sztuczna inteligencja będzie "kosztować miejsca pracy"; jednak faktem jest, że stworzy tyle miejsc pracy, ile zostało utraconych. Mianowicie nowe obiekty będą zajmować się obecnym personelem wymagającym oceny wpływu działalności na każdy biznes. Przykładowo algorytmy sztucznej inteligencji zostały wykorzystane w optymalizacji łańcucha dostaw operacji produkcyjnych w celu wspomagania ich w reagowaniu i przewidywaniu zmian rynkowych. Wzorce popytu sklasyfikowane według daty, lokalizacji, atrybutów społeczno-ekonomicznych, zachowań makroekonomicznych, statusu politycznego, wzorców pogodowych i innych elementów muszą zostać uwzględnione przez algorytm w celu oszacowania zapotrzebowania rynku. Te niezwykłe informacje mogą być wykorzystane przez producentów w optymalizacji kontroli zapasów, personelu, zużycia energii i surowców przy lepszych decyzjach finansowych dotyczących metodologii firmy. Biorąc pod uwagę złożoność wykorzystania AI w automatyce przemysłowej, producenci są zobowiązani do współpracy ze specjalistami w zakresie niestandardowych rozwiązań. Budowa wymaganej technologii kosztuje dużo, a większość producentów nie posiada we własnym zakresie niezbędnych umiejętności i wiedzy. System Industry 4.0 składa się z wielu komponentów/etapów, które muszą zostać ponownie skonfigurowane, aby spełnić wymagania producentów:

•  Zbieranie danych historycznych
•  Przechwytywanie danych na żywo za pomocą czujników
•  Agregacja danych
•  Łączność za pośrednictwem protokołów komunikacyjnych, urządzeń routingu i bram
•  Integracja ze sterownikami PLC
•  Pulpity nawigacyjne do monitorowania i analizy
•  Aplikacje AI: uczenie maszynowe i inne techniki

Producenci będą próbowali współpracować z ekspertami, którzy realizują swoje cele i potrafią stworzyć jasno opisaną mapę drogową z szybkim procesem rozwoju łączącym integrację AI z powiązanymi kluczowymi wskaźnikami wydajności (KPI).

Inteligentne materiały i druk 3D

Dzięki drukowi 3D, który jest procedurą wytwarzania przyrostowego, obiekty są wytwarzane warstwa po warstwie. Istnieją różne rodzaje druku 3D i niektóre z nich wykorzystują materiały termoplastyczne, podczas gdy inne wykorzystują materiały polimerowe. Druk 3D, który wykorzystuje nowo powstałe inteligentne materiały, stwarza nowe możliwości i umożliwia dostęp do różnych branż. Wykorzystanie inteligentnych materiałów, które zapewniają przekształcenie lub przeprojektowanie obok druku 3D, jest bardzo wydajne i niedrogie. Biorąc pod uwagę ich produktywność i wydajność, nowe inteligentne materiały i opracowane strategie produkcyjne zastępują tradycyjne rodzaje produkcji. Naukowcy z Self-Assembly Lab w Massachusetts Institute of Technology (MIT) twierdzą, że "samoskładane" rury wodne prawdopodobnie pewnego dnia zostaną wyprodukowane. Byłoby to możliwe bez użycia czujników, siłowników, oprogramowania lub mikroprocesorów, polegając jedynie na projektowaniu właściwości fizycznych materiałów. Ponadto dr Tibbits nadzorował grupę badaczy z MIT, którzy rozpoczęli drukowanie 4D, które pomogło w rozwoju inteligentnych materiałów. Druk 4D to rozwinięta forma 3D, w której ostatecznym wymiarem jest "czas". W obliczu bodźca (ciepło, światło ultrafioletowe lub woda) na wydruku wyświetlany jest czas, a wydruk jest regulowany, dzięki czemu jest dynamiczną strukturą o zgodnych cechach i funkcjonalności . Dzięki temu rozwojowi produkcja cyfrowa jest szerzej stosowana; jednak do tego celu wymagana jest wiedza i umiejętności multidyscyplinarne (np. matematyka, mechatronika, inżynieria mechaniczna i chemiczna). Druk 3D głęboko wpłynął na dziedzinę biomedyczną. Adaptację drukarek 3D do programów edukacyjnych i szkoleniowych zaobserwowano w wielu uczelniach i ośrodkach medycznych. Druk atramentowy 3D został wykorzystany do opracowywania i tworzenia narzędzi do szkolenia i planowania chirurgicznego w Centrum Innowacji z Przewodem Obrazowym i Interwencji Terapeutycznej Szpitala dla Chorych Dzieci w Toronto, Kanada. Pokazano i zbadano wiele nowatorskich inteligentnych materiałów inżynieryjnych: inteligentne zawory do sterowania przepływem na gorąco i na zimno lub kwaśnym i zasadowym , adaptacyjne rury , czujniki i miękkie roboty. Narzędzia open source, w których połączony jest sprzęt i oprogramowanie, zostały stworzone z myślą o projektowaniu produktów w oparciu o platformę. Ta procedura została ostatnio zastosowana przez naukowców z Uniwersytetu Harvarda w Cambridge w stanie Massachusetts, aby wydrukować kwiat, który automatycznie rozwija się w kontakcie z wodą. W ślad za tym rozwojem zastosowano hydrożel, w którym mamy mieszankę włókien celulozowych, maleńkich cząstek gliny i plastikowych monomerów. Oprócz wody istnieją inne wyzwalacze, które zmieniają kształt materiałów 4D: materiały o odpowiedniej konstrukcji mogą być również aktywowane przez ciepło, ruch, światło ultrafioletowe i każdy inny rodzaj energii. Intrygujące są jednocześnie materiały "samonaprawiające się" - na przykład tworzywa sztuczne - które mają zdolność samonaprawy. Połączenie maleńkich nanorurek wypełnionych nieutwardzonym polimerem w plastik to jeden ze sposobów na zapewnienie tego wpływu. W przypadku uszkodzenia plastiku, gdy rurki są szeroko otwarte, płynne polimery są uwalniane do naprawy materiału. W unikalnym procesie naukowcy z Uniwersytetu w Bristolu wykorzystali tradycyjne drukowanie 3D wraz z falami ultradźwiękowymi w celu ustawienia nanorurek we właściwej pozycji. W płynnym plastiku wzorzyste pola siłowe wewnątrz nanorurek zostały utworzone przez fale. Ta procedura ma wpływ nie tylko na nanorurki, ale także na włókna węglowe. Konwencjonalne materiały kompozytowe, wcześniej wytwarzane ręcznie, można wytwarzać w procesie drukowania 3D. To z kolei jest prawdziwym sukcesem. Ze względu na swoje unikalne właściwości fizyczne kompozyty termoutwardzalne można porównać z metalami lub tworzywami termoplastycznymi. Ze względu na stabilność materiałów termoutwardzalnych w warunkach wysokiej temperatury mogą być z powodzeniem stosowane do celów przemysłowych. Popularność żywic termoutwardzalnych wynika z przetwarzania pod niskimi ciśnieniami i lepkościami. Dopuszcza się zatem dogodną impregnację włókien wzmacniających, takich jak włókno szklane, włókno węglowe lub Kevlar. Podczas procesu utwardzania w tworzywach termoutwardzalnych można znaleźć polimery, które można usieciować, tworząc nieodwracalne wiązanie chemiczne. Po zastosowaniu ciepła problem przetapiania produktu jest usuwany poprzez sieciowanie. Ta funkcja zapewnia materiały termoutwardzalne do zastosowań zaawansowanych technologicznie, takich jak elektronika i urządzenia. Tworzywa termoutwardzalne znacznie poprawiają właściwości fizyczne materiałów, a jednocześnie poprawiają odporność chemiczną, termiczną i integralność strukturalną. Ze względu na odporność tworzyw termoutwardzalnych na odkształcenia stosuje się je głównie do wyrobów zgrzewanych. Materiały termoutwardzalne mogą być wykorzystywane w grubościach i cienkich ściankach. Mają doskonały estetyczny wygląd przy wysokim poziomie stabilności wymiarowej. Warto wspomnieć, że tworzywa termoutwardzalne nie mogą być poddawane recyklingowi, powtórnie formowane ani przerabiane, co sprawia, że ich wykończenie powierzchni jest coraz większym wyzwaniem.

Rewolucja integracyjna: budowanie zaufania za pomocą technologii

Sztuczna inteligencja, uczenie maszynowe, robotyka i blockchain to produkty Czwartej Rewolucji Przemysłowej. Chociaż trudno powiedzieć, co ma szerszy wpływ na świat pracy i obecny stan społeczeństwa, każdy z nich w istotny sposób przyczynia się do zmiany sposobu, w jaki postrzegamy i wchodzimy w interakcję z technologią. Blockchain w tym sensie można scharakteryzować jako mechanizm budowania zaufania, który ułatwił sposób, w jaki przeprowadzamy transakcje, przynosząc większą niezawodność, przejrzystość i zaufanie do systemu. Technologia, która kiedyś stanowiła podstawę bitcoinów i walut cyfrowych, wykroczyła poza swoje kompetencje, by tworzyć nowe pola. Co ważniejsze, bardziej niż rozwinięte gospodarki, blockchain ma przynieść korzyści krajom rozwijającym się, pomagając ograniczyć przypadki korupcji i wycieków dzięki efektywnemu systemowi kontroli i równowagi. W rozdziale skupimy się na wpływie blockchain na różne obszary, aby zbudować to, co nazywamy gospodarkami zaufania i jego ograniczeniami. Skupiamy się również na naturze technologii i tym, jak marginalizowane sekcje mogą zostać pominięte, jeśli rządy nie podejmą inicjatywy, aby edukować ich w zakresie nowych technologii i systemów.

Wstęp

Początek trzeciej rewolucji przemysłowej charakteryzował się wprowadzeniem komputerów, z drugiej strony, opierał się na szeregu technologii, które razem opierają się na rewolucji komputerowej. Profesor Klaus Schwab, założyciel i przewodniczący wykonawczy Światowego Forum Ekonomicznego, zauważa, że "Poprzednie rewolucje przemysłowe wyzwoliły ludzkość spod władzy zwierząt, umożliwiły masową produkcję i udostępniły możliwości cyfrowe miliardom ludzi. Ta czwarta rewolucja przemysłowa jest jednak zasadniczo inna. Charakteryzuje się szeregiem nowych technologii, które łączą świat fizyczny, cyfrowy i biologiczny, wpływając na wszystkie dyscypliny, gospodarki i branże, a nawet podważając idee dotyczące tego, co to znaczy być człowiekiem". Blockchain, zdecentralizowany system księgi głównej, to technologia, która napędza bitcoin, ale z biegiem lat pojawił się o wiele więcej przypadków użycia. Będąc systemem księgowym, tworzy niezmienny zapis transakcji, które są nie tylko szybkie, ale także bezpieczne. Zatem blockchain można scharakteryzować jako mechanizm budowania zaufania, który ułatwił sposób, w jaki przeprowadzamy transakcje, przynosząc większą niezawodność, przejrzystość i zaufanie do systemu. W rzeczywistości blockchain stanowi podstawę do otwierania nowych sektorów w zakresie produkcji, organizacji, usług i finansów. Ponieważ coraz więcej narodów, firm i osób korzysta z technologii, coraz ważniejsze staje się zniwelowanie deficytu zaufania. Blockchain to mechanizm działający w zdecentralizowanym systemie, który buduje zaufanie między kontrahentami. Ma to znaczenie nie tylko dla gospodarek rozwiniętych, ale ma również zastosowanie w krajach rozwijających się, które borykają się z przypadkami wycieków z systemów dystrybucji, nieefektywnych platform i korupcji. Chociaż blockchain mógł pobudzić wyobraźnię wielu, jego zastosowania były ograniczone do naukowców i inżynierów. Większość badań nad blockchainem dotyczyła kwestii ulepszania technologii lub skupiania się na najdrobniejszych szczegółach jej funkcjonowania. To wystarczy, ale brak informacji w dziedzinie nauk społecznych hamuje dalszy rozwój i wiedzę. Co więcej, brak dokumentów skupiających się na wpływie blockchain na społeczeństwo oraz tych, które mogą stanowić końcowego konsumenta technologii, prowadzi do większej niejasności. Ten rozdział ma na celu wypełnienie luki w przedsiębiorstwach blockchain. Na tym tle w rozdziale omówimy ewolucję technologii blockchain, nowe inicjatywy, które mogą przekształcać systemy za pomocą blockchain, oraz jej wpływ na wcześniej istniejące struktury w społeczeństwie. Rozdział podzielony jest na pięć części, z których druga opisuje szczegółowo metodologię i cele badania. Trzecia sekcja podkreśla, czym jest blockchain, pochodzenie blockchain i jego ewolucja poza walutami cyfrowymi. Podczas gdy czwarty wyjaśnia, w jaki sposób można zbudować gospodarkę zaufania za pomocą tej technologii, w tym jej wpływ na kraje rozwinięte i rozwijające się, ze szczególnym uwzględnieniem Indii. Dla jasności, sekcja ta dotyczy wykorzystania technologii w procesach produkcyjnych, organizacji, usługach, zarządzaniu finansami oraz kwestii jej przenikania do najniższej części społeczeństwa. Piąty wskazuje na przeszkody w efektywnym wykorzystaniu blockchain i na to, jak różne instytucje mogą przezwyciężyć te ograniczenia. Część szósta kończy dyskusję wskazującą na stronniczość selekcji, która pojawia się przy nadużywaniu technologii i jak marginalizowani są wykluczani z jej korzyści z powodu źle poinformowanych decyzji i nieprzygotowania rządu do zapoznania ich z nowymi środkami.

Cele i metodologia

Blockchain, który zaczynał jako system księgi głównej dla bitcoinów, przeszedł długą drogę pod względem jego zastosowania. Rozproszony system księgi rachunkowej, który tworzy bloki danych, do których praktycznie nie można się włamać, działał jako bezpieczny i wydajny system do pracy z fragmentami danych i przechowywania dużych zbiorów danych. W ten sposób blockchain podąża za serią innowacji, które pojawiły się w różnych dziedzinach. Chociaż w łańcuchu bloków dostępnych jest niewiele danych, dostępnych jest wystarczająco dużo popularnych artykułów, aby zaprezentować wykorzystanie technologii. Co ważne, wraz z pojawieniem się komputerów kwantowych pojawiło się wiele czasopism szczegółowo opisujących nowe technologie i przypadki użycia w blockchain. Będąc systemem opartym na kryptowalutach, jest całkiem zrozumiałe, że blockchain śledził większość swoich zmian w świecie finansów. Zastosowaliśmy podobną metodę, aby rozszyfrować wpływ blockchain na sektory, zaczynając od szczegółowego przeglądu rozwoju blockchain, a następnie jego przypadków użycia w finansach, biznesie i zarządzaniu. Ponieważ gospodarka współdzielenia stała się modnym hasłem dla rozwoju, cały nacisk w tym ćwiczeniu opiera się na tym, jak blockchain może poprawić te gospodarki współdzielenia, a dokładniej, gdy konsumenci prowadzą interesy przez Internet, istnieje potrzeba nowych mechanizmów zaufania. W związku z tym, szczegółowo omawiając popularne artykuły, czasopisma i artykuły naukowe, w tym rozdziale próbujemy powiązać nowe przypadki użycia blockchain z pojęciem gospodarki zaufania, jednocześnie szczegółowo omawiając wady systemu.

Ewolucja łańcucha bloków

Historia blockchain jest powiązana z historią walut cyfrowych. Chociaż bitcoiny zyskały nieco międzynarodową sławę z powodu złej reputacji, z drugiej strony blockchain przyciągnął uwagę wielu. System opracowany w celu wspomagania cyfrowej waluty nie tylko pomógł w rewolucji cyfrowej waluty, ale także doprowadził do opracowania nowego systemu finansowego. Aby zrozumieć, dlaczego blockchain był tak ważny, kluczowe byłoby odkrycie historii cyfrowej waluty i blockchainu



Cały system Internetu opiera się na mechanizmach zabezpieczających, zapewniających bezpieczeństwo Twoich informacji. Tak więc, jeśli chodzi o opracowanie cyfrowej waluty, którą można by handlować na całym świecie, byłoby zaskakujące, gdyby twórcy nie poszli w kierunku bezpieczeństwa. Ergo, twórcy musieli wymyślić sposób, aby zapewnić systemowi bezpieczeństwo i prywatność, jednocześnie umożliwiając transakcje na skalę globalną. Co ważne, musieli to zrobić w taki sposób, aby systemu nie dało się sfałszować, a żadna nieczysta gra nie doprowadziła do powstania bańki i wyciągnięcia milionów. Poza tym była to zbyt duża władza z jedną agencją lub osobą, więc system musiał być zdecentralizowany. Rewolucja bitcoin doprowadziła również do rewolucji blockchain, przy czym ta ostatnia wspierała infrastrukturę i architekturę tego ogólnoświatowego zjawiska. Cały system, często pozbawiony skrupułów, jak na ironię pracował nad zaufaniem, które było zapewnione przez przejrzystość. Blockchain zapewnił utworzenie zdecentralizowanej księgi, która była widoczna dla kontrahentów w celu weryfikacji, z dodatkowym zabezpieczeniem każdego bloku oddzielonego od siebie. Gdybyśmy mieli to łatwo wyjaśnić, pomyśl o arkuszu Excela, który jest chroniony lub zablokowany, aby nie każdy mógł go edytować, ale niewielu, którzy mają dostęp do arkusza, może wprowadzać zmiany. Teraz, gdybyśmy mieli napisać jakąś informację na pierwszej karcie tego arkusza, ta informacja musiałaby zostać zweryfikowana przez nielicznych, którzy są częścią tego arkusza. Po zweryfikowaniu, że informacji nie można usunąć lub usunąć, wszelkie uzupełnienia lub zmiany zostaną odzwierciedlone i będą musiały zostać zatwierdzone przez wszystkich. Chociaż arkusz kalkulacyjny byłby widoczny dla wszystkich jako księga, jego zawartość pozostanie między zaangażowanymi stronami, chyba że zgodzą się udostępnić ją innym. Podobnie kolejna zakładka tego arkusza byłaby kolejnym blokiem transakcji, z tymi samymi regułami, co poprzednia. Tak więc, wdrażając ten system, twórcy bitcoina nie tylko zapewnili przejrzystość, ale także stworzyli pierwsze wskazówki dotyczące zdecentralizowanego systemu, w którym transakcje mogły odbywać się płynnie i bez wielu problemów. Ponadto dzięki łatwemu przepływowi transakcji i bezpieczeństwu płatności międzynarodowe stały się znacznie bezpieczniejsze. Jakby nawet włamać się do systemu, mogliby zhakować tylko jeden blok danych, podczas gdy inne pozostają praktycznie poza zasięgiem hakerów. Rewolucja blockchain nie ograniczała się tylko do bitcoina; doprowadziło to również do rozwoju systemu walut cyfrowych poza sferą bitcoinów. W ciągu ostatnich kilku lat pojawiło się wiele naśladowców i nowych pomysłów obracających bitcoin. Nawet banki zaczęły polegać na systemie, aby stworzyć sieć płynnych transakcji. Jednym z punktów do rozważenia mogą być wysiłki prawie wszystkich głównych światowych banków w celu stworzenia własnych systemów walutowych, na wzór bitcoina. I ta rewolucja została wywołana przez łatwość transakcji i skrócenie czasu transakcji dla klientów i banków. Jeśli ktoś miałby przejrzeć system transakcji międzynarodowych i międzynarodowych rozliczeń płatniczych, odkryłby, że był on wypełniony zbyt wieloma kontrolami wstecznymi, aby zapobiec przypadkom oszukańczych transakcji. Załóżmy, że transakcja będzie miała miejsce z kraju ojczystego do kraju obcego. Teraz bank w kraju ojczystym przetworzy transakcję tutaj, która następnie trafi do izby rozliczeniowej w kraju ojczystym, a następnie do izby rozliczeniowej w kraju międzynarodowym i ostatecznie zostanie przekazana do banku w obcym kraju. W przypadku blockchain, gdyby był to ten sam bank, bank taki jak Citi może ominąć cały proces z transakcjami swojej waluty cyfrowej, które leżą w gestii przepisów każdego z krajów, a także w ciągu kilku minut od rozliczenia. Z drugiej strony, obecny system zajmuje kilka dni, aby wydać kwotę. Ale tam, gdzie brakuje tych zamkniętych systemów grupowych, jest interoperacyjność monet. Chociaż Citi może z łatwością przelać kwotę z Citi Home do Citi International, nie może tego zrobić w przypadku żadnego innego banku. Tak więc bitcoin nadal ma przewagę, jeśli banki nie spotykają się na tej samej platformie, aby świadczyć bezproblemowe usługi. Ta kwestia wysuwa również na pierwszy plan ważny punkt klasyfikacji systemów blockchain. Chociaż omawialiśmy blockchain jako pojedynczą jednostkę, w rękach prywatnych graczy stał się znacznie szerszą siecią z większą liczbą zawiłości.

Systemy zamknięte i otwarte

Od czasu jego ewolucji i przyjęcia przez prywatnych graczy, blockchain opracował kolejną iterację sieci zamkniętej. Podczas gdy w swojej wcześniejszej formie blockchain był systemem otwartym, czy raczej publicznym; w rękach prywatnych przestał nim być



W rzeczywistości, daleki od bycia otwartą siecią, jaka była pod reżimem bitcoin, każdy z systemów, który rozwijał blockchain, skierował go w stronę prywatnego źródła. Weźmy na przykład przypadek Ripple i Bitcoin; chociaż obie są wersjami waluty cyfrowej, Bitcoin jest systemem publicznym, w którym dane są dostępne dla wszystkich; z drugiej strony Ripple jest siecią zamkniętą. Pomimo powiązań z wieloma bankami na całym świecie, Ripple może zezwalać na przelewy pieniężne tylko między swoimi sieciami partnerskimi i ma niewielką interoperacyjność. Można to łatwo wytłumaczyć za pomocą innego przykładu systemów płatniczych. Apple Pay jest własnością Apple Computers, a Google Pay to sieć dla urządzeń z systemem Android. Chociaż Google jest również dostępny na platformie Apple i podobnie jak bitcoin, staje się systemem typu open source, Apple ma ograniczone możliwości, ponieważ jest dostępny tylko dla użytkowników Apple. Chociaż zapewnia to Apple znacznie większe bezpieczeństwo, przy ograniczonej podstawie jego dostępność pozostaje problemem. W związku z tym, będąc prywatnym graczem, ogranicza przypadek użycia blockchain, ponieważ informacje o bloku są dostępne tylko dla kilku graczy, tak jak w naszym arkuszu kalkulacyjnym Excel. Z drugiej strony, w przypadku gdy bitcoin jest siecią otwartą lub publiczną, prawie każdy może uzyskać dostęp do bazy informacji.

Gospodarki zaufania

Zaufanie stało się ważnym elementem współdzielenia gospodarek. Ponieważ technologia przenika wszystkie warstwy naszego społeczeństwa, zaufanie zyskuje na znaczeniu niż modele zysku czy plany biznesowe. W rzeczywistości sukces współdzielenia ekonomii opiera się na zaufaniu między graczami i pewnej mierze bezpieczeństwa zapewnianej użytkownikom. Dlatego ważne jest, aby zarówno przedsiębiorstwa, jak i rządy skupiły się na kwestii zaufania i bezpieczeństwa, a także bardziej promują cyfryzację. Blockchain jest mało prawdopodobnym mistrzem tego systemu zaufania. Zbudowany jako system księgi głównej do handlu bitcoinami, przeszedł długą drogę od tego czasu. Chociaż niesława sieci bitcoin nadszarpnęła część jej reputacji, technologia ta jest wykorzystywana na różne sposoby, aby zapewnić, że nowe systemy nie będą cierpieć z powodu wad starych. W rozdziale omówiono ewolucję blockchaina i jego przypadków użycia, skupiając się na aspekcie zaufania i bezpieczeństwa. Przedstawia również wady i ograniczenia technologii, sugerując drogę naprzód. Oprócz pieniędzy jednym z głównych celów instalacji blockchain jest deficyt zaufania, który tworzy system. Zaufanie stało się jedną z najważniejszych walut w Internecie, ponieważ żadna z korzyści płynących z usług via web nie jest namacalna. To jest ważne zaufanie między kontrahentami, aby system działał sprawnie. Dlatego w niedawnej przeszłości rozkwitły oceny i strony internetowe promujące korzystanie z ocen. Co ważne, przy ogólnym niezadowoleniu z rządu ta miara zaufania przenosi się z rządu na ludzi. Ludzie ufają ocenom bardziej niż rządowi, ponieważ wierzą, że system może zostać sfałszowany na korzyść kilku dużych graczy. Weźmy na przykład jadłodajnie i usługi ratingowe, podczas gdy ludzie nie ufają zbytnio świadectwom zdrowia dostarczanym przez rząd, Cały system zwrócił się teraz do firm pozwalających ludziom oceniać restauracje na podstawie usług, jakości jedzenia i czystości, dzięki czemu usługi takie jak Zomato stały się ważnym źródłem informacji. Podobnie w przypadku ekonomii współdzielenia, ludzie zaczęli bardziej ufać firmom takim jak AirBnB i Bla Bla Car niż tradycyjnym usługom. Blockchain może nie zastąpić gospodarki ratingowej, ale jest dobrym źródłem zaufania dla ludzi. Dzięki przejrzystości u podstaw jego funkcji pomaga w budowaniu zaufania między różnymi źródłami, tworząc w ten sposób coś, czego rynek potrzebuje i na czym bardzo polega. Chociaż zastosowanie blockchain dotyczyło krajów rozwiniętych, kraje rozwijające się, takie jak Indie, również mogą z niego skorzystać. Ponieważ usługi internetowe stają się coraz bardziej wszechobecne w całym regionie, a ludzie stają się bardziej przyjaźni technologicznie, blockchain może być dobrodziejstwem dla rozwijających się i słabo rozwiniętych gospodarek, które zapewniają system kontroli i równowagi. Blockchain może ograniczyć przypadki korupcji, pomóc w wyeliminowaniu korupcji. Jako ,że cały system jest nagrywany blok po bloku, system może zapewnić przejrzystość, co nie wróży dobrze dla korupcyjnych lub skrytych praktyk. Co ważniejsze, ponieważ każdy zapis jest ostateczny, będzie to również cios w problemy z legalnością spraw.

Produkcja

Nic nie może być kompletne bez pomiaru wpływu blockchain i produkcji, jeśli blockchain nie jest w stanie wywrzeć wpływu na produkcję, nie ma sensu skalować tej technologii do dalszych zastosowań. Dlatego najważniejsze jest, aby blockchain był używany do produkcji. Podobnie jak inne procesy, można go wykorzystać do poprawy wydajności łańcucha dostaw i zapewnienia zaufania po stronie klienta. W przypadku zarządzania łańcuchem dostaw większość firm korzystających z blockchain ma stać się bardziej wydajna, zapewniając niewielkie wycieki z systemu. Znaczenie zarządzania łańcuchem dostaw można ocenić na podstawie ankiety przeprowadzonej przez firmę Deloitte. Według ankiety 79% firm o wysokich wynikach łańcucha dostaw odnotowały wyższy niż przeciętny wzrost przychodów. Z drugiej strony tylko 8% firm z mniej sprawnym łańcuchem dostaw mogło to zrobić. Blockchain w tym przypadku może pomóc w śledzeniu danych w sieci, aby uzyskać wszystkie dane w jednym miejscu. Ponadto wykorzystanie połączonych łańcuchów bloków może pomóc w rozwinięciu systemu, w którym o opóźnionej dostawie surowca można informować producenta w czasie rzeczywistym. Podobnie proces ten można wykorzystać po stronie konsumenta, aby upewnić się, że produkt został przetestowany i że wszelkie nieprawidłowości zostały zgłoszone przez firmę, zapewniając większe zaufanie do systemu. W przypadku podróbek można zastosować blockchain wraz z wysoce ulepszonymi chipami mikrokontrolera, aby zapewnić klientom możliwość sprawdzenia prawdziwości produktów. Co ważniejsze, wszelkie testy przeprowadzone na dowolnym produkcie mogą zostać umieszczone przez firmę w łańcuchu bloków, aby klient miał pewność, że testowanie jego produktu zostało zakończone.

Organizacja

Blockchain jest wydajny na liniach produkcyjnych, ale to, co czyni go bardziej wydajnym, to procesy, które może zawierać. W ten sposób wydajna organizacja może zapewnić wydajny proces produkcyjny. W takim przypadku zbiorowe podejmowanie decyzji i inteligentne kontrakty mogą naprawdę pomóc firmom zapewnić przejrzystość i skalowalność.

Inteligentne kontrakty

Jednym z podstawowych przykładów tego zaufania mogą być inteligentne kontrakty lub noty kredytowe, które są wydawane przez banki jako miara gwarancji kredytowej. Kontrakty te można przekształcić w kontrakty inteligentne z uwzględnieniem wszystkich kontrahentów w ramach kontraktu zarządzanego przez blockchain. Weźmy pod uwagę noty kredytowe i wysyłkę. Obecnie istnieje wiele niejasności w przypadku branży żeglugowej i wypłat kredytów. Asymetria informacji może prowadzić do oszustw, co z kolei prowadzi do wyprowadzania pieniędzy z banków. Jeśli inteligentny kontrakt jest zapewniony między kontrahentami, w tym bankami, ubezpieczeniami i spedycją a handlowcami, tę niejednoznaczność można w dużym stopniu zmniejszyć. Na przykład, jeśli handlowiec z Kraju X miałby otrzymać zamówienie od podmiotu z Kraju Y, to handlowiec z Kraju X może przyjąć to zamówienie do Banku A w swoim kraju i otrzymać kredyt na produkcję i eksport takich produktów. Tymczasem, jeśli Y udzieli trochę kredytu, trafi on do banku B w jej własnym kraju, a oba banki będą mogły zweryfikować te informacje na nowo utworzonym bloku. Tymczasem jak banki są połączone. X nie może zaciągnąć kredytu od żadnego innego banku niż A, jeśli spełnia on jego wymagania, ponieważ banki udostępniają te informacje we własnym łańcuchu bloków w celu zmniejszenia przypadków oszustw. Co ważniejsze, ponieważ oba banki weryfikują się nawzajem, proces wypłaty kredytu staje się całkowicie uproszczony, a firma spedycyjna może stać się stroną umowy. Teraz w grę może wchodzić również ubezpieczyciel, bo cały system jest połączony, każda ze stron może sporządzić umowę ubezpieczenia na podstawie świadczonych usług, z przejrzystością, która już istnieje w systemie. Ostatecznie płatność może zostać zwolniona, gdy firma spedycyjna dostarczy zamówienie do kraju Y, zapewniając w ten sposób szybki i wydajny system. W ten sposób blockchain może zmniejszyć niepewność, ponieważ różne podmioty z różnymi łańcuchami bezproblemowo współdziałają ze sobą w ramach jednego zamówienia.

Głosowanie akcjonariuszy

Jednym z kluczowych problemów firm było sprawienie, by akcjonariusze stali się częścią tego procesu. Podczas gdy duże ryby mają szansę głosować w sprawie decyzji firmy, drobni akcjonariusze rzadko mają coś do powiedzenia. Proces jest żmudny i uciążliwy, co utrudnia akcjonariuszom stanie się posiadaczami jakiejkolwiek wartości. Ponieważ istnieje niejasność co do głosowania, obecność wszystkich w siedzibie firmy jest praktycznie niemożliwa. Blockchain może rozwiązać ten dylemat, podobnie jak ubezpieczenie, tworząc osobny blok dla każdego akcjonariusza, a następnie poprosić ich o głosowanie w tym bloku może być łatwym rozwiązaniem. Nie tylko zapewni to udziałowcom prawo głosu, ale także uczyni ich równymi uczestnikami procesu spółki. Tak więc blockchain staje się nie tylko przejrzysty, ale także egalitarny, ponieważ zapewnia każdemu akcjonariuszowi równe prawa w procesie głosowania, niezależnie od ich względnego udziału. Co ważne, proces ten staje się bardziej demokratyczny dla całej firmy, nie tylko akcjonariusze mogą być częścią tej decyzji, ale również posiedzenia zarządu mogą być zwoływane w podobny sposób, przy czym głosowanie odbywa się w ten sam sposób. Już w trakcie wdrażania w krajach takich jak Ghana, głosowanie na blockchainie stanowi miarę wagi dla akcjonariuszy, którzy czynią je częścią decyzji firmy. Chociaż rynki akcji w krajach rozwijających się rozwinęły się, wiele z nich wciąż nie jest świadomych swoich praw. Co ważniejsze, istnieje niejednoznaczność w konwersji akcji z formy zmaterializowanej na Demat. System podobny do łańcucha bloków może zapewnić, że rząd ma dane dotyczące transferów akcji oraz sprzedaży i zakupów od jednego podmiotu do drugiego do końca czasu, a także bez opóźnień. Co ważniejsze, może zapewnić, że firmy są właściwie reprezentowane, przy jak najmniejszych miarach rozbieżności.

Rejestracje firm

Nie tylko akcjonariat firmy, blockchain może również pomóc w rejestracji i śledzeniu firm-widm. Jednym z największych problemów departamentu podatkowego jest obsługa danych firm, ponieważ departament nie ma możliwości śledzenia, które z firm są tylko operatorami typu fly-by-night, wykorzystywanymi do offshoringu lub prania pieniędzy. Z blockchainem to wszystko można to ułatwić, ponieważ każdemu dyrektorowi przypisywany jest numer identyfikacyjny dyrektora, system może śledzić, jakiego rodzaju firmy prowadzi dana osoba i ile z tych przedsiębiorstw faktycznie składa deklaracje i prowadzi działalność. Ułatwiłoby to również rządowi zamykanie i otwieranie firm, a także ułatwiłoby start-upom składanie deklaracji i upadłości. Co ważniejsze, przyczyniłoby się to do ułatwienia prowadzenia działalności gospodarczej poprzez stworzenie przejrzystego systemu, wspomagającego prywatność danych i szybkie śledzenie procesów

Usługi

Podobnie jak w przypadku produkcji i organizacji, blockchain może zapewnić zdrowe dostarczanie usług, gdzie monetyzacja usług i ich dostarczanie stają się łatwiejsze.

Skandal Volkswagena

W 2014 roku rządy i regulatorzy odkryli nowy skandal związany z pojazdami Volkswagena. Firma celowo oszukiwała regulatorów urządzeniami, które nie ujawniałyby rzeczywistego poziomu zanieczyszczeń emitowanych przez samochody. Tak więc w fazie testów laboratoryjnych samochód wykazywałby inne poziomy zanieczyszczenia niż te, które były na drodze. Po wykryciu skandal doprowadził do masowych odwołań, a firma musiała przeprosić ludzi za zdradę zaufania. Co więcej, dochodzenia ujawniły, że chociaż wielu ostrzegało firmę przed tym nieszczęściem, niektórzy z najwyższego kierownictwa zignorowali takie notatki. Blockchain w tym przypadku uniknąłby przypadków takiego skandalu, a firma mogłaby uratować twarz. Ponieważ system jest niezmienny, każda instancja jako taka rejestrowałaby odpowiedzialność na szczycie łańcucha. Zamiast tego, po skandalu nastąpił proces ukrywania, w którym notatki dotyczące problemu zostały zgubione lub zagubione. Zatem blockchain w tym przypadku mógł być zbawicielem dla organizacji, a każda procedura testowa była zapisywana w blokach, tworząc dane, których firma nie mogła wymazać.

IoT i opieka zdrowotna

Według raportu IEEE, blockchain może być również wykorzystywany do ochrony aplikacji Internetu Rzeczy (IoT). IoT może być modnym hasłem od kilku lat, ale wraz ze wzrostem liczby prób hakerskich pojawiły się obawy dotyczące jego zastosowania. Przy obecnej infrastrukturze systemy IoT są tak podatne na ataki, że gdyby haker uzyskał dostęp do choćby jednego z urządzeń, mógłby wyłączyć całą sieć. Blockchain może wyeliminować tę niepewność w odniesieniu do urządzeń IoT. Ponieważ każdy blok jest chroniony osobnym kodem, nawet jeśli haker uzyska dostęp do jednego bloku, pozostałe urządzenia pozostają bezpieczne, ponieważ system uniemożliwia mu dostęp do jakichkolwiek dalszych informacji. W ten sposób łańcuch jest chroniony. Może to być dobrodziejstwem nie tylko dla systemów IoT, ale także dla blockchain. Ponieważ technologia może zapewnić bezpieczeństwo systemów w firmach i domach, jej powielanie może również zapewnić szybką cyfryzację sektora opieki zdrowotnej. Podobnie blockchain może zapewnić, że systemy opieki zdrowotnej nie będą podatne na próby włamań. W ten sposób można powstrzymać takie przypadki, jak włamywanie się do instytucji opieki zdrowotnej. W takim przypadku blockchain może zapewnić, że próby włamania nie wykroczą poza jeden system lub komputer, zapobiegając w ten sposób zamknięciu całego systemu. Co ważniejsze, ponieważ agencje takie jak brytyjska Narodowa Służba Zdrowia mówią o cyfryzacji na masową skalę, blockchain może ograniczyć zasięg hakowania. Może to być i zostało również wdrożone w usługach użyteczności publicznej, gdzie inteligentne sieci mogą być chronione przez aplikacje blockchain, zapewniając, że nie ma to wpływu na usługi użyteczności publicznej. Ponieważ technologia przenika każdy aspekt naszego życia, o wiele ważniejsze staje się zachowanie aspektu bezpieczeństwa. Blockchain w pewnym stopniu może zapewnić taką ulgę.

Inteligentne sieci/energia

W przypadku inteligentnych sieci użyteczność blockchain wykracza poza zapewnienie efektywnego świadczenia usług. Tutaj blockchain może również zapewnić model monetyzacji. Inteligentne sieci działają poprzez zapewnienie, że większość problemów jest zgłaszana w czasie rzeczywistym, a rachunki są generowane przez rząd. Ale w przypadku nowej rewolucji zielonej energii może zdziałać znacznie więcej. Na przykład w niektórych przypadkach ludzie mogą nie tylko kupować energię od rządu, ale także dostarczać energię rządowi. W przypadku, gdy generują więcej, niż mogą zużyć, a następnie rząd może wydać tę energię tym, którzy jej potrzebują. Zapewniając ten model, może sprawić, że alternatywy zielonej energii staną się atrakcyjne i sprawić, że większość ludzi stanie się zielona. Gdy technologia słoneczna będzie wystarczająco wydajna, blockchain zapewni umowę między konsumentem a producentem lub dostawcą energii. Tak więc, jeśli dostawca w tym przypadku pobierze od konsumenta jakąkolwiek ilość energii, to odpowiednio zrekompensuje, a dane znajdujące się w blockchain zapewnią, że będzie on przejrzysty i wolny od wad.

Finanse

Finanse były jedną z pierwszych i najważniejszych dziedzin adopcji blockchain. Pierwsza iteracja blockchain miała miejsce w walutach cyfrowych, a banki i instytucje finansowe rozszerzyły wykorzystanie konsorcjów tworzących blockchain, aby jak najefektywniej wykorzystywać tę technologię.

Bankowość i finanse

Bankowość była jedną z ostatnich dziedzin adopcji technologii. Świat finansów potrzebował 20 lat na przyjęcie Internetu, podczas gdy bankowość komórkowa pojawiła się znacznie później. Patrząc na bardzo niedawny przykład, który jest bliżej domu, moment Apple Pay w Indiach nadszedł dwa lata po uruchomieniu go przez Apple i prawie dziesięć lat odkąd rząd rozpoczął przelewy online za pomocą National Electronic Fund Transfer (NEFT), Real- Time Gross Settlement (RTGS) i system płatności natychmiastowych (IMPS). Ale po zweryfikowaniu przez finanse, technologia zyskuje znacznie szersze zastosowanie w różnych grupach i otwiera kilka możliwości zainicjowania efektu spływania. Blockchain był jedną z takich technologii, która stała się modna, ponieważ sektor bankowy był gotowy na jej przyjęcie. Chociaż ta technologia zajęła prawie dekadę, została wykorzystana jako źródło bitcoinów do przyjęcia. Bankowość i świat finansów nadały blockchainowi nowe znaczenie. Technologia, która stanowi podstawę systemu dystrybucji bitcoinów, wkrótce staje się jednym z najbardziej nadużywanych zjawisk w bankowości. Co ważne, ze względu na zaufanie, blockchain znalazł zastosowanie poza sferą bankowości. Widać to wyraźnie na podstawie liczby start-upów technologicznych związanych z blockchainem, które pojawiły się na przestrzeni lat, oraz tego, jak kwota ich finansowania wzrosła ponad dziesięciokrotnie w ciągu ostatnich pięciu lat. Dane Statista pokazują, że chociaż firmy Blockchain zarobiły w 2013 roku 93 miliony dolarów, w 2017 roku liczba ta wzrosła do 1,032 miliarda dolarów. Jedną z głównych zalet blockchain jest to, że jego przypadki użycia wykraczają poza zakres walut cyfrowych i rozciągają się od obszaru transakcji po ubezpieczenia. Raport Santander InnoVentures wskazuje, że Blockchain zaoszczędzi 20 miliardów dolarów na kosztach instytucji finansowych. Morgan Stanley podkreśla, że może obniżyć koszty nawet o 50% w porównaniu z tradycyjnymi kanałami. W ten sposób blockchain może być zbawicielem dla instytucji bankowo-finansowej, która chwieje się pod wpływem powolnych transakcji i asymetrycznych systemów informatycznych. Weźmy przykład branży bankowej i potrzebę centralnej izby rozliczeniowej. Chociaż bankowość od lat dobrze współpracuje z systemem centralnej izby rozliczeniowej i jest jedną z podstawowych funkcji banku centralnego, może być pozbawiona takich funkcji i być regulatorem w branży, jeśli dozwolona jest technologia blockchain lub rozproszona księga funkcjonować . W przypadku blockchaina i sieci połączonej banki nie byłyby zobowiązane do sporządzania oddzielnego rachunku transakcyjnego dla centralnej izby rozliczeniowej, ponieważ wszystkie dane i transakcje byłyby rejestrowane przez jedną i byłyby widoczne dla drugiej. Firma lub rząd opracowujący ten system może oczywiście pobierać opłaty za takie usługi, ale system zapewniłby sposób, aby banki działały bez żadnych opóźnień operacyjnych i opóźnień. Poza tym, z centralną funkcją centralnej izby rozliczeniowej, banki nie wymagałyby wewnętrznego zespołu do sprawdzania takich transakcji, drastycznie zmniejszając koszty pracownicze i koszty bankowe, zarówno dla banków, jak i dla ogółu społeczeństwa. Tak więc przelew, który zajmował godziny, a nawet minuty, może zostać ratyfikowany w ciągu kilku sekund. Ponadto, biorąc pod uwagę zabezpieczenia, nad którymi nadal należy pracować, można manipulować tylko fragmentami danych, podczas gdy cały system pozostaje chroniony przed hakerami.

Ubezpieczenie

Nie tylko wysyłka blockchain może okazać się dobrodziejstwem dla całej branży ubezpieczeniowej. System poprzez zapewnienie przejrzystości i szybkości pozwala na tworzenie niszowych rynków ubezpieczeniowych, które mogą pracować dla transakcji o ograniczonym czasie trwania. Weźmy na przykład ubezpieczenie od opóźnień w lotach. Łatwiejszym przypadkiem w tym przykładzie może być wykupienie ubezpieczenia przed wejściem na lot. Podczas gdy kupujesz to ubezpieczenie i kwotę, firma ubezpieczeniowa może decydować o kwocie płatności i składce, która zostanie ustalona na podstawie danych z przeszłości i przypadku opóźnień lotów, gdy kupujesz to ubezpieczenie, tworzy umowę specjalnie dla Ciebie , co pozwala na wypłatę kwoty X w przypadku opóźnienia lotu powyżej dwóch godzin. Gdy umowa jest egzekwowana, staje się niezmienna, ponieważ żadna ze stron nie może jej później zmienić. Jeśli lot się opóźni, firma ubezpieczeniowa może w każdym przypadku sprawdzić go w publicznej bazie danych o lotach i natychmiast przekazać kwotę klientowi. Takie niszowe, szybsze produkty płatnicze można stworzyć dla dowolnej oferty/usług, które można zweryfikować krzyżowo, od podróży koleją po ubezpieczenie wypadkowe podczas podróży przez Ubera z jednego miejsca do drugiego, ostatecznie otwierając nowe możliwości dla firm ubezpieczeniowych i klientów ponieważ technologie wchodzą ze sobą w interakcje, zwłaszcza że ekonomia współdzielenia staje się znacznie większa i powszechna. Jest to jedno miejsce, w którym kraje takie jak Indie mogą usunąć niejasności dotyczące płatności ubezpieczeniowych. Gdy system zostanie zmechanizowany, wypłaty ubezpieczeń mogą być szybsze, a dzięki interakcji sieci może zmniejszyć obciążenie procesowe. Ponieważ sprawy ubezpieczeniowe stanowią dużą część obciążenia sądu, rozbieżności w wypłatach. Tak więc sprawy związane z ubezpieczeniem samochodowym, na życie i zdrowotnym można załatwić szybciej i bez większych problemów.

Zarządzanie

Podobnie jak w przypadku finansów, instytucje zarządzające znalazły wiele przypadków użycia blockchain. Księgi rachunkowe to sposób działania rządu, a zatem blockchain może pomóc rządom w wykorzystaniu tej technologii do ulepszenia systemów rejestrowania.

Ewidencja gruntów

Inną powszechną praktyką, w której blockchain może okazać się konsekwencją, jest prowadzenie ewidencji gruntów. Blockchain może ułatwić proces rejestracji, ponieważ rejestracja ewidencji gruntów może odbywać się online. Ponieważ rejestry są niezmienne, każde przeniesienie rejestru lub gruntu będzie również odzwierciedlone w rejestrach za każdym razem, gdy taka dokumentacja jest sporządzona. Poza tym, będąc otwartym blockchainem, każdy miałby dostęp do zasobu. Tak więc w przypadku naszego przykładu arkusza kalkulacyjnego oznaczałoby to, że każda rejestracja byłaby odzwierciedlona w jednym bloku, a wszelkie zmiany stałyby się częścią tego samego bloku, tworząc w ten sposób łańcuch zdarzeń, który ludzie będą śledzić. Nie tylko skróciłoby to czas trwania postępowania sądowego, ale również ułatwiłoby proces sprzedaży i kupna gruntu, gdyż sprzedawać można tylko nieruchomość z wyraźnym tytułem własności. Co więcej, ograniczyłoby to przypadki oszustw, ponieważ banki miałyby dostęp do tych publicznych rejestrów w celu potwierdzania zakupów i wypłacania pożyczek, w oparciu o transfer czynów i system wpisów. System ten nie tylko ograniczy niejednoznaczność, w połączeniu z mapowaniem za pomocą dronów, ale może również finalizować tytuły własności gruntów i rozstrzygać sporne kwestie dotyczące gruntów za pomocą rejestracji. System zapewniłby, że sprzedaż i zakup gruntów będzie łatwiejszy i bezproblemowy. Proces rejestracji można przeprowadzić online, a także można bez większych opóźnień przekonwertować swoje nieruchomości z dzierżawy na własność. Proces ten pozwoliłby zaoszczędzić pieniądze na opłatach sądowych i niepotrzebnych sporach sądowych

Wybory

Głosowanie akcjonariuszy może nadal być obarczone pewnymi niepewnościami, głosowanie w wyborach jest znacznie łatwiejsze. Obecnie każdy wyborca nosi legitymację wyborczą lub jakąś formę identyfikacji, która pozwala mu głosować w wyborach. Ta identyfikacja, bez względu na to, jaka może być, byłaby unikalna dla tej osoby, dlatego tworzy osobny magazyn danych dla tych informacji. Blockchain jako sieć publiczna może wykorzystać takie sortowanie, aby stworzyć osobny kanał dla każdego z wyborców. Ponieważ głosowanie jest uważane za głosowanie tajne, bezpieczeństwo w ramach blockchain może zapewnić, że każda linia danych od wyborców jest zaszyfrowana, tak że nawet jeśli komisja wyborcza dowie się, że dana osoba głosowała, nie dowie się, jak i czym preferencji dokonano wyboru. Podczas gdy rządy są w trakcie ustanawiania mechanizmu umożliwiającego żołnierzom służącym w innych krajach lub terytoriach głosowanie w ten sposób, może to również utorować drogę rządom do umożliwienia obywatelom głosowania w zaciszu swoich domów bez wielu problemów. Co więcej, może zapewnić większy udział w imieniu wyborców. Podobnie jak udziałowcy, głosowanie w krajach rozwijających się jest również problematyczną kwestią, zwłaszcza dla migrantów zarobkowych. Niezwykle trudno jest prześledzić proces głosowania, blockchain w połączeniu z umowami rejestracyjnymi i dzierżawą gruntu może zapewnić, że dowód osobisty wyborcy jest tak samo mobilny jak osoba. Tak więc osoba z New Delhi mieszkająca w Bengaluru może głosować w wyborach w Bengaluru, a system może zapewnić, że po oddaniu głosu w Bengaluru nie będzie mogła wrócić i głosować w New Delhi.

Śledzenie płatności podatkowych

Podobnie jak w przypadku firm, można leczyć jednostkę. Chociaż każdej osobie przypisywany jest unikalny identyfikator, dział podatkowy może śledzić transakcje danej osoby, aby rozliczyć jej dochód pieniężny. Przykładem może być system bezgotówkowy, ponieważ coraz więcej usług zwraca się do gospodarki bezgotówkowej, może pojawić się punkt, w którym dział IT może śledzić transakcje związane z osobą w bezpiecznej szafce. Ponieważ taki proces byłby weryfikowany przez użytkownika, transakcje te można następnie łączyć z danymi o dochodach w celu wyszukania rozbieżności w zgłaszaniu dochodu podlegającego opodatkowaniu. Co ważniejsze, taki system może również służyć jako miara śledzenia, w jaki sposób pieniądze są wydawane za pośrednictwem transakcji i ile podatku wpłaciła osoba fizyczna. Chociaż podstawą całego systemu jest przejrzystość, istnieje również potrzeba zachowania prywatności, ponieważ ludzie nie będą chcieli pokazywać swoich wydatków jako sprawy publicznej. Głównym obszarem zainteresowania gospodarek rozwijających się jest podstawa opodatkowania. Chociaż pobór podatków wzrósł, podstawa opodatkowania pozostaje taka sama dla tych gospodarek ze względu na praktyki uchylania się od płacenia podatków. Co ważniejsze, w miarę jak proces staje się bardziej partycypacyjny, dział podatkowy może śledzić inwestycje i wydatki danej osoby, aby powiązać dane z płatnościami, aby upewnić się, że podatek jest w pełni zapłacony i nie dochodzi do uchylania się od płacenia podatków. Gdy pobór podatku dochodowego zwiększy się, rząd może sprawdzić, zmniejszając podatki od sprzedaży, co pomoże biednym i zmarginalizowanym sekcjom.

Dotacje i system dystrybucji

Bardziej niż podatki, blockchain może pomóc w przekazywaniu pieniędzy z dotacji, niezależnie od tego, czy są to towary, usługi czy transakcje gotówkowe. System księgi rachunkowej może pomóc w tworzeniu systematycznej ewidencji płatności w formie dotacji z systemem dwukierunkowym zapewniającym, że z usług korzysta właściwa osoba, a nie pośrednicy. Ponieważ system wymaga uwierzytelnienia przez obie strony, zapewniłby zaufanie i przejrzystość z obu stron. Wykorzystując identyfikatory uwierzytelniające i powiązanie systemu, system może wygenerować doskonały program informacyjny, w którym spływanie korzyści jest kompletne i absolutne. Na przykład, jeśli rząd miałby wypłacić zboże, może je otrzymać dystrybutor, który będzie musiał zweryfikować ilość, a ten sam cykl powtórzy się, gdy dotrze do beneficjenta, zapewniając, że każdy otrzyma należną mu część. Wobec niezliczonych programów uruchomionych przez rząd, jednym z głównych problemów było śledzenie korzyści w ramach takiego programu. Śledzenie danych w każdym momencie zapewniłoby, że korzyści, takie jak posiłek w południe, dotrą do ogółu społeczeństwa, z rundami kontroli na każdym kroku, nie byłoby szans na niewłaściwe postępowanie.

Demonetyzujące zyski

Rząd Indii przeprowadził, jak dotąd, największą w swojej historii wymianę banknotów w dniu 8 listopada 2016 r. Chociaż jest wielu krytyków i zwolenników tego posunięcia, nie ma wątpliwości, że rząd i jego instytucje były do tego źle przygotowane. duży krok na tak gigantyczną skalę. Być może jest to powód, dla którego nawet po wymianie waluty o wartości 15,36 lakh crore, niewiele było śledzenia pieniędzy, które otrzymał bank centralny. W rzeczywistości wymiana gotówki w bankach, która była dozwolona po 4000 rupii dziennie, była największym powodem zmartwień. Ludzie wykorzystywali pozbawione skrupułów środki, aby wybielić swoją walutę, a niektórzy w zmowie banków mogli łatwo ujść na sucho. Chociaż rząd promował cyfryzację jako krok naprzód, nie był w stanie wykorzystać jej w pełnym zakresie. Blockchain w tym przypadku pomógłby rządowi osiągnąć wydajność i zatkać wycieki w systemie. Ponieważ wszystkie dane byłyby dostępne na serwerach bankowych, jeśli jakakolwiek osoba poszłaby wymienić pieniądze z innego banku po wymianie 4000 rupii z jednego, zostałaby zarejestrowana w systemie lub nie byłaby dozwolona. Co ważniejsze, w takim scenariuszu każde użycie identyfikatorów rządowych przez banki musiałoby również zostać zweryfikowane krzyżowo przez konsumenta w celu podwójnego sprawdzenia każdego wpisu. Poza tym kodowanie banknotów mogło pomóc bankowi centralnemu ponownie je sprawdzić.

Wykorzystanie łańcucha bloków

Istnieją jednak pewne ograniczenia systemu, którymi należy się zająć przed jego pełnym wdrożeniem na skalę globalną lub krajową. Należy zająć się kwestiami bezpieczeństwa wraz z obawami dotyczącymi prywatności. Co ważne, niezwykle ważna staje się decyzja, kto jest właścicielem łańcucha bloków. Jednym z powodów sukcesu bitcoina i niepowodzeń innych systemów blockchain była kwestia kontroli. Podczas gdy bitcoin był systemem kontroli publicznej, inne były prywatne, ograniczając ich zdolność do interakcji z innymi. Należy zrozumieć, że aby blockchainy działały idealnie, musi istnieć system, który może przemierzać linie rentowności i motywy korporacyjne. Nawet jeśli chodzi o systemy prywatne, oddzielne systemy muszą z łatwością współdziałać ze sobą, aby rynek mógł zostać stworzony jako taki. Nie oznacza to, że kanały prywatne są skazane na zagładę. Chociaż mogą one doskonale sprawdzać się w przypadku małych zadań, skalowalności i zasięgu ogólnoświatowego, musi istnieć albo interakcja łańcuchów ze sobą, albo system, który jest całkowicie publiczny i zdecentralizowany. Chociaż bezpieczeństwo jest jedną z podstawowych cech blockchain, może zapewnić bezpieczeństwo tylko systemu, a nie każdego węzła. Dlatego ważne jest, aby system był bezpieczny. Jeśli chodzi o prywatność, również jest problem. Chociaż system zapewnia prywatność, istnieje problem polegający na tym, że sieci publiczne muszą zrównoważyć prywatność z przejrzystością. System może oferować większą przejrzystość, ale ceną byłoby poświęcenie prywatności, z której wiele osób może nie chcieć rezygnować. Jednym z podstawowych problemów związanych z systemem jest to, że ludzie muszą rozumieć technologię i być świadomi jej użycia. Blockchain odniesie sukces tylko wtedy, gdy ludzie zrozumieją przypadki użycia technologii i wykorzystają ją na swoją korzyść. Ludzie muszą być świadomi istnienia łańcucha bloków w postaci inteligentnych kontraktów, takich jak waluty cyfrowe. Technologia musi przeniknąć do niższych warstw społeczeństwa, aby mogły wykorzystać ją na swoją korzyść. Jeśli chodzi o dotacje, jeśli ludzie nie będą świadomi korzystania z technologii, nie będą mogli skorzystać z tej technologii ani pokładać wiary w system. Innym ważnym problemem związanym z blockchain jest skalowalność. System działał dobrze na ograniczonych użytkownikach, ale może to nie mieć miejsca w przypadku dużej liczby użytkowników i różnych łańcuchów bloków. Duży ruch, który pociąga za sobą wdrożenie na dużą skalę, jest czymś, na co żaden blockchain nie jest gotowy. Jedynym sposobem, w jaki rząd może zapewnić dostęp do technologii, prywatności i bezpieczeństwa, jest forsowanie jej używania. Rząd może to zrobić, promując korzystanie z technologii w niższych warstwach społeczeństwa i łącząc ze sobą system blockchain. Musi stworzyć system, dzięki któremu każda strona, która jest częścią systemu, będzie miała dostęp do takich informacji. Musi zapewnić, że można zbudować zaufanie, w przeciwnym razie system nie będzie skalowalny lub nie będzie w stanie funkcjonować tak, jak powinien. Powiązanie systemu jest ważne dla zapewnienia wydajnego działania systemu. Ale wszystkie te zastosowania blockchain nie będą kompletne, jeśli technologia będzie trzymana w izolacji. Blockchain sam w sobie jest świetnym systemem zapewniającym, że waluty cyfrowe działają tak, jak powinny, ale jedną z głównych wad bitcoinów związanych z ekspansją na różne rynki jest to, że ma ograniczone zastosowanie wśród osób z uzdolnieniami technologicznymi. Dla zwykłego człowieka bitcoin to przerażające słowo, ponieważ nie rozumie go ani nie wie, jak go używać. Blockchain może pozostać podobnym zjawiskiem, jeśli nie wolno mu wchodzić w interakcje z innymi technologiami i uczynić go zrozumiałym, jeśli nie przyjaznym dla użytkownika. Jakakolwiek dyskusja na temat blockchain nie będzie kompletna, jeśli technologia nie będzie mogła wchodzić w interakcje ze sztuczną inteligencją lub algorytmami uczenia maszynowego. Pierwszym przypadkiem w tym punkcie może być pobór podatków, ponieważ praktycznie niemożliwe jest utworzenie każdego bloku po każdej transakcji, ważne jest, aby sztuczna inteligencja stworzyła system montażu, w którym wszystkie transakcje są grupowane w jednym bloku i pod jednym nagłówkiem. Podobnie, aby zbadać niszowe rynki produktów, nowa kategoria produktów musi dobrze współpracować z systemami blockchain, aby działały idealnie. Jednym z problemów związanych z wdrażaniem technologii jest to, że powinna ona być dostępna dla wszystkich. Problem z platformami wyższych technologii polega na tym, że są one poza zasięgiem ogółu społeczeństwa, a zatem mają ograniczone zastosowanie. Istnieje obawa, że pomimo tego, że jest wydajnym systemem, nie będzie w stanie dotrzeć do mas, ponieważ nie zrozumieją one technologii i zostaną wykluczone z procesu. Dlatego rząd musi zająć się kwestią przenikania technologii, jeśli chce, aby blockchain zwiększał przejrzystość i zapewniał bezpieczeństwo. Co najważniejsze, w przypadku gospodarek rozwijających się, wiedza technologiczna musi zostać poszerzona, jeśli rząd ma realizować takie programy. Tak więc w przypadku krajów takich jak Indie rozsądne byłoby, gdyby gospodarka zaczęła uczyć swoją ludność, jak korzystać z technologii. W miarę jak technologia jest wykorzystywana w większym stopniu, więcej wiary będzie spoczywać w nowych systemach, wzmacniając system zaufania. Jednym z klasycznych przykładów tego błędu selekcji jest to, że kobiety przeoczają modę blockchain. Chociaż wskaźniki uczestnictwa kobiet inżynierów wzrosły w ostatnich latach i nastąpił gwałtowny wzrost liczby kobiet w kształceniu inżynierskim, większość z nich przełożyła się na starsze sektory. Nawet jeśli przyjrzymy się dziedzinie kryptowalut i rozwoju blockchain, liczba kobiet zaangażowanych w ich rozwój jest ograniczona. Jeśli chodzi o wzajemne oddziaływanie technologii, w większości rozwijających się gospodarek kobiety znajdują się na niższym progu korzystania z technologii niż mężczyźni. Tak więc ich świadomość programów i przypadków użycia technologii pozostaje ograniczona. Jeśli blockchain ma mieć znaczący wpływ, nie może zignorować brakującej połowy. W związku z tym istnieje zapotrzebowanie na kobiety zarówno w rozwoju blockchainów, jak i w dostępie do technologii.

Wniosek

To rodzi pytanie, czy blockchain może być technologią przyszłości. W szybko ewoluującym krajobrazie blockchain może zachować swoją intrygę i znaczenie. Ale z czymkolwiek inteligentnym, blockchain może mieć znaczenie. Ponieważ integrujemy więcej systemów z inteligentnymi technologiami, blockchain może być ogniwem, które zapewnia bezpieczeństwo i zapewnia zaufanie. Przyszłość blockchain leży w przyszłości smart. Im więcej sieci zostanie połączonych, jak więcej urządzeń IoT jest wykorzystywanych oraz gdy coraz więcej handlu i usług ma miejsce w skali globalnej, blockchain może być bezpiecznym sposobem zapewnienia transmisji. I to też zaczęło się dziać. Blockchain zajął ważną pozycję w debacie o prywatności i bezpieczeństwie, prezentując ironię dla obecnego pokolenia. Tak więc, chociaż milenialsi chętnie publikują swoje życie osobiste na Facebooku, Twitterze i Instagramie, zwracają się również do usług, które są bezpieczne i gwarantują prywatność. W przestrzeni skandali związanych z prywatnością i prób włamań, podczas których dane witryny są przesyłane na platformy społecznościowe, ludzie zaczęli zwracać się w stronę poczty i platform komunikacyjnych obsługujących blockchain. Nie będzie zaskoczeniem, jeśli rządy i firmy zrobią to samo. Doskonałym tego przykładem może być rewolucja Blackberry, która w połączeniu z przesyłaniem wiadomości zapewniła również ochronę prywatności i bezpieczeństwo. Start-upy i przedsiębiorstwa wspierane przez blockchain mogą rozpocząć podobną rewolucję. Ale w tym przypadku nie jedna firma, ale technologia byłaby liderem. Inteligentne systemy ruchu i inteligentne sieci mogą być jednym z nielicznych zastosowań, które nie zostały szczegółowo opisane w rozdziale dotyczącym tej technologii. Co ważniejsze, każdy system księgi lub zarządzanie bazami danych może mieć wygodę blockchaina. Ale skalowalność, jak wcześniej, może być problemem. Podobnie jak w przypadku Blackberry, gdzie skalowalna technologia oznaczała śmierć dla usługi, blockchain może spotkać podobny los. Tak więc, aby blockchain był naprawdę rewolucyjny, skalowalność wraz z cenami byłaby głównym czynnikiem jego wzrostu. Blockchain może nie być technologią, która olśniewa zwykłych ludzi, ale podobnie jak szyfrowanie może zapewnić, że wiele innych technologii może dokonać zmian, których wymaga społeczeństwo lub potrzeb. Chociaż Blockchain został okrzyknięty technologią przyszłości, zwłaszcza po tym, jak waluty cyfrowe zaczęły się modne, zainteresowanie tą technologią może osiągnąć szczyt. Chociaż finansowanie dla start-upów związanych z blockchain wzrosło - według Statista wzrosło to do 1,032 mld USD w 2017 r. w porównaniu z 93 mln USD w 2013 r.- liczba wyszukiwań związanych z technologią spadła ze szczytu w 2017 r. Ale technologia znalazła przypadki użycia Poza bitcoinami i walutami cyfrowymi, ponieważ technologia staje się coraz bardziej wszechobecna, przenikanie każdego aspektu naszego życia zaufanie i bezpieczeństwo nabrały pierwszorzędnego znaczenia, zwłaszcza gdy prowadzimy działalność na całym świecie. Blockchain to sposób na zbudowanie tego zaufania w Internecie przy jednoczesnym stworzeniu zintegrowanej architektury systemów, która jest bezpieczna. W ten sposób blockchain może budować gospodarkę zaufania opartą na zasadach bezpieczeństwa. Nowe systemy, takie jak inteligentne kontrakty, IoT i ubezpieczenia, mogą wykorzystywać blockchain do tworzenia nowych produktów na rynku i zapewniania niewielkiej ilości asymetrycznych informacji. Jednym z podstawowych problemów w ekonomii jest asymetria informacji, gdzie niektórzy ludzie mają większą wiedzę o produkcie niż inni, co często prowadzi do niejednoznaczności w ustalaniu cen i dostosowaniu rynku. Dzięki blockchain niektóre z tych niejednoznaczności można ograniczyć. W tym celu rozdział podzielił funkcje blockchain na dwie domeny, kategoryzując wykorzystanie technologii do funkcji rządowych i pozarządowych, z zaufaniem jako głównym elementem każdej z nich. W przypadku inteligentnych kontraktów technologia może zapewnić, że wszystkie usługi zaangażowane w system kontraktowy i powiązane strony współpracują ze sobą w celu zabezpieczenia kontraktu. Tak więc umowa gwarantowałaby, że każda strona zaangażowana w proces który honoruje umowę w sposób określony w czasie. Dotyczy to również umów ubezpieczeniowych oraz sektora, w którym proces roszczenia jest procesem długotrwałym i żmudnym. Następnie system może być również wykorzystywany do zapewniania korzyści w zakresie śledzenia podatków, gruntów i innych procesów, zapewniając jednocześnie zachowanie prywatności konsumenta jako najważniejszej. Blockchain mógł być technologią przyszłości, ale skalowalność i ograniczona aplikacja utrudniały jej postęp. Technologia działa w formie arkusza kalkulacyjnego, który może być dostępny dla wszystkich, ale nie może być edytowany dla wszystkich, a każda informacja jest chroniona kodem. Mogło to być korzystne dla systemu kontroli krzyżowej informacji oraz pod względem bezpieczeństwa, ale przy ograniczonej liczbie użytkowników może okazać się kosztowną sprawą. Chociaż nie ma wątpliwości, że blockchain ma stać się technologią przyszłości, nie wyjdzie daleko, dopóki nie stanie się skalowalny dla przedsiębiorstw i rządów. Oznacza to, że jeśli rządy i przedsiębiorstwa nie są w stanie połączyć ze sobą blockchain, przypadki użycia mogą pozostać ograniczone. Dlatego najważniejsze jest, aby rząd skierował się w stronę społeczeństwa, w którym można łączyć łańcuchy blokowe, aby uzyskać maksymalne korzyści. Poważną kwestią budzącą niepokój jest pominięcie sporej populacji korzyści płynących z blockchain. Dopóki obywatele nie będą świadomi przypadków użycia blockchain, istnieje duża szansa, że zostaną pominięci w procesie. Adopcja technologii musi sięgnąć dna piramidy i klas uciskanych, aby była naprawdę rewolucyjna; świadomość obywateli jest ważna w przypadku przyjmowania technologii, tak aby nawet jeśli nie rozumieją sedna sprawy, rozumieją, jak i dlaczego. Ta integracja i równość muszą przekładać się nie tylko między bogatymi a biednymi, ale także między mężczyznami i kobietami. Jeśli blockchain nie ma być tak wykluczający, jak inne technologie, edukacja w tym zakresie musi być inkluzywna. Ponieważ świat potrzebuje integracji, blockchain wydaje się być właśnie rozwiązaniem, którego potrzebuje, ale będzie wymagał kilku poprawek i problemów ze skalowalnością, aby stał się technologią na przyszłość.

Integracja systemu dla Przemysłu 4.0

Integracja systemowa to proces powszechnie realizowany w dziedzinie inżynierii i informatyki. Polega ona na łączeniu różnych systemów obliczeniowych i pakietów oprogramowania w celu stworzenia większego systemu i to właśnie napędza Przemysł 4.0 do optymalnego działania. Integracja systemu zwiększa wartość systemu poprzez tworzenie nowych funkcjonalności poprzez łączenie podsystemów i aplikacji. Świat przeżywa obecnie czwartą iterację rewolucji przemysłowej, Przemysł 4.0, która łączy komputery i automatyzację w celu zwiększenia wydajności w branży produkcyjnej, a także obejmuje systemy cyberfizyczne, Internet rzeczy i przetwarzanie w chmurze. Przemysł 4.0 uwzględnia wszystkie rodzaje technologii i maszyn, od smartfonów i tabletów po samochody, sprzęt AGD, telewizory z dostępem do Internetu i wiele innych. Ponadto rozwój oprogramowania nie jest pominięty w jego procesie dla efektywnego i wydajnego tworzenia oprogramowania. Rozwój oprogramowania i aplikacji coraz częściej rozprzestrzenia się we wszystkich obszarach ludzkich przedsięwzięć. Oznacza to zatem, że aby zaspokoić potrzeby ludności świata, należy stosować zasady Przemysłu 4.0. Jak wspomnieliśmy w naszej poprzedniej pracy, projektowanie oprogramowania wirtualnego systemu uczenia się (VLS) jako aplikacji internetowej to nie tylko pisanie serii stron, łączenie ich ze sobą i prezentowanie jako aplikacji, ale dobra i wydajna strategia integracji systemu za darmo. oraz oprogramowanie open-source wykorzystujące skrypty PHP implementujące warstwę VLS (oprogramowania pośredniczącego), warstwę serwera WWW przy użyciu Apache, warstwę relacyjnej bazy danych przy użyciu MySQL oraz warstwę systemu operacyjnego przy użyciu systemu Linux (zamiennie z systemem operacyjnym Windows). Projekt został bardzo dobrze osiągnięty i problemy z adresem MySQL.

Zastosowanie integracji systemu w projektowaniu replikacji bazy danych VLS

MySQL dostosowuje się do scenariusza master-slave. Ale w przypadku replikacji master-master aktualizacje można wykonać w obie strony, czego potrzebował nasz system; stąd dzięki koncepcji algorytmu master-slave MySQL, opracowano algorytm aktualizacji master-master, przetłumaczony na programowalny kod i zintegrowany z VLS. Użyliśmy zasad replikacji MySQL UNISON i Rsync do oceny wydajności naszego protokołu replikacji. Ocena porównuje przepustowość i czas oczekiwania na procesor. Wykazano, że nasz system radzi sobie z szybkimi zmianami w aktualizacjach klientów przy zachowaniu jakości usług w całej aplikacji.

Replikacja bazy danych

Replikacja bazy danych to tworzenie i utrzymywanie wielu kopii tej samej bazy danych. W większości wdrożeń replikacji bazy danych, na przykład MySQL, jeden serwer bazy danych utrzymuje kopię główną bazy danych, a dodatkowe serwery bazy danych utrzymują kopie podrzędne bazy danych. Zapisy do bazy danych są wysyłane do głównego serwera bazy danych, a następnie replikowane przez serwery podrzędne. Odczyty bazy danych są dzielone między wszystkie serwery bazy danych, co skutkuje dużą przewagą wydajności dzięki współdzieleniu obciążenia. Ponadto replikacja bazy danych może również poprawić dostępność, ponieważ serwery podrzędne bazy danych można skonfigurować tak, aby przejmowały rolę, jeśli baza danych master stanie się niedostępna. Replikacja to okresowe elektroniczne odświeżanie (kopiowanie) bazy danych z jednego serwera komputerowego na drugi, tak aby wszyscy użytkownicy w sieci stale dzielili ten sam poziom informacji/danych. Podobnie replikacja bazy danych szybko staje się kluczowym narzędziem zapewniającym wyższą dostępność, przeżywalność i wysoką wydajność aplikacji bazodanowych. Aby jednak zapewnić użyteczną replikację, należy rozwiązać nietrywialny problem zachowania spójności danych między wszystkimi replikami. W tej pracy opisujemy kompletny i możliwy do udowodnienia algorytm, który zapewnia globalną, trwałą, spójną kolejność w środowisku TCP lub Unicast. Algorytm tworzy ogólny silnik replikacji, który działa poza bazą danych i może być zintegrowany z istniejącymi bazami danych typu open source, na przykład MySQL i aplikacjami. Silnik replikacji obsługuje różne modele opensource, łagodząc lub wymuszając ograniczenia spójności w zależności od potrzeb aplikacji. Zaimplementowaliśmy silnik replikacji w oparciu o program aplikacji wirtualnego środowiska uczenia się i dostarczyliśmy eksperymentalne wyniki wydajności.

Korzeń replikacji

Replikacja była badana przez lata w wielu różnych obszarach. Jej korzenie sięgają dwóch dużych obszarów: baz danych i systemów rozproszonych. Te dwie gałęzie informatyki historycznie miały różne podejścia do replikacji. Pierwszą dużą różnicą był podstawowy byt, który musiał zostać zreplikowany: w świecie baz danych były to dane, podczas gdy w systemach rozproszonych był to proces. Kolejną ważną różnicą był cel wykonywania replikacji. Bazy danych były replikowane głównie ze względu na skalowalność i rozkład obciążenia, podczas gdy w systemach dystrybucyjnych replikacja była wykorzystywana do uzyskania odporności na awarie. Ponieważ te dwa obszary miały różne cele, określono różne wymagania dla algorytmów replikacji; w szczególności określono gwarancje spójności.

Replikacja w systemie rozproszonym

W systemie rozproszonym replikacja jest wykorzystywana głównie do poprawy odporności na awarie. Replikowana jednostka jest procesem; W systemach rozproszonych zastosowano dwie strategie replikacji: replikację aktywną i replikację pasywną. W replikacji aktywnej każde żądanie klienta jest przetwarzane przez wszystkie serwery, podczas gdy w replikacji pasywnej istnieje tylko jeden serwer (tzw. podstawowy), który przetwarza żądania klientów. Po przetworzeniu żądania serwer główny aktualizuje stan pozostałych serwerów (zapasowych) i odsyła odpowiedź do klienta. Jeśli podstawowy ulegnie awarii, jego miejsce zajmuje jeden z serwerów zapasowych.

Replikacja w bazach danych

W replikacji bazy danych algorytmy dzieli się na replikację gorącą i leniwą. W gorliwej replikacji replikujemy każdą operację przed zwróceniem wyniku do klienta. Z drugiej strony, w leniwej replikacji zmiany nie są propagowane natychmiast, ale opóźniane na później. Może to być interwał czasowy lub zatwierdzenie transakcji. Głównym zainteresowaniem w tej pracy są różne algorytmy replikacji baz danych używane do przeprowadzania aktualizacji. W niektórych rozwiązaniach za aktualizację danych odpowiedzialna jest tylko jedna replika, podczas gdy w niektórych bardziej zaawansowanych algorytmach dane mogą być aktualizowane przez różne repliki. Ponieważ zależy nam na zachowaniu spójności danych, konieczne jest zastosowanie jakiegoś mechanizmu kontroli współbieżności. Z powyższego widać, że aktualizacje można przeprowadzać zarówno w jednej witrynie, jak i w wielu witrynach

Replikacja w MySQL

Replikacja MySQL działa dzięki serwerowi głównemu, na którym wszystkie operacje wstawiania, aktualizowania i usuwania (w zasadzie wszystkie pisane) oraz co najmniej jeden serwer podrzędny odpytuje serwer główny w celu zreplikowania bazy danych (rysunek 11.3). Zapytania wybierające można wysyłać tylko do serwera podrzędnego. Można również mieć wiele serwerów głównych, które zostaną omówione w tej pracy. Replikacja bazy danych w klastrze społecznościowym dobrze się skaluje i stanowi realną alternatywę dla korzystania z drogiej konfiguracji sprzętowej wieloprocesorowej i/lub sieciowej pamięci masowej . Celem i motywacją tej pracy jest zaprojektowanie struktury inteligentnej replikacji, która dostosuje MySQL do zasad replikacji master-master zamiast zasad replikacji master-slave. Ponieważ MySQL jest bazą danych o otwartym kodzie źródłowym, językiem implementacji jest skrypt PHP. W systemie połączenie między aplikacją a warstwami bazy danych to zestaw programów planujących (VLE_Repli), jeden na aplikację, który dystrybuuje przychodzące żądania do klastra replik bazy danych. Każdy program planujący (VLE_Repli) po odebraniu zapytania z serwera aplikacji wysyła je przy użyciu schematu replikacji typu "odczyt i zapis-wszystko" do zestawu replik przydzielonego do aplikacji. System wirtualnego środowiska nauki oferuje wsparcie replikacji poprzez usługę VLE_Repli. Replikacje są propagowane z wywołaniami przez przekazanie kontekstu replikacji. Replikacje są koordynowane przez VLE_Repli, który koordynuje aplikację wirtualnego środowiska uczenia się. Harmonogram aplikacji (VLE_Repli) zapewnia spójną replikację. Znaczniki harmonogramu aktualizują się wraz z nazwami pól tabel, które muszą odczytać i wysłać do replik. Jeśli istnieje serwer proxy, program planujący komunikuje się z serwerem proxy bazy danych w każdej replice w celu zaimplementowania replikacji.

Algorytm replikacji (replikacja serwer-serwer)

Edemenang zasugerował, że operacje oczekiwania i sygnału są niepodzielne. Oznacza to, że czytelnik i pisarz nie mogą działać w tym samym czasie. Jest to realizowane podczas replikacji aktualizacji MySQL wirtualnej bazy danych nauczania, ponieważ obejmuje odczytywanie i zapisywanie (aktualizację) podczas wykonywania zapytań.

Problem: Algorytmy, które przeszukają tabelę (bazę danych) z atrybutami lub polami dla określonego wzorca. Jeżeli wzorzec zostanie znaleziony, to jest on zastępowany (replikowany) przez inny podany wzorzec (zaktualizowana baza danych).

Opracowanie algorytmu: Konieczność zastąpienia (replikacji) zawartości bazy danych inną pojawia się bardzo często w bazach danych obsługujących wirtualne środowisko uczenia się z powodu materiałów dydaktycznych, przydziału, powiadomienia, aktualizacji itp. Podstawowym zadaniem jest aktualizacja wszystkich zdarzeń na linii konkretnego wzorzec bazy danych przez inny wzór w zależności od zaktualizowanego.

Według Schneidera każdy algorytm musi przyjąć określony język programowania i technikę implementacji. Na tej podstawie mechanizm, który próbujemy zaimplementować, można traktować jako umieszczenie początku wzorca tabeli (atrybutu bazy danych) na pierwszym polu lub znaku atrybutu w bazie danych, drugim polu lub znaku atrybutu w bazie danych, i tak dalej. Przy każdym pozytywie należy określić stopień dopasowania między wzorem a następnym. W ten sposób nie będzie ryzyka przeoczenia meczu. Centralną częścią naszej strategii wyszukiwania pól lub wzorców atrybutów w bazie danych jest to, że chociaż w bazie danych są jeszcze inne pola lub atrybuty do zastąpienia, strategia wyszukiwania jest kontynuowana.

(a) "Zlokalizuj" pole bazy danych lub wzorzec atrybutu na następnej pozycji w tabeli bazy danych
(b) Sprawdź, czy istnieje pełne dopasowanie w bieżącym polu lub pozycji atrybutu.

Ze sposobu interakcji długości ścieżki wzorca i rozmiaru tekstu pola lub atrybutu (długości tekstu) możemy wywnioskować, że istnieją:
Długość tekstu pola lub atrybutu-długość wzorca (długość bazy danych) +1 pozycja, na której wzorzec może być umieszczony w tabeli za każdym razem, gdy porównujemy znak tekstu pola lub atrybutu i wzorzec tabeli bazy danych, dominuje jedna z dwóch sytuacji, para znaków albo dopasowanie lub niezgodność. Jeśli dojdzie do meczu, jesteśmy zobowiązani do przeprowadzenia dodatkowego testu, aby sprawdzić, czy została ustalona cała sytuacja meczowa. Gdy widzimy problem w tym świetle, znika potrzeba osobnej pętli dopasowującej. Nasza centralna strategia wyszukiwania przekształciła się teraz w:

While i ≤ (pole lub atrybut) textlength-patlength (długość bazy danych) + 1 do
(a) Jeżeli wzorzec [j] = + * t [i + j - i], to
(a.1) zwiększ j o jeden
(a.2) jeśli kompletne dopasowanie to
Wykonaj pominięcie (pole lub atrybut jest tym samym testem co następne pole lub atrybut) else
(a.1) zresetuj wskaźnik wzoru j (Komunikat o błędzie)
(a.2) przesuń wzór do następnej pozycji tekstu, zwiększając i

Doszliśmy teraz do punktu, w którym możemy z powodzeniem wyszukiwać i wykrywać dopasowania pól lub wzorców atrybutów w bazie danych. Zadaniem, które pozostaje, jest sformułowanie kroków replikacji (edycji kopii). W ogólnym przypadku nie możemy oczekiwać, że linia wejściowa i edytowana będą tej samej długości, ponieważ oryginalny wzór i jego zamiennik mogą mieć różną długość. Sugeruje to, że prawdopodobnie najłatwiej będzie stworzyć nową kopię wspólnych części podczas tworzenia edytowanych linii. Nasze kroki replikacji będą zatem obejmować sekwencję kroków kopiowania i zastępowania wzorców, przy czym zamiana ma miejsce, gdy algorytm wyszukiwania znajdzie pełne dopasowanie, a kopiowanie przeważa w przeciwnym razie. Tak więc, tworząc edytowaną linię, musimy albo kopiować z oryginalnej linii, albo zastępować wzór. Kopiowanie z oryginalnego wiersza będzie zatem musiało poprzedzać wyszukiwanie. Pytanie, na które należy odpowiedzieć, brzmi: jak zintegrować operację kopiowania z wyszukiwaniem? Oczywiste jest, że zawsze, gdy występuje niedopasowanie i odpowiadające mu przesunięcie wzoru względem tekstu, może mieć miejsce kopiowanie. W przypadku dopasowania postaci nie jest tak oczywiste, co należy zrobić. Dokładniej badając tę sytuację widzimy, że zwiększy się ona dopiero po pełnym dopasowaniu, a więc w sytuacji częściowego dopasowania będzie potrzebne kopiowanie. Kompletne dopasowanie sygnalizuje potrzebę kopiowania nie z oryginalnej linii, ale z wzorca zastępczego. Tak więc w rzeczywistości dwie sytuacje kopiowania, z którymi musimy sobie radzić, są dobrze zdefiniowane:

(a) W przypadku niezgodności kopii z oryginalnej linii.
(b) Gdy kompletna kopia meczu z nowego wzoru (jeden do aktualizacji).

Rozważmy najpierw niezgodną kopię. Gdy propozycja kopii może być:

newtext[i] := txt[i]

Nie uwzględnia to jednak, że nowa linia będzie rosła w różnym tempie, jeśli stary i nowy wzór mają różną długość. Zmienna i pozycji wzorca nadal będzie odpowiednia, ale dla edytowanego wiersza potrzebna będzie nowa zmienna k, która może rosnąć w różnym tempie. Kopia w sytuacji niezgodności będzie miała wtedy postać:

nonewtext[k] := txt[i]

Kiedy napotkamy pełne dopasowanie, musimy skopiować kompletny wzorzec, a nie pojedynczy znak, ponieważ odpowiada to sytuacji edycji. Nowy wzorzec nowywzorzec musi być wstawiony bezpośrednio za miejscem, w którym został wstawiony ostatni znak w edytowanym wierszu tekstu (tzn. po pozycji k), ponieważ trzeba skopiować pewną liczbę znaków. Najlepszym sposobem na zrobienie tego będzie pętla, czyli

for l := 1 to newpatlength do
begin
k := k+1;
newtext[k]:newpattern[l]
end

Po skopiowaniu wzorca będziemy musieli przejść poza pozycje tekstu zajmowane przez stary wzorzec. Możemy to zrobić, zwiększając i o długość starego wzoru

i := i+ patlength

W tym momencie będziemy musieli również zresetować wskaźnik do wzorca wyszukiwania. Stworzyliśmy teraz mechanizm edycji, który zastąpi wzór znajdujący się w dowolnym miejscu i dowolną liczbę razy w edytowanym wierszu. Skonfigurowaliśmy również mechanizm kopiowania z oryginalnej linii tekstu. Przyglądając się dokładnie temu mechanizmowi, widzimy, że może nie udać się skopiować kilku ostatnich znaków z tekstu ze względu na mniejszą wartość indeksu pozycjonowania w stosunku do liczby znaków w tekście oryginalnym. Musimy zatem wstawić kroki, aby skopiować te "pozostałe" znaki. To znaczy,

While ≤ textlength do
begin
k:=k+1;
Nextext[k]:txt[i];
i:=i +1
end

Gdy te wymagania edycyjne zostaną włączone do naszego schematu wyszukiwania wzorców, otrzymamy kompletny algorytm.

Opis algorytmu

1. Ustal bazę danych, wzorzec wyszukiwania i wzorzec zastępczy oraz związane z nimi długości w znakach.
2. Ustaw początkowe wartości pozycji w starym tekście, nowym tekście i wzorcu wyszukiwania.
3. Chociaż wszystkie pozycje wzorców w bazie danych nie zostały zbadane, nie:

(a) Jeśli bieżąca baza danych i znaki wzorca pasują do siebie, to:

•  (a.1) rozszerz indeksy do następnego wzoru/znaku tekstu
•  (a.2) jeśli wszystko się zgadza, to
•  (2.a) skopiuj nowy wzór do aktualnej pozycji w edytowanej linii
•  (2.b) przejdź poza stary wzór w tekście
•  (2.c) wskaźnik resetowania wzorca wyszukiwania

W przeciwnym razie

•  (a0.1) kopiuje aktualny znak tekstowy do następnej pozycji w edytowanym tekście,
•  (a0.2) zresetuj wskaźnik wzorca wyszukiwania,
•  (a0.3) przesuń wzór do następnej pozycji tekstu.
4. Skopiuj pozostałe znaki w oryginalnej linii tekstu.
5. Zwróć edytowany wiersz tekstu.

Zasady algorytmu MySQL

•  Kod główny jest wykonywany jako pierwszy.
•  Oceniany jest test akceptacyjny.
•  Jeśli test akceptacji ma wartość TRUE, to wykonywany jest następny segment kodu podstawowego następujący po bieżącym.

W przeciwnym razie przywróć do stanu sprzed bieżącego stanu programu.

•  Powtarzaj wykonywanie rezerwowych części zapasowych, aż test akceptacyjny da wynik PRAWDA, w przeciwnym razie system ulegnie awarii

Procedure Update ()
databaseTable (list of variable)
Begin (*Content list of tables are copied into temporal variables*)
Rp = 1(* initially perform primary *)
End Update; (* Update*)

Operacja aktualizacji tworzy nowe środowisko dla uruchomionego programu, dzięki czemu odzyskiwanie jest możliwe przy użyciu zmiennych tymczasowych do ponownego uruchomienia programu we wcześniejszym stanie. Tak więc mamy

Function Check (Tables)
Test: variable match
Begin
If test
Then Begin (* successful - replicate *)
(* discard copies in temporaries *)
Check = TRUE
Rp = 0
Else Begin (* failure*)
(* restore copies for temporaries *)
Check = fail or false
Rp =rp + 1 (* increase rollback counter *)
End
End check

Wyjaśnienie algorytmu replikacji MySQL: W tej sekcji szczegółowo opisujemy algorytm replikacji. Zaczynamy od nakreślenia faz, przez które algorytm przechodzi w swoich działaniach i stanów, w których może znajdować się każda replika, a następnie przechodzimy do omówienia po kolei każdej fazy .

Faza i stan: W każdej chwili system z algorytmem replikacji MySQL znajduje się w jednej z trzech globalnych faz: usługa, wybór.
System jest zwykle w fazie obsługi, akceptując i przetwarzając żądanie aktualizacji od klienta i tworząc tymczasową kopię aktualizacji.

Procedure Update ()
databaseTable (list of variable)
Begin (*Content list of tables are copied into temporal variables*)
Rp = 1(* initially perform primary *)
End Update; (* Update*)

Po zakończeniu system przechodzi do fazy wyborów. Podczas tej fazy repliki przeprowadzają wybory, aby zebrać większość i wybrać jeden ze swoich numerów jako nadrzędny (to również zależy od konfiguracji systemu). Gdy wybory się powiedzie, repliki, które w nich uczestniczyły, nazywane są replikami aktywnymi, a następnie algorytmem przechodzi do fazy regeneracji. Operacja aktualizacji tworzy nowe środowisko dla uruchomionego programu, dzięki czemu odzyskiwanie jest możliwe przy użyciu zmiennych tymczasowych do ponownego uruchomienia programu we wcześniejszym stanie. Tak więc mamy

Function Check (Tables)
Test: variable match
Begin
If test
Then Begin (* successful - replicate *)
(* discard copies in temporaries *)
Check = TRUE
Rp = 0

Podczas odzyskiwania, mistrz kieruje systemem na dwa przeplatające się zadania. Po pierwsze, aktywne repliki uzgadniają wszelkie różnice między swoimi kopiami danych. Po drugie, każda aktywna replika przesuwa zestaw zmiennych, które przechowuje w stabilnym magazynie, dzięki czemu nieaktywne repliki można zidentyfikować jako nieaktualne podczas kolejnych wyborów. Po pomyślnym wykonaniu tych zadań system ponownie wchodzi w fazę obsługi. Zakładając, że podczas procesu uzgadniania występują niezgodności, zgłaszane jest powiadomienie o awarii, system powraca do fazy serwisowej.

Else Begin (*failure*)
(*restore copies for temporaries *)
Check = fail or false
Rp =rp + 1 (* increase rollback counter *)
End
End check

Polityka replikacji wirtualnego systemu nauczania

Dzięki koncepcji replikacji w scenariuszu MySQL opracowano algorytm VLS dla master-master z konfiguracją systemu, która utrzymywała spójne elementy danych. Podczas procesu aktualizacji pobierane i modyfikowane są obiekty danych. Po wywołaniu "VLE_Repli" system szuka obiektu o tej samej strukturze w bazie danych drugiego węzła. Jeśli obiekt jest taki sam, VLE_Repli wykonuje aktualizację obiektu. Jeśli nie, zwracany jest komunikat o błędzie i proces się kończy. Szczegóły są jak poniżej:

•  Pobierz obiekt danych, który wymaga modyfikacji
•  Zaktualizuj obiekt. Na przykład: CSC 111; notatki z kursu, zadania, materiały referencyjne itp.
•  Po zakończeniu wybierz przycisk "aktualizuj"
•  Zwróć uwagę, że w naszym programie "aktualizacja" aktualizuje obiekt w bieżącym węźle i uruchamia replikację na innych węzłach
•  Sprawdza obiekt danych, aby potwierdzić dopasowanie
•  Jeśli atrybuty dwóch obiektów są takie same, następuje replikacja
•  Powtarza to we wszystkich węzłach
•  Jeśli dopasowanie obiektu nie zostało znalezione na innym serwerze, zostanie zwrócony komunikat o błędzie
• •  Replikacja zatrzymuje się

Algorytm replikacji VLS pokazano poniżej.

ProcedureUpdate ()// perform update object (database and schemasmodifications)
Function Check (Tables) // trigger "update" button to carry out check on
the object
(relation having the same database and schema in other connected node(s))
Test: variable match // verify and confirm that all corresponding table relations are the same
Begin// start the verification and confirmations in all table
If test successful// Test for success
Then Begin (* replicate *)// if successful, update (replicate)
Else Begin (* failure*)// if not successful
Get schema from master // ensure that the right schema is obtained from the table
Loop Function Check (object)// go back and check the source of update (* report system fail *)// report error notice and end the operation
End
End

Istnieją dwie główne zalety VLS nad MySQL. Aktualizacja na innych węzłach odbywa się w czasie rzeczywistym. Podczas gdy w polityce MySQL, przed wykonaniem aktualizacji, selekcja usługi, wybór i odzyskiwanie muszą mieć miejsce przed wykonaniem replikacji. Kolejną zaletą replikacji VLS jest to, że replikacja odbywa się jednocześnie we wszystkich podłączonych masterach, podczas gdy w MySQL tylko master może aktualizować wszystkie podłączone do niego slave′y, co może prowadzić do przeciążenia mastera.

Testowanie eksperymentu II (przejście i analiza) testowanie replikacji

Ten eksperyment zademonstrował replikację MySQL (UNISON i RSYNC) oraz projektowanie replikacji VLS. Główną ideą było pokonanie master-slave przyjętego przez UNISON i RSYNC. VLE_Repli przyjął replikację master-master, ale nadal utrzymuje platformę MySQL. Przepustowość replikacji i czas oczekiwania procesora zostały wykorzystane do określenia wyższości wydajności przy użyciu Pentium IV z niską specyfikacją konfiguracji systemu. Dla każdego eksperymentu monitorowano aktywność procesora na przepustowości i czasie oczekiwania podczas wykonywania aktualizacji klienta. W tym eksperymencie całkowita aktualizacja, aktualizacja na sekundę, liczba zaktualizowanych tabel i czas procesora zostały wywołane na ekranie i zapisane w tabeli bazy danych w środowisku Microsoft Window. Również w poprzednim eksperymencie dane zostały zebrane z narzędzia VMSTST Linux do wykreślania wykresów, zarówno przy użyciu programu Microsoft Excel, jak i Lotus 1-2-3 do wykreślania wykresów. Poniższe tablice przedstawiają przechwycony ekran i tabele podsumowania wydajności z różnych lub różnych modyfikacji bazy danych MySQL, a następnie demonstrują aktualizację przy użyciu (MySQL UNISON i Rsync) i zaprojektowanej replikacji VLS. Zaprojektowany VLS nie tylko wykazał wyższą wydajność w aktualizacji, ale także dostosował replikację master-master. Ten eksperyment zademonstrował replikację MySQL (UNISON i RSYNC) oraz projektowanie replikacji VLS. Główną ideą było pokonanie master-slave przyjętego przez UNISON i Rsync. VLE_Repli przyjął replikację master-master, ale nadal utrzymuje platformę MySQL. Zauważ, że przy wyborze RSYNC i UNISON, które przyjmują replikację master-slave, MySQL wymaga rekonfiguracji jak poniżej, ponieważ wykonuje zarówno aktualizację, jak i replikację. Tylko VLS aktualizuje, a MySQL wykonuje replikację.

Konfiguracja urządzeniu głównym w wierszu poleceń

Create user dbname '@'%'identified by 'password';
Grant replication slave on *.* to 'dbname'
Flush tables with read block;
Show master status
Unlock tables;

Konfiguracja na urządzeniu podrzędnym w wierszu polecenia

Stop slave;
Change master to
→ Master_host= ' '
→ Master_user = ' '
→ Master_password = ' '
→ Master_log_file = ' '
→ Master_log_pos = ' '
MySQL configuration file:
→ Retrieve all MySQL.config file in all the connecting systems
→ Retrieve My.ini
→ Call program line containing Log-bin= Mysql-bin and enable the program line
→ Also enable server-id = 1
→ Save the configuration files again and exit

Gdy aktualizacja zostanie wykonana na urządzeniu głównym, automatycznie zostanie ona powielona na urządzeniu podrzędnym. W związku z tym aktualizacje są wykonywane na urządzeniu master, a nie slave w scenariuszu master-slave. Ale w przypadku replikacji master-master aktualizacje można wykonać w obie strony. Dla każdego eksperymentu aktywność procesora była monitorowana podczas wykonywania aktualizacji klienta. W tych eksperymentach całkowita aktualizacja, aktualizacja na sekundę, liczba zaktualizowanych tabel i czas procesora były wywoływane na ekranie i zapisywane w tabeli bazy danych. Poniższe tablice przedstawiają zrzuty ekranu i tabele podsumowania wydajności z różnych lub różnych modyfikacji bazy danych MySQL, a następnie demonstrują aktualizację przy użyciu (MySQL UNISON i RSYNC) i zaprojektowanej replikacji VLS. Zaprojektowany VLS nie tylko wykazał wyższą wydajność podczas aktualizacji, ale także dostosował replikację master-master.

Wymagania sprzętowe i programowe do replikacji

Nasz eksperymentalny algorytm replikacji składa się z aplikacji sieci Web (aplikacji do wirtualnego uczenia się), modułu równoważenia obciążenia i warstw serwera bazy danych. Wszystkie te komponenty wykorzystują ten sam sprzęt. Korzystamy z serwera WWW Apache 1.3.31 oraz serwera bazy danych MySQL 4.0.16 z tabelą NewVLEARN. Kilka eksperymentów zostało przetestowanych przy użyciu systemu operacyjnego Red Hat Fedora Core 3 Linux z jądrem 2.6 i systemem operacyjnym WINDOW używanym zamiennie. Wszystkie węzły zostały połączone przez 100 Mbps Ethernet LAN.

Dane wyjściowe replikacji bazy danych: Wynikiem są cztery wykresy. W każdym eksperymencie aktywność procesora w zakresie przepustowości i czasu odpowiedzi była monitorowana podczas wykonywania aktualizacji klienta przy użyciu katalogu narzędzia VMSTST Linux dla dwóch przeprowadzonych eksperymentów.

Wniosek

Obecny trend rewolucji przemysłowej w tworzeniu oprogramowania polega na tym, że twórcy oprogramowania przestali tworzyć oprogramowanie od zera; raczej aplikacje są obecnie składane z dobrze zaopatrzonych katalogów komponentów oprogramowania wielokrotnego użytku w celu tworzenia złożonych lub dużych aplikacji poprzez integrację systemową. Integracja systemowa, jak zdefiniowano wcześniej, to proces łączenia podsystemów składowych w jeden system (agregacja podsystemów współpracujących tak, aby system mógł pełnić nadrzędną funkcjonalność) i zapewnienia, że podsystemy funkcjonują razem jako system. Główną zaletą Przemysłu 4.0 w integracji systemów wytwarzania oprogramowania jest potrzeba poprawy wydajności i jakości ich działania. Celem jest stworzenie możliwości ponownego wykorzystania komponentów systemu, tak aby można je było łatwo rozszerzyć poprzez integrację z innymi podsystemami w celu opracowania bardziej złożonego systemu w celu przyspieszenia procesu tworzenia oprogramowania. Obecnie tworzenie oprogramowania komputerowego z wykorzystaniem integracji systemów oprogramowania odgrywa ważną rolę w tworzeniu wszelkiego rodzaju aplikacji dla przedsiębiorstw na całym świecie. Integracja systemu we wszystkich wynalazkach naukowych wpływa na prawie wszystkie aspekty naszego życia i naszych codziennych czynności. Dzieje się tak, ponieważ w starych modelach inżynierii oprogramowania istniało wiele krytycznych problemów: niska wydajność i jakość oraz wysokie koszty i ryzyko. Podstawową przyczyną jest próba opracowania oprogramowania jako niezależnego podmiotu, co zawsze prowadziło do opisanych powyżej problemów. W celu skutecznego rozwiązania tych krytycznych problemów przedstawiono nowy model inżynierii oprogramowania, ponowne wykorzystanie komponentów, poprzez zasadę integracji systemu. Zasadniczą różnicą między starym procesem rozwoju inżynierii oprogramowania a procesem integracji systemu jest ponowne wykorzystanie komponentów oprogramowania (open source). Doprowadziło to do rewolucyjnych zmian w prawie wszystkich aspektach inżynierii oprogramowania, aby skutecznie radzić sobie ze złożonością oprogramowania, niewidzialnością, zmiennością i zgodnością oraz rozwiązywać krytyczne problemy (niska wydajność i jakość, wysokie koszty i ryzyko) istniejące w starej inżynierii oprogramowania praktyka tworzenia oprogramowania od podstaw. Problemy rozwiązane, jak wykazano w rozwoju VLS, w którym różne elementy algorytmu

Produkcja przyrostowa w kierunku Przemysłu 4.0

Produkcja przyrostowa (AM) to proces tworzenia obiektu poprzez budowanie go po jednej warstwie na raz. Jest to coś przeciwnego do montażu subtraktywnego, w którym element jest wytwarzany przez usuwanie materiału w mocnym kwadracie, aż do ukończenia ostatniego elementu. Jest to naukowa nazwa praktyk druku 3D stosowanych na rynku, gdzie odróżnia proces od metod usuwania materiału stosowanych w dziedzinie produkcji. AM eliminuje również wiele ograniczeń narzucanych przez konwencjonalną produkcję. AM to "procedura łączenia materiałów w celu utworzenia obiektów z informacji modelu 3D, w większości warstwa po warstwie". Inaczej nazywa się to szybkim prototypowaniem. Wykorzystując AM, projekt w formie skomputeryzowanego modelu bryłowego 3D można łatwo przekształcić w gotowy element bez użycia dodatkowych aparatów i narzędzi tnących. Zdolność adaptacyjna AM umożliwia producentom ulepszenie struktury dla generacji szczupłej, która dzięki swojemu temperamentowi eliminuje marnotrawstwo. Kruth i in. stwierdzają, że szybkie prototypowanie w większości odnosi się do procedur, które wytwarzają części formowane poprzez stopniowe tworzenie lub rozszerzanie mocnego materiału, w tym zakresie różniącym się na bardzo podstawowym poziomie od systemów kształtowania i wytwarzania z wypychaniem materiału . Innowacje AM można wykorzystać do produkcji części metalowych. Ten krok naprzód w zakresie innowacji montażowych umożliwia wytwarzanie nowych kształtów i geometrycznych akcentów. Chociaż wykonalność produkcji przykładowych części w tych procesach była przedmiotem kilku badań, krok naprzód w montażu nie został jeszcze poprzedzony osiągnięciami w procesie planowania. W dobie Przemysłu 4.0 większość sektorów prawdopodobnie będzie korzystała z AM, przy dalszej poprawie jakości produkowanych części.

AM w różnych branżach

Początkowo postrzegany jako proces modelowania koncepcji i szybkiego prototypowania, AM rozszerzył się w ciągu ostatnich pięciu lat, aby objąć aplikacje w wielu obszarach naszego codziennego życia. Od prototypowania i oprzyrządowania po bezpośrednią produkcję części w sektorach przemysłowych, takich jak architektoniczny, medyczny, dentystyczny, lotniczy, motoryzacyjny, meblarski i jubilerski, stale opracowywane są nowe i innowacyjne zastosowania. Można powiedzieć, że AM należy do klasy technologii przełomowych, rewolucjonizując sposób myślenia o projektowaniu i produkcji. Od towarów konsumpcyjnych produkowanych w małych partiach po produkcję na dużą skalę, zastosowania AM są ogromne. Rysunek przedstawia zastosowanie AM w różnych gałęziach przemysłu.



Przemysł motoryzacyjny i dostawcy

Producenci i dostawcy samochodów byli jednymi z pierwszych użytkowników AM, gdy pojawił się pod koniec lat 80., ponieważ dużo projektują i przeprojektowują, a także od dawna profesjonalnie obsługują systemy CAD 3D. W ten sposób przekazywanie nienagannych indeksów informacyjnych nie stanowi problemu dla producentów oryginalnego sprzętu samochodowego (OEM) i dostawców. W dzisiejszych czasach liczba prototypów wzrasta, ponieważ dywersyfikacja sprawia, że rozwój wariantów produktów jest znacznie ważniejszy. Części modelu są wykorzystywane do oceny wewnętrznej, aby pomóc w wymianie z dostawcami. Rosnące znaczenie dostosowywania rodzi problem bezpośredniego AM części, aby powstrzymać się od oprzyrządowania ze związanymi z tym wydatkami w czasie i gotówce.

Części samochodowe: wewnętrzne i zewnętrzne

Projekt wnętrza szczególnie dodaje charakteru pojazdowi, często podpowiadając i wpływając na ostatnią decyzję zakupową. W przeciwieństwie do planu zewnętrznego, na ogół składa się z wielu części, począwszy od dziesiątek dostawców. Większość części jest wreszcie tworzona przez formowanie wtryskowe z tworzywa sztucznego. Dlatego części AM są wykorzystywane głównie do testowania i wprowadzania pomysłów na pojazdy. Niemniej jednak, ponieważ serie stają się coraz mniejsze, a liczba odmian rośnie, coraz więcej części AM jest bezpośrednio wykorzystywanych w ostatecznym samochodzie. Chociaż wszystkie procedury AM można wykorzystać do produkcji wewnętrznych części samochodowych, spiekanie laserowe i polimeryzacja są najlepszym wyborem. Spiekanie laserowe zwykle podpowiada części nadające się do legalnego użytku, podczas gdy części stereolitograficzne lub strumienie polimerowe są zwykle wykorzystywane jako części asowe do opcjonalnej procedury. Specjalne edycje samochodów seryjnych często mają nie tylko mocniejsze silniki, ale także optycznie demonstrują ich osiągi za pomocą elementów zewnętrznych, takich jak spojlery przednie i tylne lub listwy progowe.

Przemysł lotniczy

Ze względu na małe serie i częste specjalne wymagania projektowe swoich klientów, branża awioniki stara się trzymać z dala od narzędzi i idealnie wykorzystuje beznarzędziowe procesy AM. Osiągnięciem do natychmiastowego stworzenia elementów wnętrz lotniczych było przedstawienie ognioodpornego materiału do spiekania laserowego, który obecnie jest dostępny również dla form polimeryzacji i wydalania. Wiele elementów wewnętrznych samolotów nie różni się szczególnie od części wykonanych dla pojazdów. W związku z tym części testowe do zastosowań samochodowych można traktować jako testy do zastosowań lotniczych. Tworzenie form metalowych i ceramicznych umożliwia natychmiastową produkcję specjalistycznych części zarówno ogniwa, jak i silnika.

Przemysł zabawkowy

Mimo że zabawki są również "materiałami konsumpcyjnymi", działalność związana z zabawkami jest zwykle rozpatrywana osobno. Zajmuje się nie tylko różnymi plastikowymi częściami zabawek dla dzieci, ale także coraz bardziej spersonalizowanymi modelami samochodów, samolotów i pociągów, nawet dla dorosłych. Modele te wymagają drobnych subtelności i delikatnego skalowania, dbając o małe subtelności wyjątkowo w przeciwieństwie do większych. W zależności od skali, różne formy AM są bardziej rozsądne niż inne.

Dobra konsumpcyjne

Dziś dobra konsumpcyjne nie tylko muszą spełniać swoje oczekiwane funkcje, ale muszą także podążać za określonym trendem. Powinny być skoncentrowane na potrzebach wyjątkowego spotkania kupujących, w tym preferowanym kierunku struktury. Elementy stylu życia charakteryzują kolejny dobrze zapowiadający się sektor biznesu. Ponieważ sposób życia szybko się zmienia, zaleca się badanie wzorców i testowanie rynku przed pokoleniem. W związku z tym wymagane są modele. Miski, pojemniki, światła i inne coraz bardziej rozjaśniające się przedmioty są ulubionymi przedmiotami twórców, którzy wykorzystują nową możliwość konfiguracji zapewnianą przez AM, aby pokonać ograniczenia geometryczne. Biorąc pod uwagę AM, trójwymiarowa percepcja informacji geodezyjnych będzie stanowić ramę rozwijającej się prezentacji specjalistycznej. W przypadku tego rodzaju modeli, procedura druku 3D firmy Z-Corporation jest cenna, ponieważ części mogą być barwione w sposób ciągły, co pozwala uniknąć pracy ręcznej. Biorąc pod uwagę AM, można stworzyć lepsze podejście do gablotek geodezyjnych. Modele globu przedstawiające część lądową i morską część ziemi z przesadnym skalowaniem linii topograficznych gór i dna oceanu w celu wskazania szczegółów . Aby powierzchownie uformować drobne subtelności, wybrano stereolitografię. Następnie należy zastosować cieniowanie ręczne. Umożliwia klientowi zaaranżowanie preferowanego skalowania. Im bardziej przedmiot zbliża się do jednostki ludzkiej, tym intensywniejsza staje się interakcja między nimi i tym bardziej wymagane są indywidualne cechy. Aby wyprodukować wymagane części, produkcja form i matryc nie ma już zastosowania. To otwiera ciekawostki dla AMforms, które mogą tworzyć ogromne ilości różnych części w jednej formie, niezależnie od tego, czy każda z nich wyróżnia się indywidualnymi podświetleniami.

Odlewnictwo i odlewanie

Odlewnie wykorzystują procedury AM, aby uzyskać modele i testy późniejszego elementu (obrazowanie 3D) lub aby wykonać centra i wnęki do produkcji. Jeśli wymagana jest tylko część demonstracyjna, można zastosować wszystkie ulepszenia AM. Druk 3D jest preferowany, jeśli część nie jest precyzyjnie ułożona i wymagany jest skromny i szybko dostępny przykład. Poziom aplikacji to szybkie prototypowanie/silne obrazowanie. AM oferuje nowe siły napędowe głównie do rzucania piaskiem i rzucania venture, ponieważ wymagane utracone centra i otwory można wykonać szybko i skutecznie. Ulepszona nieprzewidywalność części AM pozwala na uznanie geometrii, których nie można wykonać fizycznie ani za pomocą specjalnych narzędzi. Ze względu na podstawowe skalowanie części AM, utracone centra i wgłębienia można skutecznie usprawnić. W zastosowaniach związanych z rzucaniem piasku wykorzystuje się spiekanie laserowe lub drukowanie 3D piasku odlewniczego, podczas gdy utracone centra do rzucania spekulacyjnego są tworzone przez polimeryzację rozpuszczalnych lub zdolnych do rozpuszczania termoplastycznych wosków lub gum. Utracone egzemplarze są produkowane z polistyrenu metodą spiekania laserowego. W przypadku penetracji woskiem można również wykorzystać części do drukowania 3D. Ponieważ centra i zagłębienia są wykorzystywane do tworzenia, poziom aplikacji to szybki montaż/bezpośrednie oprzyrządowanie. Utracone centra i przykłady można również wytwarzać przez wlew wosku do silikonowych form nabytych od ekspertów AM. Wszystkie innowacje AM mogą być zastosowane po prawidłowym zakończeniu.

Medycyna

Ludzie to nadal jednostki, które potrzebują indywidualnego leczenia, w tym pomocy dostosowanych do potrzeb, takich jak implanty, epistezy, ortezy (podpory nóg) i inne. Aby uzyskać prawidłowe dopasowanie, informacje 3D należy uzyskać za pomocą procedur obrazowania odtwórczego, na przykład zarejestrowanej tomografii komputerowej lub ultradźwiękowej. Typową konfiguracją dla obrazów terapeutycznych jest DICOM. Nadzwyczajne programowanie umożliwia określenie rozsądnego limitu i reprodukcję 3D, która daje założenie wielu informacji w standardowym języku trójkątów (STL), które można przygotować w dowolnej maszynie AM. Ze względu na doskonałą jakość powierzchni i generowanie punkt po punkcie, stereolitografia laserowa i latanie polimerami są idealnie wykorzystywane do tworzenia modeli odtwórczych, na przykład czaszek i innych ludzkich struktur kostnych. Wewnątrz pustych struktur, na przykład, za pomocą tych zabiegów można najlepiej odtworzyć zatokę czołową lub filigranową strukturę kości podczaszkowej. W każdym razie spiekanie laserowe, drukowanie 3D, połączone wytwarzanie warstw (wyrzucanie, modelowanie osadzania stopionego (FDM)) lub wytwarzanie nakładek warstwowych (LLM) również przenoszą modele medyczne i są tak często wykorzystywane z tego powodu. Do spiekania i FDM dostępne są wyjątkowe, potwierdzone materiały do wykorzystania odtwórczego, które można zdezynfekować. Druk 3D otwiera interesujące możliwości przed anaplastologami i różnymi ekspertami, którzy wytwarzają wyłącznie uformowane części do rozstrzygającego rzutu. Informacje o brakujących narządach lub częściach narządów są pobierane z obrazowania rekonstrukcyjnego, przerabiania 3D, a następnie demonstracji 3D poprzez programowanie, na przykład sensowne. Ta informacja jest idealnie oparta na refleksji. Idealny podrobiony narząd musi być dostosowany niezależnie do okoliczności każdego pacjenta. Aby skrócić ten system i umożliwić anaplastologowi skupienie się na ich centralnych zdolnościach, ustrukturyzowaną część wykonuje się za pomocą drukowania 3D.

Architektura i architektura krajobrazu

Architekci zwykle prezentują swoje pomysłowe myśli za pomocą modeli w skali. Ponieważ pracują z projektami konfiguracji 3D, informacje 3D wymagane dla AM są łatwo dostępne, a tworzenie modeli można zasadniczo poprawić, wykorzystując modele AM lub komponenty modelu. Bardzo złożona, cienkościenna konstrukcja o swobodnym kształcie nie mogła być wykonana przy pomocy tradycyjnego modelarstwa, ale musi być zbudowana przy użyciu AM. Spiekanie laserowe zostało wybrane, aby stworzyć drobiazgowy model, gwarantujący funkcjonalny stopień wytrzymałości, który chroni go przed uszkodzeniem przez kontakt. Chociaż elementy w postaci bloków były spiekane, można je było również wytwarzać ogólnie przez przetwarzanie wzdłuż tych linii, co czyni je domniemanym modelem mieszanki. Model został w zasadzie wykorzystany do otwartego wprowadzenia do zadania. Poza wyświetlaniem pojedynczych struktur lub ich części, rozwijającą się aplikacją jest tworzenie modeli domów, miast i scen. Wiele z nich wymaga cieniowania, aby zwrócić uwagę na zalety inwestycji lub pokazać kamienie milowe. Informacje mogą być pozyskiwane z aGIS lub bardzo dobrze mogą być odseparowane od Internetu, na przykład z Google Earth lub centrum dystrybucji 3D i pokazane w 3D z wykorzystaniem różnych form AM. AM może między innymi przedstawiać trójwymiarowe prezentacje każdego domu, starej dzielnicy lub witryny towarzysza, rzucających się w oczy konstrukcji, rusztowań, a to tylko wierzchołek góry lodowej.

Różne materiały stosowane w AM

Obecnie AM pozwala na obróbkę materiałów każdej klasy materiałów, w szczególności tworzyw sztucznych, metali i ceramiki. Spiekanie tworzyw sztucznych i metali można postrzegać jako szeroko stosowane standardowe procedury, podczas gdy formy do usuwania metali lub materiałów wypełnionych gliną są nadal opracowywane. Ilość różnych materiałów w każdej klasie materiałów jest nadal bardzo ograniczona, chociaż w ostatnich latach liczba ta wzrosła całkowicie i stale rośnie dzięki międzynarodowej działalności badawczej. Celem ustalonej liczby materiałów jest to, że w zasadzie wymagane jest synchroniczne zaawansowanie materiału i procedury. Na przykład materiał do spiekania laserowego tworzyw sztucznych nie może być wyłącznie lokalnie topliwy, ale łatwy do ponownego powlekania, co wymaga dostosowania krawędzi.Dodane substancje i subtelności procedury, na przykład ochrona gazu i podgrzewanie, tłumienie zanikania sąsiedztwa, utlenianie i inne efekty międzyprocesowe i interakcje ze środowiskiem. To jedna z przyczyn, dla których materiały proszkowe do spiekania laserowego nie są takie same jak proszki do pokrywania spiekanego, mimo że są bardzo porównywalne pod względem organizacji składu. Głównie dla materiałów do spiekania laserowego tworzyw sztucznych i stereolitografii rozwijają się niezależne rynki. Proszki metali są zasadniczo takie same jak proszki do pokrywania laserowego i spawania i pod tym względem od dawna są doskonałe. Klient może wybierać spośród szerokiego asortymentu, ale musi zakwalifikować proces, który pociąga za sobą zaawansowanie karty informacyjnej materiału. Z drugiej strony można wykorzystać materiały dopuszczone przez producenta maszyny, akceptując ograniczoną liczbę materiałów i poziom wartości. Niektóre kwestie związane z AM są stopniowo wyjaśniane i pojawiają się w zasadzie podczas asemblacji, ponieważ obecnie nie ma długoletniego doświadczenia w AM. Najważniejszymi problemami są dojrzewanie i stabilność UV w przypadku tworzyw sztucznych i korozja, pogorszenie, sedymentacja i utlenianie w przypadku proszków metali, a także pory i wtrącenia we wszystkich procesach AM. Rysunek przedstawia rodzaje materiałów stosowanych w AM o różnych zastosowaniach dla różnych produktów.



Tworzywa sztuczne

Tworzywa sztuczne były pierwszą grupą materiałów przetwarzanych przez AM i nadal dostarczają największą część materiałów. Materiałami do stereolitografii są gumy akrylowe lub epoksydowe, które muszą wspomagać polimeryzację fotograficzną. Dziś przyczepne i kruche materiały z połowy lat 90. zastępują materiały naśladujące materiały do formowania wtryskowego tworzyw sztucznych. Udało się to osiągnąć poprzez wypełnienie smoły nanocząstkami w celu uzyskania odchylenia temperatury i zabezpieczenia mechanicznego. Co więcej, różnorodność materiałów została rozszerzona i zawiera teraz proste i nieproste, wszechstronne, utwardzone i wiele coraz bardziej zróżnicowanych materiałów. Do spiekania laserowego tworzyw sztucznych preferowanymi materiałami są poliamidy. Pomimo faktu, że poliamidy są jedną z najbardziej znanych rodzin materiałów termoplastycznych do formowania infuzyjnego, co daje zaufanie do tego materiału, poliamidy AM i te używane do kształtowania infuzji tworzyw sztucznych zasadniczo kontrastują ze sobą. Wypaczanie i zniekształcenie były poważnymi problemami we wczesnych dniach AM, jednak obecnie są one ograniczone do minimum dzięki podgrzewaniu wstępnemu i ulepszonym strategiom skanowania. Dostępny jest obszerny i stopniowo rozszerzający się asortyment materiałów proszkowych na bazie poliamidu do spiekania laserowego. Obejmuje to właściwości ognioodporne, wypełnione aluminium, które można sterylizować. Lepsze właściwości mechaniczne zapewniają proszki napełnione szkłem, chociaż termin ten jest mylący, ponieważ w celu umożliwienia ponownego powlekania wykorzystuje się koła i cząstki uformowane w ziarna ryżu, a nie pasma. Dają one wyższą wytrzymałość w przeciwieństwie do właściwości bez wypełnienia, ale nie osiągają właściwości, które mogą być normalne w przypadku materiałów formowanych infuzyjnych wypełnionych włóknem. Obecnie przynajmniej każdy poziom jest reprezentowany przez AMmateriał i procedurę, poza stopniem materiałów irydyzowanych. Poliimidy są niezwykle fascynującym zbiorem wyjątkowo wytrzymałych i odpornych na ciepło i chemikalia polimerów, które byłyby naprawdę atrakcyjne do wykorzystania jako materiały AM.

Metale

Najczęściej stosowanymi technikami dla AMof metali są spiekanie w odmianie selektywnego topienia laserowego i stapiania. Materiał występuje w postaci proszku o zasadniczej wielkości cząsteczek 20-30 mm. Ponieważ odległość słupa lasera w poprzek, grubość warstwy i szerokość toru są w podobnym zakresie rozmiarów, struktura kontrolna na górze jest nie do pomylenia. Materiały są zasadniczo takie same jak materiały używane do pokrywania laserem lub spawania z materiałem wypełniającym. Chociaż można stosować różne proszki sprzedawane na rynku, należy wziąć pod uwagę, że zdolność materiału musi być wykonana lub ewentualnie oceniane we własnym zakresie. Z drugiej strony, proszki dostarczane przez producentów maszyn AM towarzyszą arkuszom informacji o materiałach w zależności od zademonstrowanych parametrów, które również konsolidują zaawansowane procedury wyjściowe. W przypadku AM metali dostępna jest stal hartowana, stal aparatowa, związki CoCr, tytan, magnez, aluminium, a także cenne metale, takie jak złoto i srebro. Zakres materiałów metalowych jest znacznie szerszy, a ich właściwości znacznie lepiej niż tworzywa podszywają się pod materiały stosowane do montażu konwencjonalnego.

Ceramika

AM z wykorzystaniem materiałów ceramicznych jest jednak uzależniony od specjalizacji w zakresie zaawansowania wytwarzania warstw. Materiały są dostępne w całym zakresie produkcji wyrobów ceramicznych, na przykład tlenek glinu, Al2O3; dwutlenek krzemu lub krzemionka, SiO2; tlenek cyrkonu lub cyrkon, ZrO2; węglik krzemu, SiC; oraz azotek krzemu, Si3N4. Przedmioty to pełna ceramika, głównie z kanałami przepływowymi i konstrukcjami obciążonymi wysoką temperaturą, na przykład wymiennikami ciepła. Charakterystyczne porowatości o dużej skali, które pomagają w łączeniu wkładek, są niezwykłym celem sprzedaży wchłanialnej bioceramiki. Porowatości na małą skalę zachęcają do wytwarzania mikroreaktorów.

Kompozyty

Kompozyty w sensie lekkich wzmocnionych struktur są mało znane w AM. Składają się one z więcej niż jednego materiału i podobnie można je traktować jako materiały recenzowane. Kompozyty są zwykle używane do wytwarzania lekkich przedmiotów, które mają jednolitą strukturę i są izotropowe, a jeśli nie, izotropowe pod scharakteryzowanymi krawędziami obciążenia. Ogólnie rzecz biorąc, produkcja laminatów warstwowych może tworzyć części kompozytowe o skoordynowanych pasmach lub teksturach, jeśli te wzmocnienia są dostępne jako prepregi lub poziome półwykończone materiały, które można zintegrować z procesem. Specjalnie dostosowany proces wytwarzania wzmocnionych zakrzywionych części z włókna ceramicznego (SiC) pozwala uniknąć cięcia włókien. Może układać warstwy pod charakterystycznymi, ale różnymi krawędziami, aby dostosować konstrukcję do normalnego obciążenia. Ponadto część może mieć (nieco) zagiętą powierzchnię, aby wykonać podstawowe elementy i zachować strategiczną odległość od stopni schodów równoległych do terenu hałdy.

Globalna ewolucja AM

Obecnie wokół branży druku 3D (lub AM) toczy się wiele dialogów. Jest on regularnie łączony z mechaniczną autonomią, cyfryzacją i ogromną ilością informacji w ramach wizji "Przemysłu 4.0" lub "czwartej rewolucji przemysłowej", jako przyszłej fabryki. Taka jest intensywność medialnych zaawansowanych marzeń o drukowanej w 3D przyszłości. Jednak ogół społeczeństwa jest ignorantem, że druk 3D nie jest niczym nowym. Innowacja istnieje od bardzo dawna - podstawowe ramy biznesowe były dostępne pod koniec lat 80-tych. Rysunek przedstawia ewolucję AM z perspektywy globalnej.



Wczesne etapy

Współczesne badania systemowe proponują, aby w cyklu istnienia przedsięwzięć wyróżnić cztery fazy - wprowadzenie, wzrost, dojrzałość i upadek. Okres początkowy jest opisywany przez małą sprzedaż, niskie stopy penetracji rynku, wysokie koszty i niską jakość. AM zainwestowała w tę fazę sporo czasu, a granice rozwoju obejmowały postęp w całej branży, który był utrudniony przez ograniczenia patentowe i trudności z obniżeniem kosztów maszyn.

Etapy wzrostu

SektorAM znajduje się obecnie w fazie wzrostu. Na tym etapie obserwuje się szybką infiltrację rynku w miarę spadku kosztów. Raport Wohlera z 2018 r. mówi nam, że światowe przychody z produktów AM w 2017 r. wyniosły łącznie 3,133 mld USD, co stanowi wzrost o 17,4% w porównaniu z 2,669 mld USD w 2016 r. Mało kto kwestionowałby, że branża się rozwija i to w szybkim tempie. Ogromne roczne przyrosty przychodów wciąż przyciągają entuzjazm z różnych działów (finanse, produkcja). Dla niektórych firm etap wzrostu wynika ze standaryzacji innowacji (ułatwienie transakcji i rozpowszechniania oraz tworzenie ekonomii skali w toku). AM obejmuje wiele procedur (wytłaczanie materiału, strumieniowanie materiału, strumieniowanie spoiwa, laminowanie arkuszy, fotopolimeryzacja w kadzi, fuzja w łożu proszkowym, ukierunkowane osadzanie energii) i materiałów (polimery, metale, ceramika, kompozyty i inne). Na przykład, tworzenie metalowych implantów dentystycznych jest napędzane przez proces syntezy w łożu proszkowym (selektywne topienie laserowe) wykorzystujący tytan. Na tym etapie wzrostu, AMbusiness szybko się profesjonalizuje. Nie oznacza to, że firma nie była biegła we wczesnej fazie, raczej rozmiar i zakres działalności firmy wzrasta i wymaga wkładu usług wspierających, takich jak zasoby ludzkie i zarządzanie biznesem. Wiele firm AM jest kontrolowanych przez specjalistów, którzy założyli te organizacje. Oczywiście, organizacje te są wspierane przez przedsiębiorców. Obecnie coraz częściej obserwujemy napływ talentów biznesowych i menedżerskich z innych sektorów, które wypełniają ważne role w kierownictwie wyższego szczebla, operacjach łańcucha dostaw i konsultingu.

Etapy dojrzałości

Podczas gdy elementy dojrzałości można dostrzec wAM, na przykład w takich zastosowaniach jak części zamienne i prototypowanie, ogólne działy biznesowe wciąż pozostają nieruchomo w fazie wzrostu. Punktem zwrotnym będzie prawdopodobnie szersze wykorzystanie osiągnięć AM w produkcji masowej. W każdym razie wydaje się, że AM nie da się dopasować do istniejących modeli rozwoju przemysłu. Na przykład, etap dojrzałości jest przedstawiany przez efektywność kosztową poprzez siłę kapitałową, biegłość skali i niskie koszty wejściowe. Jest mało prawdopodobne, aby dotyczyło to AM, ponieważ w rzeczywistości użyteczność i zastosowanie AM w produkcji jest sprzeczne z tym rozumieniem logiki projektowania i produkcji. AM nie wyprze zwyczajowych rodzajów produkcji (formowanie wtryskowe, metody subtraktywne), będzie je uzupełniać. Co więcej, opiera się na modelu biznesowym, który w szerszym ujęciu uwzględnia wartość i oszczędność kosztów. W fazie dojrzałości obserwuje się dodatkowo przenoszenie produkcji, najpierw do krajów nowo uprzemysłowionych, a następnie do krajów rozwijających się. AM może ewentualnie drastycznie zmienić sposób wytwarzania przedmiotów i miejsce ich wytwarzania. Minie jeszcze sporo czasu zanim przemysł AM dojrzeje. Musimy ponownie przemyśleć, czym jest "dojrzałość" przemysłu dla segmentu AM i jego wpływ na produkcję oraz dla osób obserwujących rozwój części. Jak na razie istnieje niewiele ostatecznych danych dotyczących części AM. Gdy AM osiągnie dojrzałość, większe i swobodnie dysponowane firmy będą się rozwijać. To da więcej informacji na temat sprzętu, materiałów i sprzedaży usług, głębsze zrozumienie korzyści. W zasadzie biznes AM realizował do tej pory konwencjonalny kierunek rozwoju przemysłu. Niemniej jednak, w miarę osiągania dojrzałości, AM prawdopodobnie rzuci wyzwanie modelom. Tradycyjne rozumienie różnych komponentów wymaganych do rozwoju firm powinno się zmienić, zwłaszcza, że rozszerzający się wybór AM podobnie zmieni rozwój tych przedsięwzięć, w których jest on stosowany. jest stosowany.

Przyszły kierunek rozwoju AM

AM jest nową technologią, która jest bardzo bliska stania się pełnoprawną metodą wytwarzania metodą wytwarzania. W tej chwili, jeśli część została zaprojektowana np. do frezowania, to nie ma nie ma sensu drukować jej w 3D (wyższy koszt, gorsza jakość). Potrzebny jest nowy zestaw narzędzi, aby zbadać co można uzyskać z AM, potrzebna jest metoda projektowania, która pozwoli wygenerować najbardziej optymalny, lekki projekt. Tego nie da się zrobić ręcznie. W przyszłości. pojawią się procedury komputerowe, które pozwolą Ci tylko ustalić ramy i pozwolą i pozwolić, aby problem został rozwiązany za Ciebie. Ta metoda wykracza daleko poza optymalizację. Projektowanie generatywne wykorzystuje sztuczną inteligencję do generowania najlepszego możliwego obiektu i dostarcza projekt, który jest najbardziej optymalny dla druku. Skraca to proces projektowania z tygodni lub miesięcy do godzin. Wspaniałą częścią tego nowego oprogramowania jest to, że nie potrzeba już żadnych eksperci nie są już potrzebni. W ten sposób, podstawowe zrozumienie będzie nadal wymagane w przyszłości, ale projektowanie inżynierskie będzie dostępne dla szerszego grona osób. Patrząc na wzrost znaczenia projektowania generatywnego, nie jest zaskoczeniem, że 90% przychodów w Segment oprogramowania do druku 3D pochodzi z oprogramowania do projektowania. To jest dokładnie to, gdzie wartość będzie w przyszłości. Gdy druk 3D będzie już dobrze rozwinięty, a metody produkcji wszystkie metody są równe, wygra osoba, która zaprojektuje najlepszy produkt.

Wnioski

Podsumowując, AM otwiera nowe możliwości dla projektowania i wytwarzania w różnych przedsiębiorstwach. W porównaniu z tradycyjnymi technikami, coraz bardziej złożone struktury i geometrie mogą być osiągnięte przy użyciu niestandardowego projektowania, większej wydajności, wyższej wydajności i lepszego zrównoważenia środowiskowego. AM odgrywa ważną rolę w przemyśle. Technologie AM wkrótce doprowadzą do kolejnej wielkiej rewolucji przemysłowej. AM odgrywa kluczową rolę w Przemyśle 4.0, oszczędzając czas i koszty, decydując o wydajności procesu i zmniejszając jego złożoność, umożliwiając szybkie prototypowanie i wysoce zdecentralizowane procesy produkcyjne. Dlatego w innowacji obserwuje się rozszerzoną recepcję przeszłości prototypowania i oprzyrządowania w kierunku generowania części końcowych i dodatkowych. AM ma zatem do wykonania istotne zadanie w zakresie technik montażu. Firmy mogą wdrożyć do ewolucji swoich produktów w odpowiedzi na potrzeby rynku. Co ważne, wraz z ciągłym doskonaleniem innowacji, AM zmienia się z problematycznej innowacji wykorzystywanej wyłącznie przez pionierów do typowej strategii tworzenia centrów

Przetwarzanie w chmurze w rewolucji przemysłowej 4.0

Przemysł również ewoluował znacznie od 1700 roku. Od XVIII wieku nastąpiły cztery rewolucje przemysłowe. Pierwsza rewolucja przemysłowa w 1780 roku dotyczyła silników parowych, przemysłu tekstylnego i inżynierii mechanicznej. Drugi w 1840 r. dotyczył przemysłu stalowego. Trzecia w 1900 r. dotyczyła elektryczności i samochodów, podczas gdy czwarta rewolucja przemysłowa dotyczyła branży IT i ogólnie przyjmuje się, że czwarta rewolucja przemysłowa dopiero się rozpoczęła. W związku z tym termin "Przemysł 4.0" został przypięty przez rząd niemiecki w 2011 roku. Przemysł 4.0 lub czwarta rewolucja przemysłowa dotyczy Internetu rzeczy i usług (IoTS), systemów cyber-fizycznych (CPS) oraz interakcji i wymiany dane za pośrednictwem Internetu lub chmury obliczeniowej. W 1960 roku jeden system może jednocześnie wykonywać tylko jedno zadanie. Wiele systemów potrzebnych do jednoczesnego uruchamiania wielu zadań. Przechodząc do obecnego roku 2022, jeden system może wykonać wiele zadań w ciągu kilku sekund. Taka technologia jest osiągana dzięki postępom naukowym, takim jak Internet, usługi sieciowe, Internet rzeczy i przetwarzanie w chmurze. Podobnie jak rewolucje przemysłowe, nastąpiło kilka ulepszeń i postępów w zakresie obliczeń, przetwarzania i dostępu do przechowywanych danych. Ewolucję informatyki przedstawiono na rysunku



Chmura obliczeniowa

'Przetwarzanie w chmurze to dostarczanie na żądanie zasobów IT, takich jak dane, przechowywanie i zasilanie przez Internet, zamiast kupowania, posiadania i utrzymywania fizycznych centrów danych i serwerów''. W uproszczeniu przetwarzanie w chmurze to dystrybucja lub dostarczanie rezerw między sobą za pomocą Internetu

.

Każde małe, średnie, duże przedsiębiorstwa, organizacje, firmy, branże i fabryki używają przetwarzania w chmurze do różnych celów, takich jak przechowywanie danych, tworzenie kopii zapasowych danych, analiza danych, poczta e-mail, maszyny wirtualne (VM) i aplikacje internetowe to tylko niektóre

Korzyści z przetwarzania w chmurze

Każda branża, organizacja i firma korzysta z przetwarzania w chmurze. Nawet osoby fizyczne, wiedząc lub nie, korzystają z przetwarzania w chmurze. Cloud computing stoi za usługą online, usługą e-mail, transmisją strumieniową, grami, przechowywaniem w chmurze itp. Ogólne korzyści z przetwarzania w chmurze obejmują następujące funkcje. Agility - szybki dostęp do zasobów, instalacja i konfiguracja nowych technologii w ciągu kilku minut. Elastyczność - skalowanie zasobów w zależności od potrzeb. Marnotrawstwo zasobów lub opóźnienia w podejmowaniu decyzji są ograniczone. Oszczędność kosztów - dużą kwotę można zaoszczędzić na wydatkach kapitałowych i przekierować na wydatki zmienne. Możliwość rozbudowy - biznes można łatwo rozszerzyć na nowe usługi naziemne, aby dotrzeć do użytkowników końcowych. Produktywność - można odrzucić wymagania czasowe związane z konfiguracją sprzętu i oprogramowania w nowej lokalizacji. Wydajność - usługi przetwarzania w chmurze zmniejszają opóźnienia w sieci niż tradycyjna konfiguracja sieci lokalnej. Niezawodne przetwarzanie w chmurze podlega regularnej konserwacji, takiej jak tworzenie kopii zapasowych danych i dublowanie danych, dzięki czemu dane użytkownika można odzyskać nawet w przypadku awarii. Bezpieczeństwo - dostawcy usług w chmurze oferują zestaw zasad i mechanizmów kontrolnych, które chronią dane użytkownika przed zagrożeniami

Rodzaje przetwarzania w chmurze

Usługi w chmurze są dostarczane konsumentom w oparciu o różne architektury przetwarzania w chmurze. Trzy główne architektury przetwarzania w chmurze to:

Chmura publiczna - chmury publiczne są dostarczane i obsługiwane przez zewnętrznego dostawcę. Dostarczają swoje zasoby i zasoby swoich partnerów, na przykład Microsoft Azure. Zapewniają wsparcie IT w zakresie sprzętu i oprogramowania. Użytkownik może uzyskać dostęp do tych wsparcia za pomocą aplikacji lub przeglądarki internetowej.

Chmura prywatna - chmury prywatne są dostarczane, obsługiwane i utrzymywane przez jedną organizację. Zasoby znajdują się w siedzibie organizacji. Dostęp do niego mają tylko jego oddziały zlokalizowane w różnych miejscach geograficznych.

Chmura hybrydowa - chmury hybrydowe to połączenie chmury publicznej i prywatnej. Na przykład, gdy organizacja pobiera dane ze swojej chmury prywatnej i udostępnia dane do swojej chmury prywatnej z chmury publicznej, nazywa się to chmurą hybrydową.

Rodzaje usług w chmurze

Usługi przetwarzania w chmurze są ogólnie podzielone na trzy główne kategorie. Są to infrastruktura jako usługa (IaaS), platforma jako usługa (PaaS) i oprogramowanie bezserwerowe jako usługa (SaaS). IaaS to najbardziej podstawowa usługa w chmurze. Oferuje infrastruktury IT, takie jak serwery, maszyny wirtualne, dedykowany sprzęt, pamięć masowa i sieci. Zapewnia wysoki poziom elastyczności w biznesie IT. PaaS to usługa skierowana do programistów IT. PaaS oferuje programistom środowisko do tworzenia, testowania i zarządzania aplikacjami, w których infrastruktura IT na miejscu nie ma znaczenia. Dzięki SaaS dostawca usług w chmurze zarządza i utrzymuje całą infrastrukturę IT związaną ze sprzętem i oprogramowaniem oraz zapewnia użytkownikowi końcowemu w pełni rozwinięty produkt przez Internet. Wraz z postępem technologicznym w ostatniej dekadzie przetwarzanie w chmurze stało się bardziej zaawansowane i nastąpiło podróż w kierunku użytkownika końcowego poprzez inne formy przetwarzania, takie jak przetwarzanie mgły i przetwarzanie brzegowe. Te dwa są podzbiorami przetwarzania w chmurze.



Ponieważ zarówno mgła, jak i przetwarzanie brzegowe wykorzystują pośredni poziom przetwarzania i przechowywania, konsumenci używają go zamiennie. W przypadku przetwarzania mgły sieć lokalna działa jako brama, podczas gdy przetwarzanie odbywa się na inteligentnych urządzeniach za pomocą programowalnych sterowników automatyki w obliczeniach brzegowych Fog computing

W przeciwieństwie do scentralizowanego przetwarzania w chmurze, zdecentralizowane przetwarzanie, w którym zasoby są przechowywane w logicznych lokalizacjach między miejscem narodzin danych a chmurą, określane jest jako mgła obliczeniowa. Przetwarzanie mgły zmniejsza wymaganą przepustowość w porównaniu z przetwarzaniem w chmurze, tworząc sieć o niskim opóźnieniu.



Fog computing jest stosowany w samojezdnych samochodach, w których dane są przesyłane do producent do diagnostyki i konserwacji, inteligentnych miast i sieci elektrycznych, w których systemy użyteczności publicznej muszą działać wydajnie, analizy w czasie rzeczywistym, w których odbywa się podejmowanie decyzji. Wadą przetwarzania mgły jest to, że w dużym stopniu opiera się na transporcie danych, co z kolei wymaga szerokopasmowego lub szybkiego dostępu do Internetu.

Przetwarzanie brzegowe

Każdy rodzaj przetwarzania, który jest wykonywany w źródle lub bardzo blisko źródła, jest określany jako przetwarzanie brzegowe. Zmniejsza również opóźnienia i wykorzystanie przepustowości. Klasycznym przykładem wyjaśniającym przetwarzanie brzegowe byłaby kamera wyposażona w czujnik wykrywania ruchu. Ten typ kamery wykonuje wewnętrzne obliczenia, nagrywa i wysyła materiał na serwer tylko w przypadku wykrycia ruchu. Wykorzystuje mniejszą przepustowość i pamięć masową. Natomiast kamera bez czujnika wykrywania ruchu nagrywa wideo przez bardzo długi czas, wykorzystuje dużą przepustowość i większą pamięć masową. Przetwarzanie brzegowe charakteryzuje się niskim zużyciem serwera, opóźnieniami i dodatkową funkcjonalnością. Przetwarzanie brzegowe ma również wadę. Jest bardziej podatny na złośliwe ataki i potrzebuje dodatkowego lokalnego sprzętu. Porównanie chmur, mgły i krawędzi na ich cechach przedstawiono w tabeli



Kwestie bezpieczeństwa i prywatności

Szybki rozwój technologii otworzył nowy wymiar technologii przechowywania danych. W ostatnim czasie pamięć masowych danych wzrosła z formy fizycznej do formy wirtualnej. Istnieją pewne spory dotyczące wirtualnych centrów danych dotyczących ich prywatności, bezpieczeństwa, wydajności, kopii zapasowych i kosztów. W tej sekcji opisano problemy z zabezpieczeniami i rozwiązania dotyczące przetwarzania w chmurze, mgły i przetwarzania brzegowego. Niektóre typowe ataki na komputery to odmowa usługi - wysyłanie ogromnej liczby wiadomości do sieci w celu uwierzytelnienia z nieprawidłowego adresu zwrotnego, aby uniemożliwić innym dostęp do sieci, wstrzykiwanie złośliwego oprogramowania w chmurze - wstrzykiwanie złośliwego oprogramowania lub maszyny wirtualnej do serwera, atak typu side-channel - inżynieria wsteczna kryptografii urządzenia, przejmowanie sesji - przechwytywanie i przejmowanie sesji użytkownika, podsłuchiwanie - nielegalny użytkownik ukrywa swoją obecność i monitorowanie autoryzowanego użytkownika, manipulowanie danymi - manipulowanie danymi podczas komunikacji lub przechowywania oraz przechwytywanie komunikacji - nielegalny użytkownik wykorzystywanie komunikacji między dwoma legalnymi użytkownikami

Przetwarzanie w chmurze w rewolucji przemysłowej 4.0

Platforma oparta na chmurze odgrywa ważną rolę w rewolucji przemysłowej 4.0 (IR 4.0), łącząc Internet i dział produkcji. Chmura może zintegrować kilka CPS i usług cyfrowych w celu wytwarzania fizycznych części lub komponentów w środowisku internetowym. Rudolph i Emmelmann w 2017 roku przedstawili koncepcję wykorzystania chmury obliczeniowej w produkcji addytywnej w ramach IR 4.0. Opracowali strukturę i zintegrowany algorytm, w którym kluczowymi elementami są przygotowanie danych, wytwarzanie przyrostowe, przetwarzanie końcowe i dostarczanie. Zgodnie z ramami klient może przesłać geometrię wymaganej części przez Internet w formacie STL lub CAD, co jest uważane za domyślny format dla wytwarzania przyrostowego. Projekty, objętość, wymiary, materiał, liczba sztuk, wytyczne i wymagania przesłanej geometrii są dokładnie sprawdzane przez producenta. Uwzględniono również koszt materiałów, koszt produkcji, przetwarzanie wstępne i końcowe. Wstępne przetwarzanie obejmuje przygotowanie danych i konfigurację maszyny. Obróbka końcowa obejmuje obróbkę cieplną, cięcie drutu, piaskowanie i usuwanie konstrukcji wsporczych. Na ich podstawie powstaje automatyczna wycena lub oferta. Klient może go zaakceptować lub odrzucić. Wdrożenie tych ram w branżach produkcyjnych zapewni znaczny wzrost efektywności realizacji zamówień. Ta struktura obsługuje również funkcję, dzięki której klient może przeglądać i śledzić status swojego zamówienia przez Internet. W 2019 r. O′Donovan i in. porównali opóźnienia i niezawodność interfejsów cyber-fizycznych w aplikacjach inżynierskich Industry 4.0 z wykorzystaniem przetwarzania w chmurze i mgły. Ich badania koncentrowały się na zdecentralizowanej inteligencji, bliska wydajność w czasie rzeczywistym, prywatność danych przemysłowych, otwartość i interoperacyjność. W swoim badaniu wykorzystali podstawowe i standardowe konfiguracje CPS w chmurze i mgle. Komputer testowy został skonfigurowany do obsługi JMeter, który został skonfigurowany z parametrami do wysyłania, odbierania i mierzenia transmisji zachodzących między każdym CPS. Na potrzeby tego badania utworzyli tymczasową sieć lokalną za pomocą routera Huawei z dwoma podstawowymi urządzeniami: (a) komputerem PC z JMeterem i (b) Raspberry Pi z silnikiem Openscoring, aby umożliwić punktację w czasie rzeczywistym. Po skonfigurowaniu sieci, za pomocą Amazon Web Services, skonstruowano oparty na chmurze interfejs cyber-fizyczny. Składał się z jednego wirtualnego procesora, 1 GB pamięci i systemu operacyjnego Linux. Cyber-fizyczny interfejs oparty na mgle został skonstruowany przy użyciu Raspberry Pi3 model B z 64-bitowym procesorem ARMv8 1,2 GHz, pamięcią 1 GB, wbudowanymi funkcjami Wi-Fi i systemem operacyjnym Linux. Odkryli, że zdecentralizowana, lokalna, autonomiczna topologia mgły może zapewnić większą spójność, prywatność, niezawodność i bezpieczeństwo dla aplikacji Przemysłu 4.0 niż chmura. Stwierdzono, że różnica w opóźnieniu między chmurą a mgłą waha się od 67,7% do 99,4%. Ponadto interfejs mgły wykazał 0% wskaźnik awaryjności i interfejs chmury z 0,11%, 1,42% i 6,6% przy różnym poziomie obciążenia. Doszli do wniosku, że aplikacje inżynierskie wymagające surowej wydajności mogą korzystać z przetwarzania w chmurze, podczas gdy aplikacje wymagające spójnego i niezawodnego wykonywania w czasie rzeczywistym mogą korzystać z obliczeń mgły. Niedawny systematyczny przegląd literatury dotyczący 77 artykułów wykazał pozytywny związek między przetwarzaniem w chmurze a łańcuchem dostaw. Mówiąc dokładniej, przetwarzanie w chmurze ma silny wpływ na integrację łańcucha dostaw, zwłaszcza na tworzenie i przepływy fizyczne. Stwierdzono również, że w przyszłości potrzebne są dalsze badania w zakresie projektowania, finansów, zakupów i integracji magazynów, aby lepiej zrozumieć relacje w chmurze obliczeniowej i integracji łańcucha dostaw. Khayer. przeprowadził badanie na temat adaptacji przetwarzania w chmurze i jego wpływu na wydajność małych i średnich przedsiębiorstw (MŚP) przy użyciu dwuetapowego podejścia analitycznego, łączącego modelowanie równań strukturalnych i sztuczne sieci neuronowe. Ich badanie ujawniło, że jakość usług, postrzegane ryzyko, wsparcie najwyższego kierownictwa, wpływ dostawców chmury, lokalizacja serwera, wydajność komputera i odporność na zmiany mają silny wpływ na przyjęcie przetwarzania w chmurze w MŚP. Odkryli również, że przetwarzanie w chmurze ma pozytywny wpływ na wydajność MŚP. Ooi przeprowadził krótkie badanie, w jaki sposób przetwarzanie w chmurze może wylądować w innowacyjności i wyniki firmy w przemyśle wytwórczym, proponując 11 hipotez. (1) Oczekiwana wydajność ma pozytywny wpływ na innowacyjność, (2) Oczekiwany wysiłek ma pozytywny wpływ na wyniki firmy, (3) Oczekiwany wysiłek ma pozytywny wpływ na oczekiwane wyniki, (4) Wsparcie najwyższego kierownictwa ma pozytywny wpływ na firmę wydajność, (5) wsparcie najwyższego kierownictwa ma pozytywny wpływ na oczekiwany wysiłek, (6) wielkość firmy pozytywnie wpływa na innowacyjność, (7) wielkość firmy pozytywnie wpływa na wyniki firmy, (8) wielkość firmy pozytywnie wpływa na wysiłek oczekiwanie, (9) chłonność pozytywnie wpływa na innowacyjność, (10) chłonność pozytywnie wpływa na wyniki firmy, (11) innowacyjność pozytywnie wpływa na wyniki firmy. Do prowadzenia badań wykorzystali również modelowanie równań strukturalnych, sztuczną sieć neuronową i metodę najmniejszych kwadratów. Wyniki badań wykazały, że 7 z 11 hipotez zostało popartych. Oczekiwana wydajność, wielkość firmy i chłonność mają pozytywny istotny wpływ na innowacyjność i wydajność firmy. Niektóre MŚP wdrożyły zaawansowane systemy planowania i harmonogramowania (APS) w swoich jednostkach produkcyjnych. Jednak systemom APS brakuje elastyczności. Z tego powodu Liu i in. opracował oparty na chmurze system zaawansowanego planowania i harmonogramowania (CAPS) dla branży produkcji części samochodowych. CAPS zawiera pięć głównych modułów: szablon przypadku branżowego, interfejs użytkownika, podstawowe dane wejściowe, planowanie symulacji w chmurze i dane wyjściowe. Zastosowania CAPS w montażu samochodowym wykazały wysoką jakość planowania, niskie wdrożenie i niskie koszty konserwacji.

Przetwarzanie w chmurze w sektorze komunikacji

Wdrożenie jakości usług (QoS) w komunikacji opartej na chmurze wymaga rozwiązania trzech głównych problemów. Są to (1) współistnienie różnych protokołów bezprzewodowych, (2) interoperacyjność między systemami komunikacyjnymi oraz (3) inżynieria umożliwiająca adaptacyjne działanie fabryki. Aby pokonać te przeszkody, Kunst zaproponował architekturę współdzielenia zasobów, szczególnie w domenie Przemysłu 4.0. Ich architektura CPS miała dwie dodatkowe warstwy, a mianowicie warstwę sieciową i brokera zasobów. Warstwa sieciowa składa się z technologii sieciowych umożliwiających dostęp do chmury. Broker zasobów służy do zarządzania i kontrolowania zasobów sieciowych. Kunnst i in. wykorzystał MATLAB i metodologię oceny systemów firmy WiMAX do oceny i symulacji współistnienia trzech technologii bezprzewodowego Internetu: 5G, 4G i IEEE 802.11. Całkowita symulacja składała się z trzech różnych ruchów. Stanowią one (1) 60% protokołu HTTP do kontroli nadzorczej i akwizycji danych, (2) 20% dostrajania manipulatora opartego na VoIP oraz (3) 20% kontroli jakości produkcji opartej na wideo. Wyniki wykazały, że zarówno metryki opóźnienia, jak i fluktuacji QoS były poniżej progu. Przetwarzanie w chmurze pomaga nie tylko w produkcji i przechowywaniu danych, ale także w komunikacji Prowadząc biznes, zawsze istnieje potrzeba podróży i spotkań. Ze względu na wysokie koszty podróży trzeba znaleźć alternatywną drogę. Badanie Radwana i in. zaprezentowała nowe podejście, które konwertuje bieżące rozmowy wideo 2D na rozmowy wideo 3D przy użyciu przetwarzania w chmurze. Ich nowe podejście zaczyna się od (1) opracowania infrastruktury chmury do obsługi komunikacji wideo przy użyciu infrastruktury chmury OpenStack [29], (2) skonfigurowania połączenia wideo przy użyciu technologii webRTC, (3) przechwycenia wideo za pomocą urządzenia wejściowego wideo oraz (4) Wideo 3D jest tworzone przy użyciu technik przetwarzania obrazu, które można oglądać za pomocą okularów 3D. Radwan wykorzystał VM do przetestowania wydajności połączenia 3D i porównania go z tradycyjnym połączeniem peer-to-peer wideo rozmowy. Wyniki eksperymentów wykazały, że ich podejście zapewniło lepszą wydajność procesora w porównaniu z połączeniami wideo 3D typu peer-to-peer. Co więcej, ich nowe podejście ma lepszy stosunek sygnału do szumu o 0,991 dB w porównaniu do peer to peer.

Cloud computing w służbie zdrowia

Podobnie jak Przemysł 4.0 dla sektora produkcyjnego, poprzez włączenie Internetu Rzeczy (IoT), dużych zbiorów danych i przetwarzania w chmurze, sektor opieki zdrowotnej przechodzi do opieki zdrowotnej 4.0 lub e-zdrowia. Branże opieki zdrowotnej wykorzystują technologię chmury do projektowania i dostosowywania leczenia dla swoich pacjentów. Branża opieki zdrowotnej musi być na bieżąco, ponieważ od czasu do czasu mogą rozwijać się różne choroby. W ostatnim czasie wzrosło wykorzystanie Internetu Rzeczy do łączenia zasobów medycznych i świadczenia skutecznych usług opieki zdrowotnej dla pacjentów. Usługi opieki zdrowotnej generują duże ilości danych. Dane te muszą być przechowywane, przetwarzane i analizowane. W związku z tym zainteresowane strony wolą korzystać z przetwarzania w chmurze w sektorach opieki zdrowotnej. Ale towarzyszy temu problem. Ogromna ilość danych IoT z usług zdrowotnych wymagała obsłużenia przy dłuższym czasie wykonywania, takim jak opóźnienie oczekiwania i czasu realizacji oraz duże wykorzystanie zasobów. Później, w 2018 roku, Elhoseny i in. zaproponował hybrydowy model IoT i przetwarzania w chmurze do zarządzania big data w usługach zdrowotnych. Architektura proponowanego modelu hybrydowego zawiera cztery główne komponenty. Są to urządzenie interesariuszy, żądanie interesariuszy, broker chmury i administrator sieci. Aby ulepszyć wybór maszyn wirtualnych, wykorzystano trzy optymalizatory, a mianowicie algorytm genetyczny, optymalizator roju cząstek i optymalizator roju cząstek równoległych. Przeprowadzono zestaw eksperymentów dotyczących czasu wykonania, przetwarzania danych i wydajności systemu wśród tych trzech optymalizatorów. Wyniki pokazały, że proponowany model hybrydowy przewyższa najnowocześniejsze modele, a wydajność systemu została również znacznie poprawiona o 5,2%. Dokonano przeglądu literatury [37] dotyczącej określenia czynników wpływających na akceptację wdrożenia chmury obliczeniowej w sektorze opieki zdrowotnej. Przeanalizowali 55 artykułów i uzyskali 21 czynników w oparciu o metodę analizy tematycznej. Są to kompatybilność, wsparcie najwyższego kierownictwa, względna przewaga, bezpieczeństwo, złożoność, presja zewnętrzna, wiedza informatyczna, koszty, zaufanie, możliwość testowania, regulacje i wsparcie rządowe, innowacyjność, ekspertyza zewnętrzna, dzielenie się i współpraca, doświadczenia użytkowników, świadomość, wielkość firmy, społeczne wpływ, zadania, wsparcie dostawcy i ciągłość biznesowa.

Artykuły naukowe w chmurze obliczeniowej

Na całym świecie kilku badaczy prowadzi badania nad IR 4.0, jego komponentami i publikuje swoje wyniki. Wyniki te są cytowane przez innych badaczy. Stosunek liczby otrzymanych rocznych cytowań ogółem do oczekiwanej łącznej liczby cytowań w oparciu o średnią w danej dziedzinie nazywa się Field Weighted Citation Impact (FWCI).

Wniosek

Koncepcja rewolucji przemysłowej została zaproponowana w 2011 r. Nawet w 2020 r. koncepcja ta jest nadal popularna, ale nie jest do końca wdrażana globalnie. Rządy i organizacje prywatne powoli rozumieją teorię przetwarzania w chmurze. Rządy rządzące muszą zapewnić uproszczone warunki, które są zarówno zorientowane na rząd, jak i na prywatność, aby zwiększyć liczbę dostawców usług w chmurze, tak aby jakość usług uległa poprawie. Dzięki większej świadomości i wsparciu wkrótce można osiągnąć rewolucję przemysłową 4.0

Cyberbezpieczeństwo w kontekście Przemysłu 4.0: tło, problemy i kierunki na przyszłość

Pojawia się i rozwija się nowa rewolucja zwana Industry 4.0 (I4.0), w której systemy przemysłowe składające się z licznych czujników, siłowników i inteligentnych elementów są połączone i zintegrowane z inteligentnymi fabrykami za pomocą technologii komunikacji internetowej. I4.0 jest obecnie napędzany przełomowymi innowacjami, które obiecują stworzyć możliwości tworzenia nowych wartości we wszystkich głównych sektorach rynku. Cyberbezpieczeństwo jest powszechnym wymogiem w każdej technologii internetowej, dlatego pozostaje głównym wyzwaniem dla użytkowników I4.0. Ten rozdział zawiera krótki przegląd szeregu kluczowych komponentów, zasad i paradygmatów technologii I4.0 dotyczących cyberbezpieczeństwa. Ponadto w tym rozdziale przedstawiono istotne dla branży luki w zabezpieczeniach, zagrożenia, zagrożenia i środki zaradcze wraz z przykładami głośnych ataków (np. BlackEnergy, Stuxnet), aby pomóc czytelnikom docenić i zrozumieć stan wiedzy. Na koniec, rozdział próbuje naświetlić otwarte kwestie i przyszłe kierunki komponentów systemu w kontekście cyberbezpieczeństwa dla I4.0.

Wprowadzenie: tło i motywacja

W odniesieniu do paradygmatów Przemysłu 4.0 (I4.0) coraz więcej firm łączy zakłady i fabryki z Internetem, zwanym również Internetem Przemysłowym, w celu poprawy ich efektywności i wydajności. Kwestie cyberbezpieczeństwa są jednym z najważniejszych wyzwań, którym należy sprostać w przypadku urządzeń przemysłowego Internetu rzeczy (IIoT). I4.0 to aktualny trend technologii automatyzacji produkcji, obejmujący głównie technologie aktywne, takie jak systemy cyber-fizyczne (CPS), Internet ofIntroduction: tło i motywacja. W odniesieniu do paradygmatów Przemysłu 4.0 (I4.0) coraz więcej firm łączy zakłady i fabryki z Internetem, zwanym również Internetem Przemysłowym, w celu poprawy ich efektywności i wydajności. Kwestie cyberbezpieczeństwa są jednym z najważniejszych wyzwań, którym należy sprostać w przypadku urządzeń przemysłowego Internetu rzeczy (IIoT). I4.0 to obecny trend technologii automatyzacji produkcji, obejmujący głównie technologie aktywne, takie jak systemy cyber-fizyczne (CPS), Internet rzeczy (IoT) i przetwarzanie w chmurze. Przyjmując nowy paradygmat Internetu Rzeczy, ludzie mogą stworzyć inteligentny świat z głównymi osiągnięciami mikroelektroniki i technologii komunikacyjnych. Branża IoT obejmuje również aplikacje (znane również jako IIoT) . IIoT przyjął IoT w celu poprawy produktywności, wydajności, bezpieczeństwa, inteligencja i niezawodność w kontekście systemu połączeń wzajemnych. I4.0 został wymyślony w Niemczech i został wykorzystany do zidentyfikowania nowej propozycji dotyczącej przyszłości niemieckiej polityki gospodarczej po raz pierwszy w 2011 roku. W dzisiejszych branżach istnieje duże zapotrzebowanie na łączność między komponentami, przy jednoczesnym zachowaniu podstawowych potrzeb, takich jak ciągłość działania i wysoka dostępność. Wymaga to nowych, inteligentnych procesów produkcyjnych, lepiej dostosowanych do potrzeb produkcyjnych oraz procesów z bardziej efektywną alokacją zasobów. Rysunek ilustruje rewolucję I4.0, która jest osią czasu ewolucji produkcji i sektora przemysłowego w ogóle.



W ten sposób nadeszła nowa rewolucja przemysłowa znana jako czwarta rewolucja przemysłowa. I4.0 składa się z trzech głównych etapów: po pierwsze, cyfrowe zapisy są uzyskiwane za pomocą czujników aktywów przemysłowych, które gromadzą dane w ścisłej imitacji ludzkich uczuć i pomysłów. Nazywa się to fuzją czujników. Po drugie, zdolność analityczna zebranych danych realizowana jest poprzez analizę i wizualizację danych za pomocą czujników. Wykonywanych jest wiele różnych operacji w tle, od przetwarzania sygnałów po optymalizację, wizualizację, obliczenia poznawcze i obliczenia o wysokiej wydajności. Chmura przemysłowa wspiera system usługowy w zarządzaniu ogromną ilością danych. Po trzecie, zagregowane informacje muszą zostać przekształcone w znaczące wyniki, w tym produkcję addytywną, autonomiczne roboty, projektowanie cyfrowe i symulacje, aby przełożyć informacje na działanie. Surowe dane są przetwarzane za pomocą aplikacji do analizy danych w chmurze przemysłowej, a następnie przekształcane w wiedzę praktyczną. Fizyczne terminale wejściowe I4.0 są wyposażone w IoT i dlatego są ostatecznie podatne na cyberataki. Chociaż ta dodatkowa łączność przyczynia się do zwiększenia produktywności, stanowi ucztę dla cyberprzestępczości w sieci. Wrażliwość takich sieci jest dobrze znana cyberprzestępcom, w przypadku których udane ataki mogą wywołać druzgocące skutki, takie jak utrata dochodów, spadek rentowności, nieodwracalne szkody w wyniku pożaru lub dewastujące zagrożenie dla ludzi i mienia. Opracowanie kompleksowej strategii dla cyberryzyka ma kluczowe znaczenie dla łańcuchów wartości, ponieważ łączą one technologię operacyjną i samą siłę napędową IT-I4.0. Obecna technologia internetowa jest jednak nękana przez problemy cybernetyczne, które są znaczące wyzwania i przeszkody stojące przed użytkownikami I4.0 stają przed tradycyjnymi problemami z cyberbezpieczeństwem wraz z jego unikalnymi, samowystarczalnymi wyzwaniami w zakresie bezpieczeństwa. W przypadku braku odpowiedniego rozwiązania tych wyzwań, I4.0 może nie osiągnąć swojego prawdziwego potencjału

Charakterystyka cyberbezpieczeństwa I4.0

Zasoby systemowe (komponenty systemu) Przemysłowego Internetu Rzeczy należy najpierw określić przed zajęciem się zagrożeniami bezpieczeństwa. Zasób to cenny i wrażliwy zasób w branży firmy. Głównymi komponentami każdego systemu IoT są sprzęt systemowy, oprogramowanie, usługi i dane usługowe (w tym budynki, maszyny itp.). .0) można uzyskać następujące korzyści:

1. Zdefiniowanie nieodłącznych podatności systemów mających wpływ na ich bezpieczeństwo;
2. Zdefiniowanie cyberzagrożeń dla systemów;
3. Identyfikacja zagrożeń związanych z cyberatakami;
4. Środki zaradcze do rozwiązywania problemów cyberbezpieczeństwa.

Luki w cyberbezpieczeństwie

Luki w zabezpieczeniach to słabości projektowe, które umożliwiają intruzowi wykonanie poleceń, dostęp do nieautoryzowanych danych i/lub przeprowadzenie ataków typu "odmowa usługi" (DoS). Luki znajdują się w różnych komponentach I4.0. Istnieje kilka luk w zabezpieczeniach: infrastruktura protokołów komunikacyjnych i sieciowych, serwery aplikacji, serwery baz danych, interfejsy człowiek-maszyna, sterowniki logiki programowej, zdalne jednostki terminalowe w każdym elemencie systemu nadzoru i akwizycji danych (SCDA). Mogą to być awarie sprzętu lub oprogramowania systemu, słabości zasad, procedury systemowe i słabości użytkowników. Luki mogą być zidentyfikowane jako zdalny dostęp, oprogramowanie i sieci lokalne (LAN), a także mogą być powiązane zarówno wirtualne zasoby chmury, jak i maszyny systemów IT. Istnieją różne rodzaje luk w zabezpieczeniach systemów CPS i przemysłowych systemów sterowania (ICS); te nieznane (tj. luki dnia zerowego) są bardzo powszechne; są one umieszczane między różnymi komponentami każdego interfejsu, w którym następuje wymiana informacji. Dowody wskazują, że urządzenia IoT są zagrożone dla botnetów (np. liczba urządzeń podłączonych do Internetu), ponieważ bezpieczeństwo wielu producentów nie jest priorytetem. Wynika to z powszechnego używania domyślnych haseł i otwartych portów; brak zintegrowanego systemu do automatycznego odbierania aktualizacji oprogramowania; a oprogramowanie układowe jest często zapominane po zainstalowaniu (właściciele nie wiedzą, czy ich urządzenie jest wykorzystywane do złośliwych celów lub konieczności aktualizacji oprogramowania układowego). Jansen identyfikuje następujące powody komponentów większości urządzeń przemysłowych:

•  W wielu zakładach urządzenia działają przez tygodnie lub miesiące bez żadnych narzędzi zabezpieczających i antywirusowych;
•  Różne kontrolery sieci ICS mogą być zakłócane przez zniekształcony ruch sieciowy, a nawet duże natężenie ruchu, ponieważ zostały zaprojektowane w czasie, gdy cyberbezpieczeństwo nie stanowiło problemu;
•  Kilka sieci ICS ma wiele sposobów na wchodzenie w zagrożenia cyberbezpieczeństwa, z pominięciem istniejących środków cyberbezpieczeństwa (np. laptopy uruchamiane i wyłączane z systemów lub pamięci USB działające na wielu komputerach bez odpowiedniego sprawdzania złośliwego oprogramowania);
•  Prawie wszystkie sieci ICS są nadal wdrażane jako duża, płaska i niepowiązana sieć bez fizycznej lub wirtualnej izolacji (umożliwia rozprzestrzenianie się złośliwego oprogramowania nawet do odległych lokalizacji).

Aby rozwiązać te problemy, firmy powinny przeprowadzić proces oceny podatności w celu zidentyfikowania i oceny potencjalnych podatności systemu. Narodowy Instytut Standardów i Technologii (NIST) definiuje ocenę podatności jako systematyczną ocenę ICS lub produktu, identyfikowanie słabych punktów bezpieczeństwa, dostarczanie danych, na podstawie których można przewidzieć skuteczność proponowanego działania zabezpieczającego oraz potwierdzenie przydatności takich działań po ich realizacji. Oceny podatności są zwykle przeprowadzane przy użyciu metody sieciowej lub opartej na hoście, przy użyciu zautomatyzowanych narzędzi skanujących w celu wykrywania, testowania, analizowania i raportowania systemów i podatności. Luki techniczne, fizyczne i oparte na zarządzaniu można również zidentyfikować metodami ręcznymi.

Zagrożenia cyberbezpieczeństwa

Zagrożenie to działanie, które czerpie korzyści i ma negatywny wpływ na słabości zabezpieczeń w systemie. Zagrożenia mogą wynikać z dwóch głównych źródeł: ludzi i przyrody . Zagrożenia dla komputerów mogą być poważne, w tym straszne trzęsienia ziemi, huragany, pożary, powodzie i inne. Niewiele zabezpieczeń przed klęskami żywiołowymi można wdrożyć i nikt nie jest w stanie im zapobiec. Schematy odzyskiwania po awarii, takie jak wsparcie i plany awaryjne, są najlepszym sposobem ochrony systemów przed naturalnymi zagrożeniami. Zagrożenia ze strony ludzi są spowodowane przez ludzi, takich jak złośliwe zagrożenia wewnętrzne (ktoś ma autoryzowany dostęp) lub zagrożenia zewnętrzne (osoby lub organizacje pracujące poza siecią ) dążących do wykorzystania i zakłócenia systemu. Poniżej przedstawiono kategorie zagrożeń ludzkich:

•  Zagrożenia nieustrukturyzowane składające się głównie z osób niedoświadczonych, które korzystają z łatwo dostępnych narzędzi hakerskich.

•  Zagrożenia strukturalne mogą wspierać, rozwijać i wykorzystywać skrypty i kody, tak jak ludzie wiedzą o lukach w systemie. Przykładem zagrożenia strukturalnego są zaawansowane zagrożenia trwałe (APT). APT oferuje zaawansowany atak sieciowy, którego celem jest wysokiej jakości informacje w firmach i organizacjach rządowych dla przemysłu produkcyjnego, finansowego i obrony narodowej. Ataki na połączone systemy fizyczne mogą charakteryzować trzy wymiary:

1. Rodzaj napastnika (tj. wtajemniczony lub zewnętrzny);
2. Cele i zadania napastnika (tj. zniszczenie na dużą skalę lub określony cel);
3. Tryb ataku (np. aktywny lub pasywny).

W odniesieniu do kontekstów I4.0 niemiecki Federalny Urząd ds. Bezpieczeństwa Informacji (BSI) wymienia następujące kluczowe kategorie cyberzagrożeń.

•  Ataki z zewnętrznym dostępem bezpośrednim;
•  Ataki pośrednie na systemy informatyczne dostawcy usług, które przyznały dostęp z zewnątrz;
•  Nieznane wektory ataków bez możliwości wykrycia luk (lub exploitów zeroday);
•  Nieukierunkowane złośliwe oprogramowanie, które infekuje komponenty i wpływa na ich funkcjonalność;
•  Wtargnięcie do pobliskich sieci lub obszarów sieciowych (np. bieżąca sieć biurowa).

W trybie ataku ataki aktywne mają na celu zmianę zasobów systemowych lub wpływanie na operacje systemu (w tym ataki rozproszonej odmowy usługi (DDoS) i ataki z użyciem złamanego klucza), podczas gdy ataki pasywne mają na celu naukę i/lub korzystać z informacji o systemie, zamiast zmieniać system. Nieautoryzowany dostęp do systemów informatycznych i poufnych danych może na ogół mieć miejsce, gdy cyberzagrożenia okażą się skuteczne. Może to skutkować nieautoryzowanym użyciem, ujawnieniem, awarią, modyfikacją lub zniszczeniem krytycznych danych i/lub interfejsów danych oraz DoS przez sieć i komputer (w najgorszym przypadku może to prowadzić do zmniejszenia dostępności systemu).

Zagrożenia cyberbezpieczeństwa

Ryzyko odnosi się do "poziomu wpływu na działalność organizacji (w tym misję, funkcjonowanie, wizerunek lub reputację), majątek firmy lub osoby powstałe w przypadku działania systemu informatycznego, biorąc pod uwagę potencjalny wpływ i potencjalne ryzyko zagrożeń ". Zagrożenia bezpieczeństwa związane z systemami informatycznymi opierają się na utracie poufności, integralności lub dostępności informacji lub systemów informatycznych. Poufność w szczególności oznacza, że nieuprawnieni użytkownicy mogą zachować informacje w tajemnicy; w ten sposób dane mogą zostać ujawnione ze względu na brak poufności. Integralność, co oznacza ochronę poufności danych lub zasobów, może prowadzić do nieautoryzowanych modyfikacji, o ile nie zostanie zachowana. W takim przypadku istnieje ryzyko uszkodzenia lub modyfikacji rekordów, danych i danych. Dostępność sprawia, że system jest dostępny i użyteczny na żądanie. W konsekwencji atak DoS może wystąpić, jeśli istnieje gwarancja dostępności systemu, powodując brak produktywności systemu fizycznego. Zagrożenia są wysoce spowodowane ekspozycją i atakami

Narażenie

Ujawnienie to problem lub błąd w konfiguracji systemu, który umożliwia atakującemu wykonywanie czynności związanych z gromadzeniem informacji. Odporność na ataki fizyczne jest jednym z najtrudniejszych problemów w IoT. Urządzenia mogą pozostać bez nadzoru w większości aplikacji IoT i prawdopodobnie będą bezpośrednio dostępne dla atakujących. Takie ujawnienie pozwala atakującemu przechwycić urządzenie, usunąć sekrety, zmienić jego oprogramowanie lub zastąpić je złośliwym urządzeniem, które jest pod kontrolą atakującego.

Ataki

Ataki są podejmowane przy użyciu różnych technik i narzędzi, które uszkadzają system lub przerywają normalne działanie, wykorzystując luki w zabezpieczeniach. Atakujący wykonują ataki dla dowolnego osiągnięcia lub korzyści. Koszt ataku jest nazywany pomiarem nakładu pracy pod względem wiedzy, zasobów i motywacji napastnika. Aktorzy atakujący to ludzie którzy stanowią zagrożenie dla cyfrowego świata. Mogą to być hakerzy, przestępcy i rządy . Na wiele sposobów mogą wystąpić ataki, w tym aktywne ataki sieciowe w celu monitorowania ruchu z poufnymi informacjami, ataki pasywne, takie jak niezabezpieczona komunikacja sieciowa i słabe szyfrowanie informacji uwierzytelniających, zamknięcie, działanie wewnętrzne i tak dalej. Typowe rodzaje cyberataków to:

1. DoS: Ten typ ataku ma na celu uniemożliwienie żądanym użytkownikom korzystanie z komputera lub zasobu sieciowego. Większość urządzeń IoT jest podatna na ataki energetyczne z powodu małej ilości pamięci i ograniczonych zasobów obliczeniowych.
2. Ataki fizyczne: Ten typ ataku na komponenty sprzętowe polega na sabotażu. Ze względu na nienadzorowany i rozproszony charakter IoT większość urządzeń znajduje się zazwyczaj w środowiskach zewnętrznych, które są bardzo narażone na fizyczne ataki.
3. Ataki na prywatność: Ochrona prywatności IoT staje się coraz większym wyzwaniem, ponieważ duże ilości informacji są łatwo dostępne za pomocą mechanizmów zdalnego dostępu. Najczęstsze ataki to:

4. Ataki oparte na hasłach: Intruzi próbują zduplikować prawidłowe hasło użytkownika. Próbę można podjąć na dwa sposoby: (1) atak słownikowy, który próbuje możliwych kombinacji liter i cyfr w celu stworzenia hasła; (2) atak z brutalną siłą wykorzystuje narzędzia do łamania haseł, aby znaleźć wszystkie możliwe kombinacje haseł.

•  Śledzenie: Unikalny numer identyfikacyjny urządzenia służy do śledzenia ruchów użytkownika. Śledzenie lokalizacji użytkownika pozwala na jego identyfikację w anonimowych sytuacjach.
•  Podsłuchiwanie: polega na podsłuchiwaniu rozmowy dwóch stron.
•  Cyberszpiegostwo: obejmuje szpiegowanie lub uzyskiwanie tajnych informacji od osób, organizacji lub rządów za pomocą łamania zabezpieczeń i złośliwego oprogramowania.
•  Eksploracja danych: umożliwia atakującym odnalezienie danych w określonych bazach danych.

5. Ataki rozpoznające: obejmują wykrywanie i mapowanie nieautoryzowanych systemów, usług i luk w zabezpieczeniach. Ataki rozpoznające obejmują skanowanie portów sieciowych, sniffery pakietów, analizę ruchu i wysyłanie zapytań o adresy IP.

6. Ataki dostępu: Nieuprawnione osoby mają prawo do dostępu do sieci i urządzeń. Dostępne są dwa różne rodzaje ataków dostępu: pierwszy to dostęp fizyczny, w którym intruz ma do dyspozycji fizyczne urządzenie. Drugi to zdalny dostęp do urządzeń połączonych IP.

7. Destrukcyjny atak: Przestrzeń jest wykorzystywana do zakłócania i niszczenia życia i mienia na dużą skalę. Terroryzm i ataki zemsty to przykłady destrukcyjnych ataków.

8. Kontrola nadzorcza i akwizycja danych (SCADA) Ataki: SCADA jest podatny na wiele cyberataków, tak jak każdy inny system TCP/IP. System można zaatakować w taki czy inny sposób:

•  Zamknij system za pomocą DoS. Na przykład BlackEnergy3 (BE3) brała udział w cyberatakach na Ukrainie w 2015 r., które doprowadziły do przerw w dostawie prądu. BE3 został wykorzystany w okresie poprzedzającym atak do zbierania informacji o środowisku ICS i prawdopodobnie został wykorzystany do złamania danych uwierzytelniających użytkownika przez operatorów sieci, chociaż nie odgrywał bezpośredniej roli w odcinaniu zasilania. W przeciwieństwie do poprzednich incydentów związanych z wariantami Black Energy, BE3 zostało dostarczone ukraińskim firmom energetycznym za pośrednictwem e-maili typu spear-phishing i uzbrojonych dokumentów Microsoft Word.

•  Przejmij kontrolę nad systemem za pomocą trojanów lub wirusów. Na przykład w 2008 roku wirus o nazwie Stuxnet został zaatakowany w irańskim obiekcie nuklearnym w Natanz.

9. Cyberprzestępczość: Internet i inteligentne obiekty są wykorzystywane do wykorzystywania użytkowników i danych, takich jak kradzież IP, kradzież tożsamości, kradzież marki i oszustwa, do celów materialnych.

Środki zaradcze w zakresie cyberbezpieczeństwa

Środki zaradcze to zestaw działań, sprzętu, procedur i technik służących do zwalczania zagrożeń, luk w zabezpieczeniach lub ataków poprzez zapobieganie zagrożeniom lub ich usuwanie, minimalizowanie lub zgłaszanie szkodliwych skutków. Poniższe trzy wysokopoziomowe podejścia do zagwarantowania bezpieczeństwa przemysłowych systemów sterowania są opisane przez Jansena:

1. Utwardzić obszar, co oznacza odizolowanie sieci zakładu od sieci biurowej, stosując w stosownych przypadkach zapory ogniowe i strefę zdemilitaryzowaną;
2. Głęboka ochrona, wykorzystująca różne warstwy ochrony w całej sieci w celu zatrzymania i powstrzymania złośliwego oprogramowania, które przełamuje barierę.
3. Dostęp zdalny, jeden z najczęstszych sposobów penetracji zapory. W takim przypadku wirtualna sieć prywatna jest zalecana w oddzielnym obszarze zdemilitaryzowanym w celu odizolowania użytkowników zdalnych.

Ponadto wdrożone mechanizmy bezpieczeństwa powinny być na bieżąco aktualizowane (instalacja nowej łaty bezpieczeństwa) na poziomie urządzenia, na poziomie sieci (aktualizacja sygnatur nowych zapór ogniowych zagrożeń) oraz na poziomie zakładu/przemysłu (monitorowanie i analiza rzeczywiste źródła dzienników). Innymi słowy, skuteczne systemy przemysłowe powinny chronić przed nieuprawnionym dostępem lub zmianą informacji dla upoważnionych użytkowników, czy to podczas przechowywania, handlu, tranzytu i odmowy świadczenia usług, w tym środków wymaganych do identyfikacji, dokumentowania i przeciwdziałania zagrożeniom w ramach Komitetu Bezpieczeństwa Narodowego Systemy (CNSS). Kankanhalli i in. zgłosić, że działania prewencyjne obejmują wdrożenie najnowocześniejszego oprogramowania zabezpieczającego lub kontrole bezpieczeństwa zasobów przemysłowych, takie jak zaawansowana kontrola dostępu, wykrywanie włamań, zapora ogniowa, systemy monitorowania i generowanie raportów o wyjątkach. Działania odstraszające obejmują opracowanie polityki i wytycznych bezpieczeństwa, szkolenia dla użytkowników oraz rozwój doświadczonych audytorów systemów przemysłowych.

Zasady bezpieczeństwa I4.0

Aby odnieść sukces we wdrażaniu skutecznego bezpieczeństwa przemysłowego IoT, należy zapewnić pewne zasady, aby zapewnić bezpieczeństwo w całym systemie Przemysłowego IoT. Zgodnie z Narodową Strategią Bezpieczeństwa Cybernetycznego (NCSS) oraz CNSS , aby zapewnić wydajne środowisko IoT, należy uwzględnić następujące sześć zasad ponieważ IoT szybko się rozwija.

Poufność

Poufność jest ważną cechą bezpieczeństwa Przemysłowego Internetu Rzeczy, ale w niektórych sytuacjach, gdy dane są publikowane, może nie być obowiązkowa. Dzięki temu informacje i dane nie są ujawniane z wewnątrz lub na zewnątrz systemu żadnej nieupoważnionej osobie lub stronie. Poufność danych i informacji jest utrzymywana poprzez zastosowanie algorytmów szyfrowania przechowywanych i przesyłanych danych oraz ograniczenie dostępu do lokalizacji danych. Na przykład informacje o pacjentach, dane biznesowe i/lub informacje wojskowe, a także dane uwierzytelniające i tajne klucze muszą być ukryte przed nieautoryzowanymi podmiotami.

Uczciwość

Integralność jest w większości przypadków obowiązkową funkcją bezpieczeństwa zapewniającą użytkownikom IoT niezawodne usługi. Istnieją różne wymagania dotyczące integralności różnych systemów Industrial IoT. Jest również w stanie utrzymać dane w ich obecnej formie i zapobiegać nieuprawnionej manipulacji. Innymi słowy, dane muszą być trzymane z dala od zewnętrznych i wewnętrznych, którzy próbują go modyfikować. Tak więc miejsce docelowe otrzymuje błędne dane i uważa, że są one dokładne. Na przykład system zdalnego monitorowania pacjenta ma wyjątkowo wysoką kontrolę integralności pod kątem błędów losowych ze względu na wrażliwość informacji. Utrata lub manipulacja danymi może mieć miejsce z powodu komunikacji, która może prowadzić do śmierci.

Dostępność

To generalnie pozwala systemowi na terminowe dostarczanie usług i produkcję produktów. Dostępność każdego podsystemu oznacza, że może on funkcjonować poprawnie i działać na czas i w razie potrzeby [28]. Innymi słowy, dostępność gwarantuje prawidłowe funkcjonowanie wszystkich przemysłowych podsystemów IoT poprzez unikanie wszelkiego rodzaju uszkodzeń, w tym awarii sprzętu i oprogramowania, awarii zasilania i ataków DoS. Podobnie użytkownik urządzenia (lub samo urządzenie), gdy jest to konieczne, musi mieć dostęp do usług. Aby świadczyć usługi nawet w obecności złośliwych podmiotów lub w niekorzystnych sytuacjach, różne komponenty oprogramowania i sprzętu muszą być niezawodne na urządzeniach IoT. Na przykład systemy monitorowania pożaru lub monitorowania stanu zdrowia byłyby prawdopodobnie bardziej dostępne niż czujniki przydrożne.

Autentyczność

Uwierzytelnianie wszechobecnej łączności IoT opiera się na naturze przemysłowych środowisk IoT, w których możliwa byłaby komunikacja między sprzętem i sprzętem maszyna-maszyna (M2M), między człowiekiem a urządzeniem i/lub między człowiekiem a człowiekiem. Różne wymagania dotyczące uwierzytelniania wymagają różnych rozwiązań systemowych. Wymagane są silne rozwiązania, takie jak uwierzytelnianie kart bankowych czy systemów bankowych. Właściwość autoryzacje umożliwia tylko upoważnionym podmiotom (dowolnemu uwierzytelnionemu podmiotowi) wykonywanie określonych operacji sieciowych. Jednak najważniejszym zadaniem jest bycie międzynarodowym, czyli e-Paszport, podczas gdy inni muszą być lokalni.

Niezaprzeczalność

W przypadkach, gdy użytkownik lub urządzenie nie mogą odmówić wykonania czynności, funkcja niezaprzeczalności dostarcza pewnych dowodów. Niezaprzeczalność nie może być uważana za główną funkcję bezpieczeństwa dla większości Przemysłowego Internetu Rzeczy. Może na przykład mieć zastosowanie w pewnych kontekstach, w których systemy płatności nie mogą zostać odrzucone przez użytkowników lub dostawców. W przypadku incydentu odrzucenia, podmiot zostałby prześledzony do jego działań przez proces rozliczalności, który może pomóc zweryfikować, co wydarzyło się w jego historii i kto był faktycznie odpowiedzialny.

Prywatność

Prywatność to prawo podmiotu do określenia, czy wchodzi w interakcję ze swoim środowiskiem i na jakim poziomie podmiot ten jest skłonny udostępniać informacje o sobie innym. Główne cele ochrony prywatności w przemyśle IoT to:

•  Prywatność urządzenia: zależy od prywatności fizycznej i prywatności przełączania. W przypadku kradzieży lub utraty urządzenia lub odporności na ataki typu side-channel, poufne informacje mogą zostać uwolnione z urządzenia.

•  Prywatność pamięci masowej: należy wziąć pod uwagę dwa czynniki, aby chronić prywatność danych przechowywanych na urządzeniach:

1. Urządzenia powinny przechowywać możliwą ilość potrzebnych danych.
2. Regulacja powinna zostać rozszerzona o zapewnienie ochrony danych użytkownika po zakończeniu użytkowania urządzenia (wymazywanie) w przypadku kradzieży, zagubienia lub nieużywania urządzenia.

•  Prywatność komunikacji: zależy od dostępności urządzenia oraz jego integralności i wiarygodności. Aby odstąpić od komunikacji dotyczącej prywatności danych, urządzenia IoT powinny komunikować się tylko wtedy, gdy jest to konieczne.
•  Prywatność przetwarzania: zależy od urządzenia i integralności komunikacji. Bez wiedzy właściciela danych dane nie powinny być ujawniane ani zatrzymywane przez osoby trzecie.
•  Tożsamość prywatności: Tożsamość każdego urządzenia powinna być identyfikowana tylko przez upoważnioną osobę/urządzenie.
•  Lokalizacja prywatności: tylko zatwierdzony podmiot powinien znajdować się w położeniu geograficznym odpowiedniego urządzenia (człowiek/urządzenie).

Komponenty systemu I4.0

Termin "Przemysł 4.0" jest nowy i wiąże się z rozwojem technologii informacyjno-komunikacyjnych (ICT), w szczególności z integracją ICT w procesach produkcyjnych. Do tej pory zgłoszono kilka incydentów w tych sektorach. Chociaż incydenty te uważane są za odosobnione, mogą być jednak niepokojące. Nowe zagrożenia cybernetyczne powstają dzięki wzajemnym połączeniom infrastruktur krytycznych, które muszą zostać zidentyfikowane, zbadane i rozwiązane przed zbyt wcześnie. W tej sekcji omówimy większość popularnych komponentów systemu w I4.0. W I4.0 eksperci ds. cyberbezpieczeństwa muszą teraz zmierzyć się z problemami cyberbezpieczeństwa. Przegląd standardów (seria ISO 27000, IEC 62541 OPC UA) i sieci Times Sensitive Nets (IEEE 17222016), które odnoszą się do tych wyzwań OPC UA, przedstawiły ogólny raport. Podobnie, zaprezentowano nowe zasady projektowania oceny ryzyka cybernetycznego IoT w odniesieniu do I4.0, aby umożliwić szybki i aktualny przegląd istniejącego i powstającego rozwoju I4.0 IoT. W ten sposób wielu badaczy jest zmotywowanych do wdrażania technik w sprawach przemysłowych. W tej sekcji skupimy się jednak na aplikacjach, które są integrowane i wdrażane w branży, takich jak uwierzytelnianie i podejścia do bezpieczeństwa.

Chmura obliczeniowa

Według NIST istnieją cztery typy modeli wdrażania chmury, które zostały szczegółowo omówione w kolejnych sekcjach.

Chmura publiczna

Ta infrastruktura chmury jest otwarta dla wszystkich, w tym dla pamięci masowej, aplikacji i innych usług, a użytkownicy płacą tylko za czas, w którym usługa jest używana do celów pay-peruse. Chmury publiczne są jednak mniej bezpieczne, ponieważ wszyscy użytkownicy mogą korzystać z aplikacji i danych. Przykład: Google App Engine, inteligentna chmura IBM. Korzyści z chmury publicznej: dostępność i niezawodność, płatność zgodnie z rzeczywistym użyciem i swoboda samoobsługi.

Prywatna chmura

Ta infrastruktura chmurowa jest wdrażana w ramach jednej organizacji i jest otwarta dla ograniczonej grupy użytkowników. Organizacja kontroluje swoje zasoby i aplikacje. Zwiększyło więc bezpieczeństwo chmury prywatnej. Przykład: Ubuntu Enterprise Cloud, Ubuntu PVC. Korzyści z chmury prywatnej: wysoki poziom bezpieczeństwa, wykorzystanie istniejących zasobów i pełna kontrola nad dostosowaniem.

Chmura społecznościowa

Chmura społecznościowa obejmuje dystrybucję w tej samej społeczności infrastruktury obliczeniowej między dwiema organizacjami. Infrastruktura chmury i zasoby komputerowe są dostępne wyłącznie dla co najmniej dwóch organizacji ze wspólnymi elementami prywatności, bezpieczeństwa i przepisów. Może to pomóc w obniżeniu kosztów kapitału na jego wdrożenie, ponieważ koszty są alokowane między organizacje. Przykład: "Gov Cloud" firmy Google. Chmura społecznościowa zapewnia niższe koszty niż chmura prywatna, ograniczona liczba użytkowników, wysokie bezpieczeństwo.

Obliczanie mgły

Fog computing to przede wszystkim rozszerzenie chmury obliczeniowej na obrzeżu sieci, które umożliwia nowe aplikacje i usługi IoT i I4.0. Jednak w wersji I4.0 wykorzystanie inteligentnych systemów CPS wykorzystujących komputery IoT, mobilne i w chmurze sprawia, że fabryki stają się coraz bardziej inteligentne i wydajne. Jednak prace autorów dotyczyły wdrażania systemów przetwarzania mgły w celu zminimalizowania kosztów instalacji przy ograniczeniach maksymalnej wydajności, maksymalnego opóźnienia, zasięgu i maksymalnej wydajności urządzenia. Opartą na mgle architekturę aplikacji I4.0 zbadano, aby zmniejszyć ogólne ograniczenie zużycia energii przez węzły IoT. Obecnie istnieje kilka badań, które wraz z I4.0 wprowadzają mgłę obliczeniową. W tej części prezentowane są te prace badawcze. Następnie zaproponowano DMGA z zaletami MA i GA.

Big data

Wraz z rosnącą liczbą źródeł danych i spadkiem cen pamięci masowej i zasobów komputerowych w ostatnich latach, gromadzenie i analizowanie dużych ilości danych stało się wykonalne. Rozwój tych metod poprawia efektywność operacyjną. Opracowano zintegrowaną platformę analizy danych big data do zarządzania ryzykiem w oparciu o dane, w której położono nacisk na dane z czujników do zastosowań w opiece zdrowotnej, aby zwiększyć skalowalność, bezpieczeństwo i wydajność systemu. Pod nazwą "big data" w I4.0 wiele zrobiono w różnych dyscyplinach, takich jak przewidywanie sprzedaży, planowanie produkcji czy eksploracja i klastrowanie relacji użytkowników. Na przykład został wprowadzony w trzech obszarach CPS, produkcji cyfrowej, postępu I4.0 i analityki Big Data. Podobnie podejście, które integruje heterogeniczne źródła danych, pozwala również na zautomatyzowaną ocenę ryzyka dużych zbiorów danych w I4.0]. Zbieranie, przetwarzanie, integracja, modelowanie, przechowywanie, bezpieczeństwo, poufność, analiza, cykl życia i prezentacja danych są szczegółowe. Ponadto proponuje się bezpieczną architekturę dla IIoT, mechanizm bezpieczeństwa zarządzania kluczami do ochrony dużych zbiorów danych w przemyśle wykorzystuje 4.0 do przechowywania i przetwarzania danych z czujników, które można sprzedać (big data) dla zastosowań medycznych. Przeprowadzono ankietę, aby skoncentrować się na tym krytycznym skrzyżowaniu. A w systemach cyber-fizycznych i Big Data wprowadzane są szczegółowe metody, aby pomóc czytelnikom zrozumieć ich rolę w I4.0

Interoperacyjność i przejrzystość

Zdolność systemów do wymiany danych o jednoznacznym znaczeniu to interoperacyjność. Jednak literatura definiuje interoperacyjność na różne sposoby, a ostatnio zaproponowano nowe modele oceny interoperacyjności. Chociaż skupienie się na interoperacyjności, jednej z zasad I4.0, podczas gdy standaryzacja jest niezbędna dla komunikacji, należy również pomóc w interpretacji znaczenia komunikacji przez maszyny i systemy, a tutaj jest interoperacyjność: znaczenie treści dane wymieniane w I4.0. Niedawno pokazaliśmy wzajemne powiązania między Industrial Internet Reference Architecture (IIRA) i referencyjnym modelem architektury dla przemysłu 4.0 (RAMI 4.0) oraz sposób, w jaki niektóre środowiska testowe zostały wdrożone w ramach IIC - w szczególności platformy testowe Infosys AE i IDT. Zbadano również obiecujące podejście do optymalizacji interoperacyjności CPS, zwane formalną analizą koncepcji w I4.0. Przeanalizowano literaturę dotyczącą interoperacyjności, aby znaleźć zautomatyzowane podejścia do interoperacyjności semantycznej, zwłaszcza w dynamicznych systemach CPS na dużą skalę . Ponadto pojawiło się ogólne wskazanie dla mapowania funkcjonalnego, a powiązanie modelowania interoperacyjności między koncepcją cyfrowego bliźniaka bliźniaczej architektury Internetu przemysłowego (IIRA) (RAMI 4.0 AS) zostało oznaczone jako RAMI 4. Integracja maszyna-maszyna w ramach I4. Proponowane w programie powinno umożliwiać maszynom komunikację, a maszyny muszą osiągać poziomy interoperacyjności zgodne z potrzebami systemu. Istnieje popularna aplikacja używana w projektowaniu przejrzystości danych, taka jak następujące punkty

Interfejs programu aplikacji

Interfejs programu aplikacji (API) to zestaw procedur, protokołów i narzędzi do tworzenia aplikacji. Ogólnie API wskazuje na interakcję między komponentami oprogramowania. Ponadto elementy graficznego interfejsu użytkownika są programowane za pomocą interfejsów API. Porządne API umożliwia tworzenie programu ze wszystkimi blokami projektowymi. Następnie programista składa klocki. W przypadku systemów operacyjnych, aplikacji lub witryn internetowych istnieje wiele różnych rodzajów interfejsów API. Windows, między innymi, ma wiele zestawów API, które są używane przez sprzęt i aplikacje - to API pozwala mu działać podczas kopiowania i wklejania tekstu z jednej aplikacji do drugiej. API wymienia Mapy Google, Twitter, YouTube, Flickr i Amazon Product Advertising jako jedne z najpopularniejszych interfejsów API.

GraphQL

GraphQL to język zapytań, który umożliwia użytkownikom API opisanie żądanych danych, pozwalając deweloperom API skupić się na relacjach danych i regułach biznesowych, zamiast martwić się różnymi ładunkami API. W tym opisie klient GraphQL może zażądać dokładnych informacji w pojedynczej aplikacji. Te typy są używane przez GraphQL, aby zagwarantować, że klienci proszą tylko o popełnienie jasnych i wartościowych błędów. Od czasu publicznego wydania GraphQL, wiele klientów GraphQL i środowiska uruchomieniowego rozwiązywania zapytań po stronie serwera zostało zaimplementowanych w systemach oprogramowania i językach programowania. Jak każdy program, implementacje te mogą być przedmiotem problemów funkcjonalnych i wydajnościowych. GraphQL to potężny język zapytań, który robi wiele poprawnie. GraphQL zapewnia bardzo elegancką metodologię, gdy jest prawidłowo zaimplementowana w celu odzyskiwania danych, stabilności zaplecza i zwiększonej wydajności zapytań. GraphQL pozwala również na wykonywanie zapytań dokładnie w dowolnym momencie. Jest to doskonałe do korzystania z interfejsu API, ale ma również złożone implikacje dotyczące bezpieczeństwa. Zamiast prosić o legalne i przydatne informacje, złośliwy gracz może przesłać kosztowne i zagnieżdżone zapytanie w celu przeciążenia serwera, bazy danych, sieci lub wszystkiego innego. W ten sposób otwiera się na atak DoS bez odpowiednich zabezpieczeń. Jednak autoryzacja jest mechanizmem, za pomocą którego system określa poziom dostępu do systemów kontrolowanych przez konkretnego (uwierzytelnionego) użytkownika. System zarządzania bazą danych można opracować, aby umożliwić niektórym osobom zbieranie informacji z bazy danych, ale nie zmieniać danych przechowywanych w bazie danych, jednocześnie umożliwiając innym osobom zmianę informacji, na przykład, które mogą być lub mogą nie być powiązane do scenariusza internetowego. Uwierzytelnianie może być przetwarzane z kontekstem zapytań. Podstawową ideą jest to, że do aplikacji można wstrzyknąć dowolny kod, który jest następnie przesyłany do żądania, dzięki czemu autoryzacja przez firmę deweloperską może być bardzo dokładnie kontrolowana. Jest to bardzo bezpieczny system, który jest prawdopodobnie znacznie silniejszy niż inne rozwiązania problemów wstrzykiwania SQL i Langsec. Jednak proponowana jest prosta, ale ekspresyjna technika zwana testowaniem odchyleń, która automatycznie wyszukuje anomalie w sposobie obsługi schematu. Technika wykorzystuje zestaw reguł odchyleń do wprowadzenia istniejącego przypadku testowego i automatycznie generuje wariacje z przypadku testowego. Celem testowania odchyleń jest zwiększenie pokrycia testami i wsparcie programistów w ich implementacjach GraphQL i API w znajdowaniu możliwych błędów. Dostępna jest nowa struktura koncepcyjna dostępu do danych przez Internet, która jest szeroko stosowana w różnych aplikacjach. Dzięki tej architekturze klient może uzyskać dane po stronie serwera, zmniejszając liczbę aplikacji sieciowych i unikając nadmiernego gromadzenia lub przechwytywania danych. Graficzne bazy danych zostały przedstawione przez autorów jako realne miejsce do przechowywania danych klinicznych i wykresów jako mechanizm filtrujący do egzekwowania lokalnych polityk dotyczących danych, co gwarantuje prywatność w transakcjach dotyczących danych medycznych.

Blockchain (rozproszone księgi)

Technologia Blockchain jest jedną z możliwych podstaw do zapewnienia stabilnego protokołu dla niezależnych działań biznesowych. Blockchain to kolejna technologia I4.0, która stała się bardzo popularna w innych dziedzinach, takich jak finanse, i ma potencjał, aby zapewnić wyższy poziom przejrzystości, bezpieczeństwa, zaufania i wydajności w łańcuchu dostaw oraz umożliwić korzystanie z inteligentnych kontraktów. Zakres tej sekcji dotyczącej technologii blockchain znajduje się w kontekście I4.0. Wielu badaczy wdrożyło ostatnio zdecentralizowane rozwiązanie blockchain, które chroni prywatność i przeprowadza audyty, aby zapewnić bezpieczną komunikację między agentami i pomóc w opracowaniu odpowiednich rozwiązań zmieniających warunki pracy. Ponadto blockchain służy do odbierania, walidacji i udostępniania danych inwentaryzacyjnych zebranych z bezzałogowych statków powietrznych (UAV) zainteresowanym stronom oraz organizowania bezpiecznej interakcji między niezależnymi agentami. W podobny sposób zwrócono uwagę na zmniejszenie obciążenia i opóźnienia pakietów oraz zwiększenie skalowalności BC w porównaniu z różnymi poziomami bazowymi, aby umożliwić rozwój odpornych, odpornych na awarie aplikacji IoT i oprogramowania pośredniczącego w łańcuchu bloków. Jednak autorzy zorganizowali system komunikacji między agentami w parze, wykorzystując zdecentralizowaną technologię blockchain ethereum i inteligentne kontrakty. Przedstawiono również architekturę komunikacyjną, która obejmuje zarówno blockchain, jak i inteligentne kontrakty, wraz z rozwojem UAV dla aplikacji inwentaryzacyjnych i identyfikowalności opartych na RFID. Dodatkowo rozwijane jest podejście BCT do traktowania wiarygodności firm w postaci inteligentnych kontraktów jako tekstu. Ponadto opracowywany jest model wykorzystujący systemy blockchain i wieloagentowe w sieci podmiotów do pomocy w reprezentowaniu podmiotu i wspomagania decyzji poprzez dostarczanie dodatkowej wiedzy. Aby zapewnić egzekwowanie szczegółowych zasad kontroli dostępu, zaprezentowano również oparty na blockchain system wzajemnego uwierzytelniania BSeIn. W ostatnich latach wprowadzono architekturę IoT opartą na blockchain, która zapewnia lekkie i zdecentralizowane bezpieczeństwo i prywatność. Autorzy zaproponowali również sposób zarządzania urządzeniami IoT za pomocą platformy komputerowej Ethereum. Praca , hierarchiczna struktura i rozproszone zaufanie w celu zachowania bezpieczeństwa i prywatności w BC, stanowi podstawę proponowanych ram i sprawia, że są one lepiej dostosowane do specyficznych wymagań Internetu Rzeczy. Proponuje się lekki, skalowalny BC dla IoT, algorytm konsensusu przyjazny dla IoT, który eliminuje potrzebę rozwiązania zagadki przed dodaniem bloku poprawy do BC. Struktura i funkcjonalność PlaTIBART, to platforma do rozwoju, wdrażania, wykonywania, zarządzania i testowania ITBA dla transaktywnych aplikacji blockchain IoT z wielokrotnym testowaniem. Ponadto obecne protokoły blockchain zaprojektowane dla sieci IoT są najnowocześniejsze. Wydajny zdecentralizowany mechanizm uwierzytelniania zwany bańkami zaufania. Ponadto w ramach prac przeanalizowano aktualne trendy w badaniach nad podejściami BC i wykorzystaniem technologii w środowisku IoT. Podobnie architektura umożliwiająca bezpieczne aktualizacje oprogramowania układowego w rozproszonej zaufanej sieci IoT przy użyciu łańcucha bloków.

Sieć definiowana programowo

Sieć definiowana programowo (SDN) to technologia, która może efektywnie zarządzać całą siecią i przekształcić złożoną architekturę sieci w prostą i łatwą w zarządzaniu. SDN oznacza, że jednostka sterująca sieci jest fizycznie oddzielona od urządzenia przekazującego, w którym płaszczyzna sterowania zarządza kilkoma urządzeniami. SDN będzie prawdopodobnie jedną z najważniejszych technologii w I4.0, umożliwiającą programowe monitorowanie architektury sieci, umożliwiając zmianę dostępu do sieci na żądanie. Różne badania wykazały, że SDN lub IIoT definiowany programowo ma wpływ na podejścia, a wiele badań jest prowadzonych przy użyciu sieci obsługujących SDN w celu tworzenia wysoce skalowalnych i elastycznych sieci przy jednoczesnym dostosowywaniu ich do zmian w środowisku sieciowym. Ponadto skrócono czas przesyłania danych i poprawiono wrażenia użytkownika w aplikacjach wrażliwych na opóźnienia. Ponadto zapory ogniowe ograniczają narażenie na przemysłowe urządzenia sterujące, dzięki czemu minimalizowane są zagrożenia bezpieczeństwa. Do zarządzania urządzeniami fizycznymi i zapewnienia interfejsu do wymiany informacji proponuje architekturę IIoT definiowaną programowo. Problemy skalowalności kontrolerów w architekturze SDN, organizuje dyskusję na temat płaszczyzny kontroli skalowalności na dwa szerokie podejścia: podejścia odnoszące się do topologii i podejścia odnoszące się do mechanizmów. Poza tym autorzy zaproponowali metaheurystyczny algorytm ewolucyjny (PACSA-MSCP), który jest oparty na równoległej wersji kolonii mrówek max-min, wykorzystującej asynchroniczny algorytm symulowanego wyżarzania. Metodologia wdrażania przemysłowego, energooszczędnego czujnika bezprzewodowego IIoT węzły z myślą o trójwarstwowej architekturze szkieletowej IIoT centrum danych. Podejście oparte na danych, które wykorzystuje niezmienniki wykrywania anomalii, zostało opracowane na stanowisku testowym uzdatniania wody, które ma identyfikować i wykrywać ataki integralności . Ponadto przedstawia kilka zagrożeń bezpieczeństwa rozwiązanych przez SDN oraz nowe zagrożenia wynikające z wdrożenia SDN. Praca autorów Hy-LP - hybrydowy protokół i framework dla sieci IIoT. Hy-LP umożliwia bezproblemową i lekką interakcję z inteligentnymi urządzeniami IIoT i między nimi w ramach wdrożeń międzydomenowych i wewnątrzdomenowych. Zdefiniowana programowo architektura IIoT proponuje, aby tryb adaptacyjny można było wybrać w obliczeniach mgły przy użyciu opartych na trybach obliczeniowych sekwencji wykonawczych CMS i ASTP. Złożone podejście do ochrony ataku IIoT Command przedstawiono w [86] poprzez opracowanie lekkiego schematu uwierzytelniania w celu zapewnienia tożsamości nadawcy. Autor [87] zaproponował platformę testową opartą na SDN i połączoną ontologię cyberbezpieczeństwa i odporności na ataki, które mają być wykorzystane w wymaganiach dotyczących przechwytywania etapów projektowania sieci wirtualnej. W [88] zaproponowano architekturę SDIN, która uwzględnia istniejące wady IIoT, na przykład wykorzystanie zasobów, przetwarzanie danych i kompatybilność systemu. Zaproponowano heterogeniczną, hierarchiczną i wielopoziomową architekturę komunikacji i inteligentną dystrybucję danych sterowaną krawędzią (ang. edge-driven Intelligent Data Distribution) Ponadto pewne prace wprowadziły pojęcie SDCM do promowania produkcji opartej na chmurze i innych filarów przemysłu 4.0 poprzez zwinność, elastyczność i zdolność adaptacji przy jednoczesnym minimalizowaniu różnych złożonych problemów. Infrastruktura definiowana programowo jest następnie używana w środowisku sieciowym w I4.0. Ponadto badacze ISD 4.0 badają SDN, ponieważ można go inteligentnie wykorzystać do automatyzacji wielu zadań, takich jak zarządzanie użytkownikami, routing, nadzór, kontrola, bezpieczeństwo i konfiguracja, nieograniczonych przez innych. Podobnie architektura sieci z obsługą SDN i MEC, obejmująca różne rodzaje technologii dostępowych, została zaproponowana w celu zapewnienia komunikacji o niskiej prędkości i wysokiej niezawodności. Ponadto wprowadzno nowy SDN Firewall, który automatycznie stosuje standardową architekturę, bez wpływu na elastyczność sieci.

Uwierzytelnianie wieloskładnikowe

Aby zapewnić bezpieczne środowisko w I4.0, aplikacje cyberbezpieczeństwa odgrywają ważną rolę w branżach, aby zapobiegać brakom właściwości bezpieczeństwa i przezwyciężać powszechne ataki (np. DoS, replay attack, MiTM). Niektóre z technik uwierzytelniania stosowanych w przemysłowym IoT omówiono w następujący sposób:

Kerberos

Kerberos to protokół do uwierzytelniania klienta i serwera przez niezabezpieczone połączenie sieciowe, w którym mogą się wzajemnie uwierzytelniać [90]. Jest to technologia, która umożliwia i zabezpiecza uwierzytelnianie w otwartych i rozproszonych sieciach. Kerberos zwrócono ostatnio uwagę na solidność zabezpieczeń dostarczaną przez wielu badaczy i bezpieczną komunikację, aby uniemożliwić atakującym dostęp do wielu komputerów. Był więc odporny na ataki i wydajny czas i przestrzeń, aby sprostać wymaganiom Internetu Rzeczy. Jednakże wynalazek dotyczy wielostopniowego systemu bezpieczeństwa i metodologii zaprojektowanej w celu ograniczenia nieautoryzowanego dostępu do danych w proponowanym środowisku sterowania przemysłowego]. Ponadto zaproponowano protokół uwierzytelniania dla celów biometrycznych Kerberos dla aplikacji m-commerce. Ramy inżynierii protokołów zostały również wprowadzone aby umożliwić ustrukturyzowaną, formalną i interoperacyjną definicję oprogramowania i sprzętu, architektury, projektowania i rozwoju, konfiguracji, dokumentacji i konserwacji. Ponadto autorzy opisali projekt i implementację przy użyciu trzypoziomowego uwierzytelniania Kerberos w celu zapewnienia uwierzytelniania systemu inteligentnego domu poprzez IoT. Protokół wykorzystywał AS i KDC, aby dodać do niego Expanded-Kerberos, zaproponowano wydajny i bezpieczny protokół do ochrony prywatności i wrażliwych danych użytkowników. Ponadto przedstawiono schemat uwierzytelniania stron trzecich, z którego korzysta Kerberos. Dzięki temu użytkownicy mogą sprawdzać autentyczność i integralność zapisanych danych w chmurze za pomocą protokołu Kerberos w zaprojektowanym schemacie. Ponadto, framework CoAP, który rozwiązuje drobnoziarnisty problem kontroli dostępu, wykorzystuje pomysły innych systemów kontroli dostępu, takich jak Kerberos i RADIUS, i integruje oba z protokołem CoAP w celu uzyskania ramy kontroli dostępu dla IoT. W tym samym kontekście bezpieczeństwa sieci zaproponowano mechanizm podwójnego uwierzytelnienia w systemie Kerberos.

Uwierzytelnianie dwuskładnikowe

Uwierzytelnianie dwuskładnikowe zazwyczaj wymaga, aby użytkownik dostarczył czynnik wiedzy lub dwa lub więcej (np. coś, co użytkownik wie, takie jak hasło, odpowiedź na pytanie), nieodłączny czynnik (np. wiedza użytkownika, taka jak odcisk palca, skan siatkówki , inne dane biometryczne) oraz współczynnik posiadania (np. coś, co posiada użytkownik, np. klucz, token) . Mechanizm ten jest uzasadniony z punktu widzenia bezpieczeństwa i użyteczności przy zachowaniu wysokiej wydajności dla wszystkich operacji oraz zapewnieniu uwierzytelniania typu end-to-end pomiędzy urządzeniami/aplikacjami IoT. Ponadto zapewnił dużą poufność, że adwersarze nigdy nie mogą namierzyć żadnego pojazdu. Zapewniono kilka podstawowych funkcji bezpieczeństwa, co wiąże się z niższymi kosztami przetwarzania, komunikacji i przechowywania. Ta sekcja ogólnie odnosi się do systemów uwierzytelniania, a dokładniej systemów i procesów zapewniających uwierzytelnianie dla systemów dwuskładnikowych w różnych typach infrastruktury i środowiskach operacyjnych w infrastrukturze krytycznej. Niemniej jednak, nowy przyjazny dla użytkownika system uwierzytelniania dwuskładnikowego (DoubleSec) dla urządzeń mobilnych został również opracowany w celu projektowania architektury bezpieczeństwa, która łączy i wykorzystuje najlepsze praktyki w kryptografii i protokołach bezpieczeństwa. Zbyt wiele systemów, metod i nośników czytelnych dla komputera do dwuskładnikowego uwierzytelniania solidnego systemu w infrastrukturze operacyjnej również przedstawiono. Podobnie, trójstronne uzgadnianie dla dwukierunkowego uwierzytelniania między węzłami czujników i ustanowienie bezpiecznego kanału komunikacyjnego zostało zaproponowane i zaimplementowane . Ponadto autorzy przedstawili schemat uwierzytelniania dwuskładnikowego z wykorzystaniem połączenia QR, PIN-u i posiadania smartfona. Zaproponowano niedawno wydajny lekki schemat OTP dla dwuskładnikowego uwierzytelniania między urządzeniami, aplikacjami i komunikacją IoT, oparty na IDE (IBE ECC). Ponadto wprowadzono nowy, oparty na chmurze, wdrażający IIoT schemat uwierzytelniania użytkowników oparty na biometrii (BP2UA). W dziedzinie badań dwuczynnikowych dla przemysłowych sieci czujników bezprzewodowych (WSN), autorzy poczynili znaczący krok naprzód w przełamaniu błędnego cyklu "break-fix break-fast". Nowy protokół uwierzytelniania dwuskładnikowego na współczynniku szumu PUF dla urządzeń IoT, jest również zachowany w odniesieniu do prywatności. Oprócz dwóch czynników uwierzytelniania IoT, autorzy przedstawili infrastrukturę biometrycznego kompleksowego rozwiązania bezpieczeństwa. Schemat uwierzytelniania 2FLIP został później zaproponowany w [102], wykorzystując dwie główne metody: decentralizację CA i decentralizację hasła biologicznego 2FA. Co więcej,zaproponowano SoundAuth, mechanizm 2FA, który może niezawodnie wykrywać kolokację obu użytkowników.