Rolnictwo i Internet



Rolnictwo i Internet

Internet zrewolucjonizował i przekształcił rolnictwo w XXI wieku ze względu na szybki rozwój dostępu do informacji i jej wykorzystania. Rolnicy i farmerzy na całym świecie polegają na połączeniach internetowych i jego aplikacjach do zarządzania różnymi aspektami swojej działalności w zakresie produkcji rolnej, w tym poziomów nakładów (nasion i paszy), cen towarów i rynków, wydajności sprzętu (systemy nawadniające), optymalnych czasów sadzenia i zbiorów ( teledetekcja) i cogodzinne aktualizacje pogody (rolnicze stacje meteorologiczne). Takie działania pozwalają im minimalizować koszty, maksymalizować zyski oraz konkurować lokalnie i globalnie o kupujących i konsumentów, którzy coraz bardziej chcą wiedzieć, gdzie i jak produkowana jest ich żywność. Nabywcy i konsumenci rolni również korzystają z witryn i aplikacji internetowych do celów edukacyjnych i podejmowania decyzji o zakupie. Rolnictwo przemysłowe opiera się na technologiach skoncentrowanych na danych i Internecie. W tym wpisie najpierw omówiono, w jaki sposób Internet i powiązane technologie zmieniły praktyki rolnicze i agrobiznes. Następnie analizuje rozwój inteligentnego rolnictwa, wpływ internetu na rynki i sprzedaż oraz wykorzystanie Internetu do komunikacji o rolnictwie. Wreszcie omawia trendy i przewidywane zmiany w rolnictwie. Ponieważ Internet rozwija się jako globalny interfejs obecny w prawie wszystkich dziedzinach życia, żaden sektor gospodarczy nie pozostaje niezmieniony. Rolnictwo nie jest wyjątkiem. Programy i aplikacje, które początkowo były niejasne, stały się powszechne, a sprzęt przewodowy i modemy telefoniczne zostały zastąpione bezprzewodowymi urządzeniami przenośnymi działającymi w czasie rzeczywistym, które umożliwiają rolnictwo precyzyjne (PA) lub inteligentne rolnictwo. Ponieważ ciągniki i kombajny żniwne w krajach rozwiniętych, takich jak Niemcy i Stany Zjednoczone, używają GPS, zdjęć satelitarnych i map systemu informacji geograficznej, rolnicy mogą przesyłać dane do swoich maszyn, aby wysiewać nasiona, nawadniać uprawy, stosować nawozy i zbierać plony z ich kukurydzy; znajdują się one jednocześnie w pierwotnym sektorze wydobywczym i sektorze opartym na wiedzy, zbudowanym na umiejętnościach i informacjach. Zdumiewająca ilość kodu jest niezbędna do wielu obliczeń pokładowych wykonywanych w procesach rolniczych, takich jak dodawanie lub odejmowanie nasion do sadzarki lub aplikatora nawozów i herbicydów, nakazanie ciągnikowi ruchu w lewo lub w prawo w przypadku prostych rzędów, pomiar wilgotności ziarna oraz przesyłanie lub pobieranie danych do chmury lub telefonu komórkowego lub innego urządzenia pamięci masowej. Działania związane z hodowlą mogą obejmować podobne praktyki z indywidualną identyfikacją elektroniczną lub biometrycznymi kolczykami usznymi, detektorami ruchu i płodności oraz podobnymi urządzeniami, które mogą rejestrować cechy i zachowania zwierząt, które dostarczają danych zarówno hodowcom, rolnikom, jak i kupującym. Niektóre gospodarstwa rolne nie korzystają z narzędzi internetowych ze względu na koszty, brak dostępu lub bariery kulturowe, jak może to mieć miejsce w przypadku gospodarstw menonickich lub amiszów oraz w krajach rozwijających się.

Agrobiznes

Kraje rozwinięte zazwyczaj wspierają duże społeczności agrobiznesu, w których rolnicy i farmerzy mogą inwestować w łączenie i wykorzystywanie możliwości Internetu w ich działalności w celu poprawy jakości produktów i zwiększenia zwrotu z inwestycji. Agrobiznes, termin ukuty w 1957 roku przez Johna Davisa i Raya Goldberga z Uniwersytetu Harvarda w celu opisania rolnictwa przemysłowego lub komercyjnego, koncentruje się na produkcji monokulturowej, niskim nakładzie pracy ludzkiej, wysokim stopniu mechanizacji i sprzedaży na rynku globalnym. Dodatkowymi czynnikami są duży wybór konsumentów i brak niedoboru żywności. Produkcja jednoprodukcyjna i praca ludzka mogą być najmniej opartymi na Internecie elementami agrobiznesu. Zmniejszyła się konieczność zatrudniania dodatkowej sezonowej lub migrującej siły roboczej do zbioru ogórków lub jazdy konnej i dostarczania bydła na rynek. Zamiast tego zmechanizowani i zrobotyzowani zbieracze mogą wykonywać pracę szybciej i wydajniej. Drony, małe bezzałogowe statki powietrzne i satelity mogą sprawdzać gotowość upraw polowych, a helikoptery z jednym pilotem mogą zaganiać bydło z pastwisk do zagród w celu transportu do rzeźni i rzeźni. Pracownicy fizyczni są nadal potrzebni na różnych etapach łańcucha produkcji żywności, ale ogólnie potrzeba mniej pracowników niż w przeszłości. Krytyczną rolą optymalnego zarządzania rolnictwem jest rosnące zapotrzebowanie na wykwalifikowanych technicznie pracowników rolniczych, posiadających umiejętności w zakresie oprogramowania i wiedzy o danych. Dane i informacje przesyłane i pobierane z Internetu napędzają proces podejmowania decyzji w rolnictwie na każdą skalę. Międzynarodowe i ponadnarodowe korporacje, takie jak ConAgra, Tyson, Cargill, ChemChina, Syngenta, BayerAG i Monsanto opracowują, testują i sprzedają szeroką gamę produktów i usług rolniczych, które są specjalnie opracowane w celu zaspokojenia potrzeb żywieniowych, klimatycznych i rolniczych. Specjalizacjami mogą być korporacyjne spółki zależne nastawione na monoprodukcję, zarówno do upraw rzędowych, jak i do produkcji pojedynczych zwierząt, w oparciu o wcześniejsze wyniki produktów i wymagania rynkowe. Intensywnie korzystają z Internetu, aby kontaktować się z producentami, kupującymi i konsumentami na całym świecie w sprawie ich produktów rolnych i usług. Główne światowe korporacje sprzętowe, takie jak John Deere (które poprzez swoją spółkę zależną opracowały system nawigacji opartej na GPS dla ciągników na początku XXI wieku), Vermeer, AGCO (Fendt), Valmont, Claas i CHN Global (New Holland) poszukują linii produktów do ciągników , kombajny i pakiety dla rolnictwa precyzyjnego, takie jak stacje pogodowe lub sondy wilgotności gleby, które są projektowane, testowane i sprzedawane na całym świecie. Prawie wszystkie linie są zaawansowane technologicznie i połączone z GPS i Internetem. PA, precyzyjna hodowla zwierząt (PLF) i rolnictwo zintegrowane opierają się na mechanizacji, aby osiągnąć cele zarządzania gospodarstwami w opłacalny i przyjazny dla środowiska sposób, wykrywając płaskowyże produktywności i budując historyczne poziomy odniesienia. Technologie mogą pomóc w podejmowaniu decyzji w rolnictwie, pomagając w identyfikacji rodzajów gleby, wydajności nasion i paszy, plonów i zapotrzebowania na wodę. Linia produktów New Holland obejmuje (a) wyświetlacze; b) zarządzanie danymi i oprogramowanie; c) naprowadzanie i sterowanie; d) roztwory do zbioru; (e) odbiorniki, modemy i kontrolery; (f) częstotliwość i kontrola sekcji; g) zarządzanie danymi i telematyka; oraz h) źródła korekty. Można je stosować do planowania, siewu i sadzenia, opryskiwania i rozprowadzania, zbioru, drenażu i niwelacji terenu.

Inteligentne rolnictwo

PA powstał po części jako odpowiedź na poważne zmiany w technologii rolniczej, które miały miejsce w latach osiemdziesiątych. PA łączy technologię i higogeomorfologię, skrzyżowanie atrybutów wzrostu upraw, topologię, geomorfologię i hydrologię. Te i inne czynniki można monitorować i mapować na skalę polową i rolniczą za pomocą GPS, globalnego systemu nawigacji satelitarnej i innych narzędzi, które z kolei umożliwiają ukierunkowaną obserwację, stosowanie i podejmowanie decyzji. Innymi słowy, zebrane dane przyczyniają się do systemu wspomagania decyzji, który przynosi korzyści uprawom, szerszemu środowisku ekologicznemu i rozszerzonej zrównoważoności. Czteroetapowy proces zbierania danych PA- (1), (2) zmienność pola, (3) reakcja strategiczna i (4) wdrażanie - zależy od nowych technologii informacyjno-komunikacyjnych, które z kolei są uzależnione od Internetu. Podobną podstawą dla PLF jest technologia, dzięki której zwierzęta mogą być indywidualnie monitorowane w mleczarniach i innych miejscach pod kątem kulawizny, chorób, reprodukcji i innych warunków, które mają wpływ na rozwój zwierząt. Te technologie mogą być połączone z Internetem w celu zarządzania. Rolnictwo zintegrowane ewoluowało od strategii zintegrowanej ochrony przed szkodnikami opracowanej w latach pięćdziesiątych XX wieku do jej obecnej iteracji, która łączy nowoczesne technologie i Internet z tradycyjnymi praktykami. Różni się skalą od PA i PLF, zwykle występuje w mniejszych przedsięwzięciach rolniczych i jest ściślej powiązany z ideami zrównoważonego rozwoju, które obejmują czynniki ekonomiczne i społeczne oraz ochronę środowiska. Wspólnym celem wszystkich z nich jest rentowność. Większość systemów PA ogranicza się do wybranych pól lub lokalizacji, co oznacza, że cała aplikacja na farmie nie jest jeszcze w pełni rozwinięta. Inteligentne metody i technologie rolne, wykorzystywane głównie na gruntach ornych, ale coraz częściej w przypadku zwierząt gospodarskich, rozprzestrzeniają się z Ameryki Północnej do Europy, Ameryki Łacińskiej (w szczególności Brazylii), Australii i innych krajów wraz z udoskonaleniami, zwiększeniem dostępu oraz poprawą szkolenia i adopcji. Różne podmioty promują inteligentne rolnictwo i jego technologie, a także zapewniają zasoby internetowe i lokalne. Dostarczają informacji na temat produktywności, zrównoważonego rozwoju, odporności, odpowiedzialnego zaopatrzenia, energii, regionów globalnych i technologii. Przykłady obejmują Park Rolniczo-Technologiczny Uniwersytetu Cornell, Otwarte na śniadanie Kellogga, Klimatyczno-inteligentne rolnictwo, Granular Organizacji Narodów Zjednoczonych ds. Wyżywienia i Rolnictwa oraz EU-PLF Unii Europejskiej (UE). W 2016 r. stan Kansas pilotował trzy farmy wykorzystujące technologię wodną, starając się zmniejszyć zużycie wody w rolnictwie; są to w pełni zautomatyzowane przedsięwzięcia PA; Dane w czasie rzeczywistym są przesyłane do witryny internetowej, która zawiera raporty dotyczące zużycia wody, poziomu wód gruntowych i wilgotności gleby. Te projekty nie byłyby możliwe bez internetu. Wyposażone w satelity i kamery pakiety do monitorowania upraw za pomocą dronów z eleaf, Astrium-Geoimage, Geo-Sys, Gamaya i Cropio zapewniają wskaźniki wegetacji upraw zarówno dla pola, jak i upraw przez cały sezon wegetacyjny. Terra Bella, którą Alphabet, spółka macierzysta Google, sprzedała Planet Labs na początku 2017 r., Wykorzystuje obrazy satelitarne o wysokiej rozdzielczości, w tym zdjęcia upraw, ułatwiając przejście rolnictwa do świata dużych zbiorów danych. Wszystkie te zasoby są zależne od Internetu, ponieważ przedstawiają globalną i lokalną perspektywę, uczą najlepszych praktyk zarządzania, dostarczają dokumenty, ułatwiają zamawianie sprzętu i odpowiadają na wiele innych potrzeb, które mogą być dostępne tylko online.

Rynki i sprzedaż

Rolnicy i farmerzy wykorzystują Internet do informowania o swoich decyzjach dotyczących sprzedaży i zakupu, gdy uczestniczą w rozwijającym się rynku e-commerce. Ponadto narzędzia techniczne i mechaniczne traktorów wyposażonych w GPS, technologia zmiennej prędkości, monitory w czasie rzeczywistym, obrazy satelitarne i wiele innych pozwalają rolnikom i hodowcom na dostarczanie wysokiej jakości produktów, które mają paszport lub łańcuch wartości. Paszport lub łańcuch wartości można zastosować na poziomie terenu lub z pojedynczym zwierzęciem i można je wykorzystać na przykład do wykazania zgodności z politykami federalnymi. Zawiera dokumentację dotyczącą decyzji i kroków podjętych na podstawie tego, jak uprawiano roślinę rzędową, kiedy i jak otrzymywała wodę, czy nawozy i pestycydy które zostały wykorzystane, a także inne środki do jego produkcji. W przypadku zwierząt gospodarskich można to osiągnąć za pomocą elektronicznej identyfikacji lub biometrycznego kolczyka usznego (z wykorzystaniem technologii RFID [identyfikacja radiowa] lub UHF [ultra-wysoka częstotliwość]), która może obejmować linię krwi zwierzęcia, wagę urodzeniową, mieszankę paszową, szczepienia i inne zajęcia. Niezależnie od tego, czy chodzi o identyfikację biometryczną, elektroniczną, czy identyfikację stada, kolczyki w uszach pomagają producentom rolnym w zarządzaniu stadem i indywidualnym rozwoju poprzez numer identyfikacyjny zwierząt. Kody kreskowe można skanować podczas szczepień i innych procedur, dokumentując łańcuch wartości zwierzęcia. Dla tych, którzy poszukują ekologicznych, niezmodyfikowanych genetycznie alternatyw lub zrównoważonych praktyk rolniczych, dane są nieocenione i można je wykorzystać w programach certyfikacji. Aglomeracja korporacyjna Silicon Prairie (głównie Wielkie Równiny Stanów Zjednoczonych i wybrane stany środkowo-zachodnie), obejmująca korytarz zdrowia zwierząt w Kansas City (między Manhattanem w Kansas i St. Louis w stanie Missouri), stanowiła 56% światowego zdrowia zwierząt, diagnostyki oraz sprzedaż karmy dla zwierząt domowych w 2014 r. Narzędzia łańcucha wartości, które są wdrażane z najlepszymi praktykami zarządzania i na potrzeby najlepszych praktyk zarządzania, łączą producentów z większymi globalnymi rynkami towarowymi, a także lokalnymi, a narzędzia te są zależne od Internetu w zakresie danych, wymiany informacji i opcji marketingowych. Rynki towarowe i związane z nimi działania są ściśle monitorowane za pomocą Internetu. Światowe rynki towarowe zwracają uwagę na rynki amerykańskie, które są powiązane z dotacjami, łańcuchami żywnościowymi i kapitałem wysokiego ryzyka poprzez wymianę informacji przez Internet. Eksport produktów rolnych z USA stanowi na ogół 20% całej żywności będącej przedmiotem handlu międzynarodowego; ich wartość w 2014 roku wyniosła 151 mld USD. Rynki i giełdy towarowe działają w wielu skalach i opierają się na handlu produktami i kontraktach. Produkty rolne (towary miękkie) i surowce (towary twarde) są normą. Kontrakty terminowe (produkt dostarczany w późniejszym terminie) są powszechne i służą do ustalania cen dla dostawców i nabywców. Wahania na rynku są spowodowane popytem, podażą i nieprzewidzianymi wydarzeniami, takimi jak katastrofalne zjawiska pogodowe, które mogą wpływać na ceny. Dotacje rządowe to ceny minimalne lub kontrole cen, które określają cenę minimalną dla produktów takich jak mleko, boczek wieprzowy, sorgo lub miód. Mogą sztucznie zawyżać lub obniżać ceny w globalnej gospodarce kapitalistycznej. Stany Zjednoczone i inne kraje wykorzystują dotacje, aby wspierać stabilność gospodarczą i pomagać rolnikom i farmerom w utrzymaniu rentowności rolnictwa. Nowa Zelandia jest jedynym rozwiniętym krajem, który nie ma krajowych subsydiów dla rolnictwa. Międzynarodowe korporacje, takie jak ConAgra, które są zainteresowane kontrolowaniem całego łańcucha żywnościowego, od nasion do sklepu spożywczego, są zainteresowane łańcuchami wartości i rynkami, inwestując znaczne zasoby w celu zapewnienia wydajności i zdrowszych finansów korporacyjnych. Czołowe światowe firmy spożywcze kontrolują światową żywność, a ich polityka korporacyjna ma ogromny wpływ na dietę ludzi, metody produkcji, sprzedaż produktów rolnych i podejmowanie decyzji przez rolników. Firmy te obejmują Associated British Foods (Wielka Brytania), Group Danone (Francja), General Mills and Mars (Stany Zjednoczone), Nestlé (Szwajcaria), Unilever (Wielka Brytania / Holandia) i JBS (Brazylia). Inwestorzy wysokiego ryzyka mogą obserwować rynki towarowe i inne, aby zidentyfikować nisze inwestycyjne dla innowacji rolniczych, takich jak sprzedaż żywności online, robotyka lub PA. Internet jest kluczowym ogniwem w rolniczych łańcuchach wartości. Zarząd giełd handlowych i kupieckich w miastach, w tym w Chicago, Minneapolis, Nowym Jorku, Tokio, Nairobi, Zurychu i Frankfurcie, śledzi dane rynkowe w czasie rzeczywistym. Powiadamiają partnerów, kupujących i sprzedających za pośrednictwem swoich witryn internetowych i innych narzędzi komunikacji internetowej, takich jak aplikacje do telefonów komórkowych i kalkulatory rynkowe, dostarczając wszystkim zainteresowanym stronom informacje i dane, które pomagają w najlepszych praktykach zarządzania, sprzedaży i pozytywnych zwrotach. Te rynki towarowe i związane z nimi interakcje nie byłyby tak wydajne ani opłacalne bez Internetu. Utrzymywanie, znajdowanie i śledzenie rynków wymaga od rolników, kupujących i sprzedawców zwracania szczególnej uwagi na ceny towarów, pogodę, programy, fuzje przedsiębiorstw i inne powiązane działania. Dążenia te można osiągnąć szybko i niedrogo dzięki Internetowi, mocniej osadzając go w rolnictwie

Komunikacja rolnicza i media

Media społecznościowe i Internet stanowią platformę dla osób fizycznych, agencji i organizacji do odkrywania i wymiany pomysłów na temat rolnictwa oraz jego powiązań gospodarczych i środowiskowych. Agronomi, biura rolnicze, bankierzy, sąsiedzi, uniwersytety, państwa, organizacje międzynarodowe (np. Światowy Program Żywnościowy ONZ) i organizacje pozarządowe - wszyscy oni wykorzystują media społecznościowe przez Internet. Wiele uniwersytetów oferuje określone programy, które koncentrują się na komunikacji i dziennikarstwie rolniczym (np. University of Oklahoma, Purdue University, University of Georgia). Podobnie jak w przypadku każdej specjalizacji w zakresie komunikacji, ważne jest wykorzystanie zasobów Internetu do przekazywania treści i informacji. Informacje o rolnictwie są przekazywane za pośrednictwem aplikacji i platform medialnych, takich jak Twitter, Facebook, YouTube i chiński komunikator mobilny WeChat oraz witryna mikroblogowa Sina Weibo; podcasty; blogi; oraz czytniki RSS, takie jak Feedly, które udostępniają użytkownikom aktualizacje witryn internetowych. Harvest Public Media, współpraca sprawozdawcza między publicznymi stacjami radiowymi w środkowo-zachodnich Stanach Zjednoczonych, obejmuje tematy związane z rolnictwem, w tym żywność, paliwo, zdrowie, politykę i imigrację w artykułach telewizyjnych oraz w artykułach internetowych, postach na blogach i filmach. Producenci rolni mogą oglądać filmy na YouTube o konfiguracji oprogramowania i sprzętu, testach terenowych i adaptacjach na miejscu, przesłuchaniach politycznych i opiniach. Grupa ETC, kanadyjski think tank, zwraca szczególną uwagę na agrobiznes i technologie rolnicze oraz ich wpływ na kraje rozwijające się, udostępniając swoje wnioski na swojej stronie internetowej, Facebooku, Twitterze i blogach. Korzysta z zasobów Internetu, aby poszerzyć swoją publiczność i program. Czasopisma branżowe, takie jak CropLife, używają Twittera i Facebooka oraz sugerują inne konta na Twitterze, które sprytnie praktykujący rolnicy powinni śledzić, na przykład Danielle Nierenberg (@DaniNierenberg), która pisze na Twitterze o zrównoważonym rozwoju; Fundacja AgChat (@agchat), która dzieli się punktami widzenia i pomysłami; American Society of Agronomy, Crop Science Society of America i Soil Science Society of America (@ASA_CSSA_ SSSA) na temat agronomicznej gleby uprawnej; i Farmers Edge (@farmers_edge), aby uzyskać informacje na temat PA. Farms.com umożliwia odwiedzającym i użytkownikom wyszukiwanie aplikacji na telefony komórkowe, od biznesu i technologii po hodowlę i pogodę. Seametrics, firma zajmująca się technologią wodomierzy, oferuje listę najpopularniejszych blogów do naśladowania, takich jak Small Farm Central, skupiających się na marketingu i handlu elektronicznym oraz Blog Think Forward Instytutu ds. Rolnictwa i Polityki Handlowej; Silos Społeczny, zapoczątkowany przez dziennikarzy rolniczych do dyskursu rolników i nierolników oraz AgWired dla agrobiznesu. UE używa @Eu_Agri jako swojego konta na Twitterze, a praktycznie każda firma rolnicza, organizacja, oddział, biuro lub dział na wszystkich skalach korzysta z zakresu Internetu, zasobów i mediów społecznościowych w takiej czy innej formie. Mogą przeprowadzać duże kampanie, technologie, sprzęt, programy badawczo-rozwojowe oraz możliwości finansowania i edukacji za pośrednictwem platform mediów społecznościowych, które w innym przypadku dotarłyby do znacznie mniejszej populacji i byłyby droższe bez Internetu. Prawie wszystkie aplikacje i wiele programów ma ograniczoną dostępność poza krajami rozwiniętymi, co podkreśla potrzebę większego dostępu do Internetu w rozwijających się regionach i stanach. Niezależnie od tego, czy chodzi o sektor rządowy, czy prywatny, technologia internetowa jest rozległa, rozprzestrzenia się poza granice sektora gospodarczego, wpływa na skalę geograficzną i wykracza poza tradycyjne użycie. W krajach rozwijających się i na obszarach wiejskich telecentra i telefonia komórkowa (komórkowa) poszerzają możliwości gospodarcze i zachęcają do dzielenia się najlepszymi praktykami, a potrzeba rośnie wraz ze wzrostem stabilności bezpieczeństwa żywnościowego pośród rosnącej liczby ludności na świecie, która ma osiągnąć 9,6 miliarda do 2050 roku. Współcześni producenci rolni nie tylko wykorzystują technologię na swoich polach i na ranczach, ale także korzystają z Internetu, aby być na bieżąco z aktualnymi trendami, produktami i zmianami w przepisach oraz łączyć z producentami, organizacjami i przedsiębiorstwami, których rynkiem są producenci rolni. Witryna Departamentu Rolnictwa Stanów Zjednoczonych dostarcza konsumentom informacji na temat polityki i przepisów rządowych, możliwości edukacyjnych, opcji finansowania, praktyk zarządzania, warsztatów, filmów online, dokumentów, danych historycznych i wielu innych zasobów. Departament obejmuje 17 agencji, a jego obszary zainteresowania obejmują żywienie, rozwój obszarów wiejskich, telekomunikację oraz import i eksport.

Agencje rolne innych krajów, takie jak Ministerstwo Przemysłu Podstawowego Nowej Zelandii, Królewskie Towarzystwo Rolnicze Australii i Ministerstwo Rolnictwa Francji, również wykorzystują Internet do rozpowszechniania informacji. Francja zajmuje drugie miejsce jako eksporter produktów rolnych po Stanach Zjednoczonych i jest największym producentem w UE, co daje wiarygodność rozpowszechnianiu inteligentnego rolnictwa w krajach rozwiniętych i zależność krajów rozwiniętych od technologii i Internetu. Zarówno Stany Zjednoczone, jak i Francja są zależne od Internetu, aby pozycjonować się na światowych rynkach. Poszczególne stany w USA mają agencje rolnicze, które prowadzą programy podobne do tych na szczeblu federalnym, a także wykorzystują strony internetowe do rozpowszechniania informacji i oferowania usług. Frenchman Valley Co-op w Nebrasce, Farmers Rice Cooperative of California i Rockbridge Farmers Co-op w Wirginii to lokalne spółdzielnie, które oferują ranczerom i rolnikom paliwo, żywność i inne usługi rolnicze oraz wykorzystują podobne funkcje strony internetowej. Dzisiejsi rolnicy i farmerzy mogą uzyskać dostęp do niezbędnych danych i informacji z telefonu komórkowego, tabletu lub innego urządzenia elektronicznego. Amerykańskie organizacje, takie jak National Corn Growers Association, National Cattlemen's Beef Association, National Sunflower Association i wiele innych, dostarczają informacje swoim członkom online, podobnie jak inne podmioty regionalne i lokalne. Grupy non-profit, takie jak Niemieckie Towarzystwo Rolnicze, Australijskie Międzynarodowe Centrum Bezpieczeństwa Żywności, Oxfam International, Międzynarodowe Towarzystwo Precyzji Rolnictwa i Grupa Konsultacyjna ds. Międzynarodowych Badań Rolniczych wykorzystują Internet do prowadzenia działań informacyjnych i projektów. Członkostwo w organizacjach branżowych może być kluczem do skutecznego zarządzania. Niektóre organizacje i przedsiębiorstwa są bardziej zorientowane na politykę lub nastawione na zysk niż inne, ale niezależnie od ich misji, wszystkie wykorzystują Internet do łączenia się z producentami rolnymi i użytkownikami. Rolnicy lub farmerzy, którzy są członkami określonej organizacji lub subskrybują usługę informacyjną, mogą mieć dostęp do informacji, których inni nie mają, tworząc w ten sposób potencjalną lukę w wiedzy. Pod wieloma względami mówi się, że Internet przełamuje bariery i dostarcza informacji ogromnej liczbie obywateli, ale zastrzeżone informacje, dane i technologia mogą prowadzić do ograniczonego dostępu i potencjalnie mniejszej produktywności rolnictwa, ponieważ przedsiębiorstwa zewnętrzne poszukują przewagi konkurencyjnej w kapitalistycznej gospodarka światowa.

Trendy w rolnictwie i internet rzeczy

Skłonność do innowacji technologicznych w rolnictwie i jego zależność od oprogramowania i Internetu sugeruje przejście w kierunku Internetu rzeczy (IoT), w którym sprzęt, maszyny i dane są połączone i kontrolują funkcje i reakcje innych maszyn, sprzętu i raporty bez bezpośredniego udziału człowieka. Można powiedzieć, że technologia rolnicza zmierza w kierunku "Internetu żywności", biorąc pod uwagę wyrafinowane systemy, które obecnie istnieją i potencjał ich integracji, na przykład irygatory z centralnym obrotem, sondy wilgotności gleby i znormalizowany różnicowy wskaźnik wegetacji. Te trzy systemy mogą określać, kiedy włączyć lub wyłączyć nawadnianie i ile wody dodać do uprawy na podstawie jej znormalizowanego wskaźnika wegetacji różnicy i wyników wilgotności gleby. Praktyki takie jak te mogą pozwolić na większą wydajność i ochronę zasobów, ale mogą nie uwzględniać zobowiązań umownych rolnika dotyczących czasu i sposobu przechowywania danych oraz podejmowania decyzji. Prawa własności, umowy z gospodarstwami rolnymi i ranczami oraz wyniki produkcji można uznać za informacje prywatne i należy je wziąć pod uwagę, gdy rolnictwo staje się bardziej zorientowane technicznie wraz z ewolucją Internetu Rzeczy. Postęp technologiczny w ciągnikach oznacza, że certyfikowani technicy mogą być potrzebni do sprawdzania problemów i dokonywania napraw za pośrednictwem połączeń internetowych lub na miejscu, co sprawia, że producenci rolni polegają na innych źródłach, co raz powszechne każdego dnia umiejętności. Drukarki trójwymiarowe (3D) znajdą również zastosowanie w rolnictwie, jako wygodny sposób wymiany i naprawy części mechanicznych. Ponieważ rolnictwo staje się bardziej zautomatyzowane dzięki autonomicznym ciągnikom, opryskiwaczom, robotom, dronom i małym bezzałogowym statkom powietrznym, fizyczna obecność siły roboczej ulega erozji w wybranych okresach, a podejmowanie decyzji w rolnictwie przez człowieka może odbywać się na plaży nad oceanem lub na alpejskim stoku narciarskim. Ponadto wiele z tych systemów może wymagać dużych zbiorów danych, aby działały z optymalną wydajnością i skalą, jak ma to miejsce w przypadku śledzenia regionalnych zmian klimatycznych, takich jak susze i wpływ na zwierzęta gospodarskie i uprawy. Bez danych z wielu źródeł, zarówno przestrzennych, jak i czasowych, odpowiedzi na IoT mogą być niekompletne, zamiast pomagać w optymalizacji rolnictwa.

Innowacje opracowane w ramach kapitału podwyższonego ryzyka, programów rządowych, inicjatyw uniwersyteckich oraz korporacyjnych programów badawczo-rozwojowych opierają się na sile internetu w zakresie przekształcania rolnictwa. Naukowcy badający rolnictwo przewidują zmiany w obszarach produkcyjnych, w tym w rolnictwie pionowym (metoda uprawy roślin w warstwach ułożonych pionowo); szklarnie; dostosowane rośliny o określonych i ukierunkowanych korzyściach zdrowotnych; technologie wodne, w tym akwaponika (system uprawy roślin w wodzie); i zwiększona wydajność przechowywania żywności. Wśród technologii, które mają odegrać rolę w rolnictwie, są wirtualna rzeczywistość, hologramy, druk 3D, uczenie maszynowe i IoT. Rozwijające się regiony i państwa z ograniczonym dostępem do Internetu, mechanizacji, technologii i najlepszych praktyk stoją przed największymi wyzwaniami związanymi z wykorzystaniem nowych osiągnięć, ale globalny dostęp do telefonów komórkowych i aplikacje oferują możliwości. Kraje rozwinięte, na odwrót, radzą sobie z marnotrawstwem żywności i postcarcity. Konsumenci teraz oczekują bardziej szczegółowych informacji o trajektorii pożywienia z pola na stół. Oczekuje się, że Internet odegra kluczową rolę w radzeniu sobie z wieloma wyzwaniami w rolnictwie, w tym zapotrzebowaniem na żywność na świecie, kwestiami bioetycznymi i zmieniającymi się warunkami środowiskowymi spowodowanymi antropogenicznymi zmianami klimatycznymi.


Powrót

Rozszerzona Rzeczywistość



Rozszerzona rzeczywistość (AR) to technologia, która płynnie nakłada wirtualną zawartość na rzeczywisty świat, którego można doświadczyć jednocześnie. Według Ronalda Azumy, AR to system, który ma trzy cechy: (1) łączy w sobie treść rzeczywistą i wirtualną, (2) jest interaktywny w czasie rzeczywistym oraz (3) jest rejestrowany w trzech wymiarach. Ten wpis dalej definiuje AR, a następnie omawia jego historię, charakterystykę technologiczną i zastosowania. Na koniec przyjrzymy się obszarom przyszłych badań nad rozszerzoną rzeczywistością. Najczęstszym rodzajem doświadczenia AR jest nakładanie wirtualnych obrazów i grafiki komputerowej na rzeczywisty świat. Na przykład gra mobilna Pokémon GO pozwala ludziom zobaczyć wirtualne potwory pojawiające się w widoku kamery na żywo w ich telefonach komórkowych. Jest to zgodne z definicją AR, ponieważ wirtualne potwory pojawiają się w prawdziwym świecie, użytkownik może z nimi wchodzić w interakcje, a wirtualna zawartość wydaje się być utrwalona w przestrzeni. Istnieje wiele innych przykładów AR, takich jak systemy medyczne, które pokazują kości w ciele pacjenta, grafika komputerowa wyskakująca ze stron książek i wirtualne gry w prawdziwym świecie. AR można również zdefiniować w kontekście innych technologii interfejsów. W 1994 roku Paul Milgram ukuł termin rzeczywistość mieszana, aby zdefiniować klasę technologii łączących świat rzeczywisty i wirtualny. Technologie te można zorganizować w kontinuum wirtualności, łącząc całkowicie rzeczywiste środowiska z całkowicie wirtualnymi. Na prawym końcu tego kontinuum znajduje się w pełni immersyjna wirtualna rzeczywistość (VR), a na drugim realne środowisko bez wirtualnej treści. Rzeczywistość mieszana to wszystko pomiędzy, w tym nakładanie treści wirtualnych w świecie rzeczywistym (AR) i dodawanie elementów świata rzeczywistego do VR (wirtualność rozszerzona).

Historia

Historia AR sięga 50 lat wstecz. W 1968 roku Ivan Sutherland stworzył pierwszy prototypowy system AR ze stereofonicznym przezroczystym wyświetlaczem montowanym na głowie (HMD) podłączonym do head trackera, pokazujący bardzo prostą grafikę. W ciągu następnych 20 lat Siły Powietrzne USA eksperymentowały z HMD, które zostały zaprojektowane tak, aby zapewnić pilotowi widok AR instrumentów podczas lotu. To ewoluowało w wyświetlacze AR używane w hełmie lotniczym F-35. Pod koniec lat 80. XX wieku badania AR opuściły wojsko i były kontynuowane na Uniwersytecie Waszyngtońskim, Uniwersytecie Karoliny Północnej, Uniwersytecie Columbia, Uniwersytecie Toronto i innych miejscach. Instytucje te zbadały technologie wspomagające, takie jak wyświetlacze, urządzenia śledzące i urządzenia wejściowe. W połowie lat 90. ludzie mogliby wykorzystać te podstawowe badania do zbadania przestrzeni zastosowań. Pierwsze kompletne mobilne systemy AR zostały opracowane przy użyciu komputerów plecakowych, a ludzie zaczęli badać, w jaki sposób można zastosować AR w medycynie, edukacji, inżynierii i innych dziedzinach. Naukowcy z Boeinga używali AR w środowisku przemysłowym, a w 1992 roku Tom Caudell i David Mizell opublikowali pierwszy artykuł, w którym pojawił się termin rozszerzonej rzeczywistości. Doprowadziło to do wielu innych firm opracowujących aplikacje przemysłowe. W tym czasie powstały pierwsze systemy śledzenia oparte na widzeniu komputerowym i innych narzędziach programistycznych dla AR. ARToolKit został wydany jako oprogramowanie open source w 2000 roku i szybko stał się najczęściej używaną biblioteką śledzenia AR, rozwiązując dwa kluczowe problemy: (1) śledzenie punktu widzenia użytkownika i (2) umożliwienie interakcji z obiektami świata rzeczywistego. Rozwój ten umożliwił programistom na całym świecie rozpoczęcie tworzenia szerokiej gamy aplikacji AR. Na początku 2000 roku zaczęły pojawiać się pierwsze komercyjne zastosowania AR. W 2007 roku Sony wydało grę Eye of Judgment, która wykorzystywała kamerę z Playstation do pokazywania wirtualnych potworów na prawdziwych kartach. W ciągu następnych 2 lat gra sprzedała się w ponad 300 000 egzemplarzy, co czyni ją najbardziej udanym doświadczeniem AR w tamtym czasie. AR zaczął również pojawiać się w telewizji, dostarczając wirtualnych wskazówek dotyczących wydarzeń sportowych na żywo. W 2008 roku ARToolKit został przeniesiony do Flasha, umożliwiając milionom ludzi dostęp do witryn z rozszerzoną technologią AR. Rozwój telefonów z Androidem i iPhone'ów doprowadził do powszechnego wykorzystania mobilnej rzeczywistości rozszerzonej, ponieważ były one wystarczająco wydajne, aby uruchamiać aplikacje AR i miały zintegrowane czujniki do śledzenia AR. Pod koniec dekady setki milionów ludzi miało w kieszeni technologię umożliwiającą korzystanie z rzeczywistości rozszerzonej. Obecnie w przestrzeni AR pracuje więcej naukowców i firm niż kiedykolwiek wcześniej. Platformy programowe i sprzętowe są szeroko dostępne, co sprawia, że tworzenie komercyjnych aplikacji AR jest stosunkowo łatwe. Rynek szybko się rozwija, a prognozy przewidują, że globalny biznes AR przekroczy 80 miliardów dolarów do 2020 roku.

Technologia

Trzy cechy Azumy zapewniają wymagania techniczne systemu AR. Musi mieć (1) wyświetlacz, który może łączyć rzeczywistą i wirtualną zawartość, (2) urządzenia wejściowe do interakcji oraz (3) system śledzenia, aby znaleźć pozycję użytkownika. W tej sekcji opisano każdy z tych obszarów.

Wyświetlacz

Wyświetlacze AR można podzielić na trzy typy w zależności od miejsca ich umieszczenia: (1) podłączany do głowy, (2) podręczny i (3) przestrzenny. Wyświetlacze przymocowane do głowy przedstawiają wirtualne obrazy przed oczami użytkowników. Należą do nich HMD, projektory montowane na głowie i projekcja siatkówki bezpośrednio do oczu. HMD ewoluowały od nieporęcznego systemu Sutherland do lekkich wyświetlaczy, które zapewniają szerokie pole widzenia i jasny obraz. AR HMD są dostępne w dwóch typach: (1) przezroczyste optyczne i (2) przezroczyste wideo. Optyczne przezroczyste wyświetlacze wykorzystują przezroczyste elementy optyczne, aby umożliwić użytkownikowi oglądanie wirtualnych obrazów bezpośrednio w rzeczywistym świecie, podczas gdy przezroczyste wyświetlacze wideo nakładają grafikę na wideo ze świata rzeczywistego. Wyświetlacze podręczne obejmują ekrany podręczne, takie jak telefony komórkowe i tablety oraz małe projektory. Chociaż nie są obsługiwane bez użycia rąk, jak systemy noszone na głowie, są bardziej akceptowalne społecznie i można je łatwo udostępniać. Wyświetlacze przestrzenne są zwykle zamocowane w miejscu, takim jak system AR oparty na projekcji lub wykorzystują rozdzielacz wiązki do optycznej konfiguracji przezroczystej. Wyświetlacze przestrzenne mogą zapewnić większy obraz i są przydatne jako wyświetlacze publiczne dla wielu użytkowników.

Interakcja

Możliwość interakcji z treściami cyfrowymi jest bardzo ważna dla systemów AR. W zależności od używanego wyświetlacza i aplikacji dostępne są różne metody wprowadzania danych, od tradycyjnych dwuwymiarowych (dwuwymiarowych) interfejsów użytkownika (klawiatura, mysz i ekran dotykowy) po interfejsy 3D (ręczne różdżki, mowa, gesty). Opracowano szereg typów interfejsów AR, w tym:

1. Przeglądanie informacji: interfejsy do wyświetlania informacji AR w świecie rzeczywistym
2. Interfejsy użytkownika 3D: Wykorzystanie technik interakcji 3D do manipulowania treścią w przestrzeni
3. Namacalne interfejsy użytkownika AR: Używanie rzeczywistych obiektów do interakcji z zawartością AR
4. Naturalne interfejsy użytkownika: korzystanie z naturalnych poleceń ciała, takich jak gesty wolnej ręki

Przeglądanie informacji AR polega na tym, że wyświetlacz AR jest oknem do przestrzeni informacyjnej, a głównym zadaniem jest przesuwanie tego okna w celu wyświetlenia informacji. Jest to typowe dla wielu aplikacji przeglądarek AR na smartfony, takich jak Wikitude. Wymaga najbardziej podstawowych zadań związanych z interakcją: oglądania sceny AR i dotykania ekranu w celu przeglądania dostarczonych informacji. Jednym z najlepszych sposobów bezpośredniej interakcji z wirtualnymi obiektami jest wykorzystanie technik interfejsu użytkownika 3D, takich jak w rzeczywistości wirtualnej. Techniki te obejmują używanie rysika ze śledzeniem 3D do manipulowania zawartością AR lub używanie spojrzenia w głowę, aby móc spojrzeć na obiekty i je zaznaczyć. Namacalne interfejsy użytkownika AR to te, które wykorzystują rzeczywiste obiekty do interakcji z wirtualnymi informacjami. Użytkownicy mogą łatwo manipulować obiektami fizycznymi, a działania te są z kolei odwzorowywane na wirtualne dane wejściowe z odpowiednią metaforą interakcji. Na przykład prawdziwych łopatek można używać do przenoszenia wirtualnych mebli lub prawdziwych kostek można używać do wprowadzania danych w grze AR. Najnowsza technologia, taka jak Microsoft Kinect, może przechwytywać naturalne gesty użytkownika i używać ich do wprowadzania danych. Podobnie gesty wolnymi rękami mogą być używane do interakcji z zawartością AR, na przykład w celu wyciągnięcia ręki i złapania wirtualnej zawartości, która wydaje się unosić się przed użytkownikiem.

Śledzenie

Aby zarejestrować zawartość wirtualną w świecie rzeczywistym, należy określić pozę (pozycję i orientację) widza w odniesieniu do rzeczywistej lokalizacji. Osiąga się to dzięki zastosowaniu systemu śledzenia. Proces rejestracji wirtualnej treści w 3D zasadniczo składa się z dwóch faz: (1) fazy rejestracji, która określa początkową pozę widza w stosunku do rzeczywistej lokalizacji, oraz (2) fazy śledzenia, która aktualizuje pozę widza, gdy się porusza. Istnieje wiele różnych technologii śledzenia, które można zastosować, od ramion mechanicznych po czujniki magnetyczne i ultradźwiękowe oraz kompasy inercyjne i akcelerometry. W przypadku AR w pomieszczeniach śledzenie wizji komputerowej jest najbardziej popularne ze względu na niski koszt i powszechna dostępność kamer. Wczesne systemy śledzenia oparte na wizji, takie jak ARToolKit, obliczały pozycję kamery na podstawie kwadratowych znaczników. Jednak to podejście zostało wkrótce zastąpione systemami wizyjnymi, które mogły śledzić naturalnie występujące cechy wizualne i nie wymagały specjalnych drukowanych obrazów, takich jak Vuforia. Ostatnio opracowano oprogramowanie SLAM, które obsługuje jednoczesną lokalizację i mapowanie oraz umożliwia obliczanie pozycji kamery bez znajomości przestrzeni, w której znajduje się użytkownik. Kamery z czujnikiem głębi mogą być również używane do śledzenia w pomieszczeniach bez znajomości przestrzeni. Odbywa się to poprzez uchwycenie struktury pliku 3D otoczenia i śledzenie na podstawie obliczonej geometrii. Wizja komputerowa Śledzenie AR jest trudne na zewnątrz ze względu na zmieniające się warunki oświetlenia i brak określonych cech wizualnych. W takim przypadku śledzenie GPS można wykorzystać do znalezienia pozycji urządzeń i połączyć z danymi orientacyjnymi z czujników bezwładnościowych. Niedawno naukowcy wykazali, w jaki sposób hybrydowe systemy śledzenia, które łączą widzenie komputerowe z tymi czujnikami, mogą być wykorzystywane do zapewniania dokładnego śledzenia rozległego obszaru na zewnątrz.

Przykładowe aplikacje

AR to technologia wspomagająca, której można używać w wielu różnych typach obszarów zastosowań, które pokazują zawartość przestrzenną, takich jak marketing, gry, edukacja i inżynieria. Marketing jest naturalnym zastosowaniem AR ze względu na angażujący charakter tej technologii. Architektura i inżynieria to również dobry obszar zastosowań. Aplikacja CityViewAR została opracowana po trzęsieniu ziemi w Christchurch w 2011 roku, umożliwiając ludziom poruszanie się po zdewastowanym mieście. Wreszcie, AR można wykorzystać do nauczania koncepcji przestrzennych w edukacji. Aplikacja do kolorowania Quiver AR może być używana, aby umożliwić dzieciom pokolorowanie obrazków komórek, a następnie zobaczenie, jak ożywają jako wirtualne modele w zastosowanych kolorach.


Powrót

Rozwój Gospodarczy i Internet



Dostęp do Internetu wiąże się ze wzrostem społecznym i gospodarczym. Internet funkcjonuje jako technologia wspomagająca, która pomaga jednostkom w kontaktach na duże odległości i z podziałami kulturowymi, a także rozpowszechnia wiedzę i dane, wspierając innowacje, które mogą mieć transformacyjny charakter. Dochody stanowią zasadniczą przeszkodę w dostępie do Internetu, a poziom penetracji Internetu jest często najniższy w regionach o najniższym produkcie krajowym brutto na osobę. Według szacunków Międzynarodowego Związku Telekomunikacyjnego opublikowanych w raporcie Facebooka - stan łączności 2017: raport o globalnym dostępie do Internetu - w 2017 roku z internetu korzystało 3,7 miliarda ludzi, czyli około 48% światowej populacji. To więcej niż 1,2 miliarda w 2007 roku, co stanowiło zaledwie 18% światowej populacji. W najsłabiej rozwiniętych krajach świata (tych, które według Organizacji Narodów Zjednoczonych mają najniższy poziom rozwoju społeczno-ekonomicznego), tylko 10% ludzi korzystało z Internetu w 2015 r. Ten wpis dotyczy niektórych powodów, dla których niektóre części świata opóźnienia w dostępie do Internetu, znaczenie sieci szerokopasmowych w efektywnym wykorzystaniu Internetu dla rozwoju gospodarczego oraz instrumentalna rola Internetu w przemysłach opartych na wiedzy. Następnie omawia wyzwania związane z zapewnieniem równego dostępu do Internetu oraz wpływ Internetu na produkcję przemysłową oraz usługi zdrowotne i edukacyjne. Niewystarczające środki finansowe utrudniają zakup urządzeń czy uzyskanie dostępu do usług cyfrowych. Dopóki ludzie nie będą mogli korzystać z Internetu bezpłatnie lub niedrogo, nie będą mogli czerpać korzyści z rewolucji technologicznej. Nawet jeśli osoby fizyczne mają wyższe zarobki, kosztowne urządzenia i wydatki na informacje często uniemożliwiają dostęp do usług cyfrowych. Nieodpowiednia infrastruktura telekomunikacyjna i monopole utrzymujące wysokie koszty telekomunikacji i utrudniające ludziom ubogim dostęp do usług cyfrowych również stanowią poważne przeszkody w dostępie cyfrowym w wielu regionach. Dostępność informacji w czasie rzeczywistym jest kluczowym elementem gospodarki. Ponieważ branże w coraz większym stopniu korzystają z usług w chmurze, a liczba połączonych gadżetów, urządzeń, przedmiotów i urządzeń ubieralnych rośnie, wymagane są szybsze prędkości przesyłania informacji.

Sieci szerokopasmowe

Niedawny rozwój sieci i usług szerokopasmowych był motywowany postępem technologicznym w sferze technologii informacyjnych i komunikacyjnych (ICT) oraz towarzyszącym mu wzrostem liczby aplikacji i usług, które są ułatwione dzięki łączności szerokopasmowej. Szerokopasmowe technologie informacyjno-komunikacyjne są istotnym elementem krajowych programów rozwoju i wysiłków na rzecz ograniczenia ubóstwa oraz promowania postępu gospodarczego i społecznego. Charakter i zakres połączeń interaktywnych, które mogą być zrealizowane poprzez przesyłanie i przetwarzanie danych o dużej przepustowości, różnią się od tych, które są realizowane za pośrednictwem połączeń głosowych i łączy informacyjnych o niskiej przepustowości. Nieodpowiednia infrastruktura i zapotrzebowanie na szybkie sieci w celu poprawy dotychczasowych usług spowodowały, że wiele obszarów wiejskich zostało w tyle w większym stopniu niż lepiej prosperujące i gęściej zaludnione obszary miejskie i podmiejskie. Nawet jeśli wysiłki na rzecz dalszego dostępu do łączy szerokopasmowych zakończą się sukcesem w podłączeniu większej liczby osób do usług szerokopasmowych, mogą nie zagwarantować niezawodnego dostępu szerokopasmowego. Wiele osób łączy się teraz z Internetem, korzystając z usług na smartfony i telefony stacjonarne z dostępem do Internetu, zamiast za pośrednictwem komputerów stacjonarnych z łączami stacjonarnymi. Mobilne sieci szerokopasmowe są szerzej dostępne niż stacjonarne sieci szerokopasmowe, przy czym te ostatnie mają ograniczony zasięg w mniej rozwiniętych gospodarkach, w których mieszka większość nieposiadających dostępu do internetu mieszkańców świata. Telefony komórkowe, które zapewniają dostęp do sfery online, mogą umożliwić jednostkom uzyskanie dostępu do możliwości edukacyjnych i usług finansowych. Ponieważ koszty telefonów komórkowych spadają, wiele osób, w tym w szczególnie zubożałych strefach, ma tendencję do ich posiadania i używania. Szersze zaangażowanie w system finansowy może zmniejszyć różnice w dochodach, zwiększyć tworzenie miejsc pracy i pomóc jednostkom w lepszym radzeniu sobie z ryzykiem i wstrząsami finansowymi. Niemniej jednak koszt posiadania urządzenia mobilnego i dostępu do mobilnych usług internetowych jest obecnie dla wielu osób zaporowy. Wykorzystanie mobilnych sieci szerokopasmowych poprawiło łączność i pomogło w zastosowaniu technologii cyfrowych na całym świecie. To szersze rozpowszechnienie technologii mobilnych oraz dostęp do sieci, gadżetów i aplikacji skraca czas i miejsce w wykorzystaniu technologii cyfrowych, zmieniając w ten sposób domeny osobiste i zawodowe. Ponadto technologie mobilne umożliwiają jednostkom korzystanie z osobistych gadżetów w celach zawodowych, co może zwiększyć produktywność. Na niektórych rynkach mobilne łącza szerokopasmowe są wykorzystywane w sposób podobny do stacjonarnych łączy szerokopasmowych i pomogły obniżyć koszty stałych łączy szerokopasmowych. Dochody wpływają na to, ile jednostki mogą zapłacić za łączność. Dla osób, które łączą się z Internetem za pośrednictwem urządzeń mobilnych, wydatki na usługi transmisji danych mogą stanowić znaczny koszt wykraczający poza podstawowe koszty usług mobilnych. Inne koszty obejmują opłacenie i ładowanie urządzenia. Zrozumienie alokacji dochodów i tendencji cenowych jest istotne przy wprowadzaniu wzorców biznesowych i polityk technologicznych w celu zwiększenia przystępności cenowej. Wykorzystanie średnich dochodów w gospodarce jest skuteczne w dokonywaniu globalnych ocen, ale nie ujawnia znacznych dysproporcji w przystępności cenowej w obrębie populacji danego kraju. Najnowocześniejsze osiągnięcia w technologii satelitarnej pełnią zasadniczą rolę w zapewnianiu dostępu szerokopasmowego do obszarów wiejskich i oddalonych. Satelity mają ogromny zasięg na rozległych obszarach, ułatwiając szybkie podłączenie wielu użytkowników do szerokopasmowych i internetowych sieci szkieletowych. Systemy satelitarne stanowią elastyczny kanał dla sprzętu ostatniej mili. Satelitarne łącze szerokopasmowe stanowi praktyczną opcję dla obszarów wiejskich, odosobnionych i słabo zaludnionych.

Instrumentalna rola Internetu w branżach opartych na wiedzy

Na wzrost gospodarczy ma wpływ wzrost działań związanych z usługami internetowymi, które razem wpływają na szeroko rozumianą gospodarkę poprzez wzrost wydatków i dochodów rządowych. Internet może pomóc w generowaniu aktywności w branżach opartych na wiedzy poprzez dystrybucję informacji oraz pomaganie jednostkom i firmom w rozwijaniu biegłości i wdrażaniu nowych metod biznesowych. Zwiększony popyt w branżach takich jak tworzenie oprogramowania, związany ze wzrostem innowacyjności i rozwojem przełomowych firm, może zwiększyć popyt na wysoko wykwalifikowaną siłę roboczą. Dostęp do Internetu może prowadzić do zwiększonego dostępu do danych oraz rozwoju biznesu i możliwości zatrudnienia w regionie, co może zmniejszyć skrajne ubóstwo. Ograniczenia w przepływie danych ograniczyły dostęp społeczności wiejskich do szerszych rynków i różnorodnych możliwości zatrudnienia. Posiadanie większej liczby osób online z dostępem do danych może również zwiększyć przejrzystość i odpowiedzialność w sferze publicznej. Społeczeństwo obywatelskie czerpie korzyści dzięki lepszej łączności i jednoczeniu różnych grup jednostek. Procedury kompresji i buforowania informacji mogą pomóc sieciom telekomunikacyjnym w bardziej efektywnym kosztowo funkcjonowaniu: buforowanie przechowuje informacje w pamięci lokalnej w celu szybkiego wyszukiwania w celu zmniejszenia liczby powtarzających się odwołań do serwera sieciowego w celu uzyskania tych samych danych, podczas gdy kompresja wydłuża czas odpowiedzi klientów, skracając ilość przesyłanych informacji. Techniki kompresji danych mogą obniżyć cenę dystrybucji usług i pomóc operatorom w świadczeniu lepszych usług bez zmniejszania ich zysków. Wysokie podatki i opłaty za łączność mogą utrudniać rozwój e-usług i zapewnianych przez nie korzyści ekonomicznych. Firmom dostarczającym usługi internetowe trudniej jest dokonać wymaganych inwestycji, gdy ich wydatki są znaczne, co utrudnia inwestycje i utrudnia gospodarce dostarczanie towarów, których potrzebują osoby fizyczne i przedsiębiorstwa. Główną konsekwencją cyfryzacji jest jej zdolność do zmiany przepływów gospodarczych poprzez zmniejszenie wydatków związanych z transakcjami i dystrybucją. Efekt ten jest generowany poprzez tworzenie cyfrowych produktów i usług, wzrost wartości poprzez dodawanie cech cyfrowych do niecyfrowych produktów i usług oraz rozwój platform produkcji, wymiany i wykorzystania. Korzyści z rozwoju technologii cyfrowych rozkładają się nierównomiernie, co wynika z nierównomiernego rozłożenia takich czynników, jak zadowalająca infrastruktura sieci szerokopasmowej, umiejętność korzystania z tych technologii przez ludzi i firmy oraz integracja tych technologii z procesami organizacyjnymi. Jako całość, biorąc pod uwagę masowe rozpowszechnianie technologii cyfrowych w wyniku niższych kosztów, sieci szerokopasmowe umożliwiające korzystanie z aplikacji multimedialnych oraz większe wykorzystanie tabletów i smartfonów, osoby fizyczne korzystają z szerszej gamy usług i aplikacji, które zaspokoić potrzeby związane z danymi, komunikacją i rekreacją. Tak jak niskie prędkości szerokopasmowego łącza internetowego zmniejszają różnorodność usług dostępnych dla klientów, tak wysokie opłaty za połączenie i abonament utrudniają korzystanie z usług szerokopasmowych przez klientów. Ustalone wskaźniki technologii szerokopasmowych ICT nie uwzględniają przepaści cyfrowej w zakresie łączy szerokopasmowych. Gospodarki i osoby prywatne, które nie mają dostępu do usług szerokopasmowych, ryzykują, że nie będą miały dostępu do pełnego zestawu aplikacji i zalet, jakie zapewnia Internet. Wprowadzenie technologii informacyjno-komunikacyjnych i łączności internetowej sprzyja handlowi lub nabywaniu produktów lub usług dostarczanych za pośrednictwem sieci komputerowych poprzez podejście opracowane w celu przyjmowania lub składania zamówień. Wolna łączność internetowa w mniej rozwiniętych gospodarkach może uniemożliwić firmom i ich klientom szybki rozwój światowych rynków handlu elektronicznego. Dostęp szerokopasmowy może zapewnić istotne korzyści, od awansu ekonomicznego po włączenie społeczne. Dostępność niezawodnej infrastruktury i usług szerokopasmowych na obszarach wiejskich może stanowić skuteczną podstawę dla zakładania i rozprzestrzeniania się przedsiębiorstw na tych obszarach. Postęp w globalnej łączności wymaga zrozumienia, dlaczego niektóre osoby pozostają offline. Poziom łączności internetowej w regionie jest kontrolowany przez popyt i zdolność ludzi w regionie do tego, by sobie na to pozwolić. Jeśli nie ma wystarczającego popytu, zapewnienie łączności może być niewykonalne: operator nie może zorganizować infrastruktury wymaganej do udostępnienia usług szerokopasmowych w strefie o niskim popycie, a znaczące sieci regionalne nie rozwiną się w społecznościach, w których prawie wszyscy ludzie nie mają dostępu do Internetu. Popyt wymaga, aby połączenie internetowe było postrzegane jako odpowiednie dla poszczególnych użytkowników, co często wymaga, aby treści były dostępne w ich głównym języku. Musi też istnieć gotowość, która wskazuje na zdolność jednostek do korzystania z Internetu. Gotowość do korzystania z Internetu obejmuje posiadanie (a) umiejętności identyfikowania i korzystania z treści, w tym umiejętności językowych i cyfrowych; (b) znajomość Internetu i zalet bycia online; oraz (c) kulturowe lub społeczne uznanie korzystania z Internetu. Umiejętność czytania i pisania jest związana z charakterem i dostępnością edukacji, która jest bardziej ograniczona w mniej rozwiniętych gospodarkach, a zwłaszcza na obszarach wiejskich. Wielu osobom brakuje zrozumienia technologii niezbędnej do aktywności online. Zrozumienie Internetu i zdobycie umiejętności cyfrowych potrzebnych do korzystania z niego może być trudniejsze dla osób, których społeczności rówieśnicze nie są online. Bez wystarczającej wiedzy na temat technologii informacyjno-komunikacyjnych lub doświadczonego personelu w sferze prywatnej mniej zaawansowane gospodarki nie odniosą maksymalnych korzyści z dostępu do innowacyjnych technologii informacyjno-komunikacyjnych i rozpowszechniania łączy szerokopasmowych. Ciągłe doskonalenie języków, wspierane przez gadżety i platformy, jest kluczem do zwiększania możliwości rozwoju regionalnych systemów internetowych. Zapotrzebowanie na usługi w językach lokalnych ma również kluczowe znaczenie dla możliwości komunikowania się online oraz uzyskiwania dostępu do treści lub ich tworzenia. Osoby fizyczne mogą korzystać z platform, treści i usług dostępnych w ich języku tylko wtedy, gdy ich urządzenia są zaprojektowane do korzystania z tych platform i prezentowania ich. Pomaganie większej liczbie dorosłych w przygotowaniu się do korzystania z Internetu wymaga połączenia ukierunkowanego budowania umiejętności i docierania do nich. Rozwój technologii może ułatwić osobom o ograniczonej umiejętności czytania i pisania lub umiejętności cyfrowych komunikowanie się i czerpanie korzyści z materiałów tekstowych w Internecie, ale technologie te zależą od wysokiej klasy gadżetów i szybkich sieci. Cyfryzacja materiałów, rozwój platform transportowych opartych na protokole internetowym, rozpowszechnienie szerokopasmowego Internetu oraz dostępność wielofunkcyjnych gadżetów spowodowały zmiany w sposobie korzystania z usług, materiałów i danych telekomunikacyjnych. Postęp technologii cyfrowych pociąga za sobą innowacje i powiązania między przedsiębiorstwami i konsumentami, przekształcając w ten sposób łańcuch produkcji w łańcuch wartości materiałów i usług cyfrowych.

Wyzwania dla zapewnienia równego dostępu do Internetu

Brak doświadczonego personelu, nieodpowiednia infrastruktura i utrudnienia w dostępie do finansowania, a także brak solidnych i skutecznych programów ICT i systemów szerokopasmowych utrudniają rozwój usług opartych na ICT w wielu mniej rozwiniętych gospodarkach. Łączność szerokopasmowa obejmuje nie tylko szybkość lub siłę rozpowszechniania danych w sieci, ale także szeroki zestaw know-how, usług i aplikacji, a także instytucjonalne rozwiązania technologiczne i platformy promujące wysoką przepustowość. Połączenie szerokopasmowe ma wpływ na globalne i krajowe sieci szkieletowe o dużej przepustowości, które wykorzystują kable światłowodowe dla prawie wszystkich torów międzymiastowych o dużej przepustowości i łączności na całym świecie. Najistotniejszą tendencją w globalnym rozprzestrzenianiu się łączy szerokopasmowych jest szybki wzrost wielkości i celów bezprzewodowych usług telekomunikacyjnych. Im bardziej zróżnicowana jest oferta usług, tym bardziej rozwinięty jest rynek i środowisko dostępu szerokopasmowego. Dla wielu klientów w krajach mniej rozwiniętych, zwłaszcza z obszarów wiejskich, dostęp do łączy szerokopasmowych jest zazwyczaj możliwy za pośrednictwem ogólnodostępnych urządzeń internetowych wykorzystujących sprzęt i usługi ICT. Łącza sieci komórkowych są niewątpliwie najbardziej rozpowszechnione, zwłaszcza w mniej rozwiniętych gospodarkach. Przeszkody w dostępności mają zasadniczo charakter ekonomiczny, ponieważ obecna technologia nie pozwala na wszechobecny zasięg po niskiej cenie. Rosnące zarobki i rosnąca świadomość wartości dostarczanej przez Internet mogą przyczynić się do poprawy konkurencyjności. Wykorzystanie każdej najnowocześniejszej technologii mobilnej wymaga od operatorów znacznego finansowania z góry, którzy również ponoszą wydatki na świadczenie usług. Operatorom może być trudno zrekompensować te wydatki na obszarach wiejskich, gdzie popyt na te usługi jest generalnie niższy. Koszt zakładania i organizowania mobilnych witryn w odizolowanych strefach wiejskich jest znacznie większy niż w zwartych obszarach miejskich. Wysokie wydatki na łączność izolowanych obszary wiejskie mają na ogół znacznie większe znaczenie niż te w strefach miejskich: często nie jest ekonomicznie opłacalne korzystanie z ustalonych lokalizacji mobilnych w rzadko zamieszkałych strefach, w których jest mniej użytkowników korzystających z sieci.

Wpływ na przemysł. Produkcja i usługi zdrowotne i edukacyjne

Rewolucja cyfrowa doprowadziła do powstania bardziej skomplikowanych towarów, krótszych cykli innowacji i zindywidualizowanej masowej produkcji, która łączy możliwość dostosowania i personalizacji niestandardowych produktów ze zmniejszonymi kosztami jednostkowymi związanymi z produkcją masową. Wraz z rozwojem Internetu generowanie wartości wynika z produkcji przepływów informacji, które pochodzą z każdego połączenia łańcucha wartości, zwiększając w ten sposób dostarczanie towarów i usług, dostosowując procesy wyjściowe, podnosząc biegłość użytkowników poprzez usługi posprzedażowe, oraz generowanie źródeł dochodu z innowacyjnych wzorców biznesowych. W miarę jak inteligentne, połączone towary stają się powszechne, oprogramowanie uzyskuje bardziej istotną funkcję w produkcji produktów fizycznych. Skuteczność i rozwój gospodarki zależą w znacznym stopniu od jej asymilacji ze światową infrastrukturą cyfrową, a ta zmiana sprawia, że niezbędny jest rozwój gospodarki cyfrowej, poprawa infrastruktury i umiejętności personelu oraz promowanie inwestycji i przedsiębiorczości. Internet funkcjonuje jako nośnik informacji, który nie jest ograniczony ograniczeniami geograficznymi, jest dostępny dla każdej osoby z dostępem do Internetu i może oferować dalszy dostęp do materiałów edukacyjnych. Kilka organizacji i uniwersytetów oferuje kursy online na różnorodne tematy, do których dostęp może uzyskać każdy uczeń posiadający połączenie z Internetem, co sprawia, że niedrogi dostęp do Internetu jest istotnym elementem dystrybucji korzyści płynących z szkolnictwa wyższego. Plany szkoleń dla nauczycieli wykorzystują Internet i filmy, aby wyjaśnić podstawy uczenia się i metody pedagogiczne oraz stymulować innowacyjne podejście do badań. Aplikacje ICT w mniej rozwiniętych gospodarkach promują innowacje i niestandardowe rozwiązania w celu zaspokojenia popytu regionalnego. Internet może zwiększyć dostępność języków regionalnych i może zmienić sposób, w jaki uczniowie podejmują naukę, czyniąc ją bardziej skłonną do współpracy i umożliwiającą dostosowanie nauczania do różnych typów uczniów. Klienci mają dostęp do zasobów dydaktycznych w każdej chwili z dowolnego miejsca, wykorzystując technologie elektroniczne, takie jak komputery osobiste i gadżety mobilne. Doświadczenie szkolne można poprawić dzięki możliwościom oferowanym przez Internet w celu tworzenia i rozpowszechniania materiałów w języku regionalnym w mniej rozwiniętych gospodarkach. Internet i jego liczne zastosowania wpłynęły na organizację społeczną rozwiniętych gospodarek. Dostęp do Internetu może zwiększyć efektywność świadczenia usług rządowych, szczególnie na obszarach wiejskich, oraz poprawić wydajność organizacji poprzez skrócenie czasu przetwarzania. Dostęp do Internetu i telefonii komórkowej może zwiększyć świadomość potencjalnych zagrożeń, jak się na nie przygotować i wesprzeć instytucje systemami wczesnego ostrzegania. Internet może umożliwić bardziej odpowiednie zaangażowanie społeczności wcześniej marginalizowanych. Dostęp do e-głosowania i usług e-obywatela zmniejsza koszty transakcji, jednocześnie przedsiębiorstwa i przedsiębiorcy zyskują na dostępie do e-usług, takich jak deklaracje podatkowe, zakupy, handel bez papieru i cła. Internet łączy grupy osób o podobnych zainteresowaniach lub problemach i pomaga w utrzymywaniu kontaktów ze znajomymi i członkami rodziny. Internet zwiększa niezależną i ustawiczną edukację oraz promuje interakcje społeczne na wszystkich poziomach. Internet może wspomóc efektywność gospodarek niskoemisyjnych poprzez zwiększenie świadomości ekologicznych problemów za pośrednictwem e-kampanii. Dostęp do Internetu może pomóc w walce z wykluczeniem finansowym i zwiększaniu możliwości ekonomicznych i możliwości zatrudnienia na obszarach wiejskich. Internet umożliwił krajom rozwiniętym dokonanie transformacji w narody oparte na wiedzy, w których jednostki rozpowszechniają informacje z mniejszą liczbą przeszkód. Umowy dotyczące transmisji danych telekomunikacyjnych mogą być drogie, a osobom fizycznym trudno jest samodzielnie płacić za usługi i związane z nimi opłaty za użytkowanie. Nawet jeśli kilku operatorów odnotowuje malejące zyski, prawie wszyscy operatorzy nadal finansują ulepszenia swojej sieci. Analiza dużych zbiorów danych pomaga w zwiększaniu segmentacji rynku poprzez zarządzanie zapasami i towarami oraz rewolucjonizację wzorców biznesowych i wyjściowych, jednocześnie generując najnowocześniejsze produkty (łącząc produkcję masową z dostosowywaniem) oraz innowacyjne wzorce usług biznesowych i rządowych. Mobilne łącza szerokopasmowe, usługi przetwarzania w chmurze, analiza dużych zbiorów danych i sieci społecznościowe stwarzają możliwości poprawy świadczenia usług. Wzorce biznesowe oparte na przetwarzaniu w chmurze pozwalają firmom zmniejszyć wydatki na zakup i konserwację sprzętu, prowadzić politykę cenową typu pay-per-use, uzyskiwać dostęp do sieci z dowolnego miejsca geograficznego i rozwijać innowacyjne procesy bez znacznych wydatków na infrastrukturę. Analiza dużych zbiorów danych oznacza przetwarzanie i wykorzystywanie zbiorów informacji o wielkości przewyższającej siłę narzędzi programowych głównych baz danych wykorzystywanych do pozyskiwania, gromadzenia, obsługi i analizowania danych. Big data wynikają z szybkiego wzrostu ilości, tempa i różnorodności informacji cyfrowych wytwarzanych w czasie rzeczywistym w wyniku technologii informacyjnych w rutynowych przedsięwzięciach. Wykorzystane dane są często tworzone dla innych celów i są ponownie wykorzystywane w sposób, którego nie przewidziano w momencie ich tworzenia. Technologie cyfrowe rozwijały się w trzech kolejnych etapach rozwoju. Pierwszy etap został rozwinięty wraz z pojawieniem się technologii informacyjnej charakteryzującej się myślącymi maszynami (rozszerzone innowacje replikujące ludzkie umysły) i urządzeniami końcowymi (urządzenia na obu końcach łącza komunikacyjnego). Drugi miał miejsce wraz z powstaniem komputerów domowych i ich upowszechnieniem. Trzeci, którego ekspansja trwa, jest uzależniony od wszechobecności i elastyczności łączności i obejmuje usługi w chmurze, rozwój Internetu Rzeczy oraz analitykę dużych zbiorów danych. Zmiany technologiczne wpłynęły na zmiany granic między sektorami i rynkami. Ta transformacja wywarła wpływ na świat fizyczny. Łączenie urządzeń, komponentów i systemów tworzy inteligentne sieci, którymi można wzajemnie sterować, modyfikując w ten sposób produkcję przemysłową i tworząc innowacyjne wzorce biznesowe, łańcuchy wartości i typy organizacji przemysłowych. Ta cyfryzacja i łączenie produkcji w gospodarce wymaga wysokiego stopnia łączności, umożliwiającego oddzielone, adaptowalne i zintegrowane systemy produkcji, z szerokim wykorzystaniem robotów, urządzeń i oprogramowania. Internet może poprawić jakość życia osób żyjących w mniej rozwiniętych gospodarkach, oferując dostęp do ogromnej ilości danych, które mogą usprawnić usługi zdrowotne i edukacyjne oraz promować włączenie społeczne. Oprócz zwiększania dostępu do danych medycznych, technologie mobilne i internetowe pozwalają na przeprowadzanie zdalnych badań lekarskich, co ogranicza konieczność podróżowania, oszczędzając czas i pieniądze. Internet zapewnia zarówno pacjentom, jak i podmiotom świadczącym opiekę zdrowotną bezpośredni dostęp do odpowiednich danych i instrumentów zdrowotnych. W rozwiniętych gospodarkach Internet jest istotnym środkiem pozyskiwania danych zdrowotnych, dostarczania informacji na temat strategii profilaktyki i stymulowania jednostek do podnoszenia swoich standardów życia i opieki zdrowotnej. Dostęp do Internetu może zwiększyć wydajność zasobów zdrowotnych, na przykład poprzez skrócenie czasu podróży pracowników służby zdrowia lub zezwolenie na przesyłanie danych dotyczących pacjentów do szpitali. Internet stanowi również środek do poprawy edukacji, służąc nawet najbardziej potrzebującym społecznościom. W miarę jak uczniowie zdobywają wyższe stopnie umiejętności czytania, zdolności matematycznych i umiejętności rozwiązywania problemów przez Internet, ich szanse na zatrudnienie rosną. Technologia może zwiększyć szanse uczniów na zaangażowanie się we wspólne uczenie się, ze znaczną zdolnością do edukacji i rozpowszechniania pomysłów. Dostęp do Internetu może poprawić dostęp do nauczania, dostarczając uczącym się informacji i możliwości szkoleniowych.


Powrót

Rasizm i Internet



Relacja między rasizmem a Internetem jest złożonym tematem, którego żadna pojedyncza dyscyplina nie może w pełni zdefiniować ani zająć. Rasa i rasizm widziane przez Internet są często niedostatecznie reprezentowane lub całkowicie nieobecne w badaniu samej rasy. Zwłaszcza w dyscyplinie socjologii, w dyskusjach na temat rasy i rasizmu często nie uwzględnia się interakcji między rasą, pochodzeniem etnicznym i Internetem. Rasizm wywodzący się z Internetu obejmuje dużą, ogólnoświatową sieć obejmującą wiele różnych technologii, narodowości, społeczności internetowe, organizacje terrorystyczne, media informacyjne, partie polityczne i inicjatywy prawne. W tym wpisie najpierw omówiono, w jaki sposób natura Internetu umożliwia rozwój organizacji rasistowskich, oraz wyszczególniono rodzaje rasizmu występujące w Internecie. Następnie wpis analizuje ewolucję sposobów rozpowszechniania się rasizmu w Internecie na przestrzeni czasu. Złożoność działań, które stanowią związek między rasizmem a Internetem jest wynikiem korzystania przez kluczowe postacie z technologii w sposób, którego twórcy Internetu nie mogli przewidzieć. Kiedy Internet był nowy, wielu uważało, że można go wykorzystać jako sposób na ucieczkę od wielu wyuczonych zachowań nieodłącznie związanych z uprzedzeniami rasowymi i dyskryminacją. Zamiast tego, Internet dostarczył nowych sposobów dyskryminacji, nękania i segregacji ludzi, którzy często przekraczają granice fizyczne i cyfrowe. Pograniczny charakter Internetu pozwolił również technicznie spostrzegawczym organizacjom opartym na nienawiści rozwijać się w sposób niekontrolowany. Istnieje niewiele regulowanych zabezpieczeń przed nękaniem lub ukierunkowanymi działaniami na tle rasowym w Internecie. Ponadto amerykańska konceptualizacja tego, co stanowi wolność słowa, umożliwiła grupom nienawiści środek do wspierania globalnej obecności, ponieważ ochrona prawna zapewniana stronie internetowej zależy od położenia geograficznego serwera, na którym znajduje się ta witryna. Sposób, w jaki manifestuje się wolność słowa w amerykańskim duchu czasu, doprowadził do tego, że w Stanach Zjednoczonych hostowana jest znaczna liczba stron internetowych opartych na nienawiści. Zanim omówimy ewolucję sposobu wyrażania rasizmu w Internecie, ważne jest, aby omówić, w jaki sposób klasyfikuje się typy rasizmu. Naukowcy nie zgadzają się co do najdokładniejszego sposobu klasyfikowania grup w ruchu białej supremacji. Podstawową ideą białej supremacji jest to, że biali ludzie lub pewne grupy białych ludzi są lepsi od innych grup, takich jak Afroamerykanie. Niektóre grupy białej supremacji próbują usprawiedliwić użycie przemocy i innych pozaprawnych środków w celu przywrócenia tradycyjnych hierarchii rasowych. Biały nacjonalizm był opisywany na różne sposoby, czasami skupiając się na idei, że Biali ludzie powinni sprawować kontrolę nad kulturą narodu i życiem publicznym, a innym razem skupiając się na przekonaniu, że ludzie różnych ras powinni żyć osobno. Biali nacjonaliści często wyrażają przekonanie, że każda rasa powinna żyć w odrębnym państwie. Grupy wyznające tę ideę działają w sieci od początków istnienia Internetu. Na początku 2010 roku biały nacjonalizm odrodził się jako składnik Alt-Right, skrót od alternatywnej prawicy, luźnego zbioru grup, które odrzucają tradycyjnych konserwatywnych zasad i zawiera elementy rasizmu, antysemityzmu i populizmu. Inne terminy używane podczas omawiania form rasizmu w Internecie to daltoniści (czasami określani jako rasiści mający dobre intencje) i ironia. Rasiści ślepi na kolory to osoby, które odmawiają uznania różnic kulturowych, odrzucając ideę, że rasa faktycznie ma znaczenie jako identyfikator. Ironiczni rasiści są zwykle postrzegani jako rasiści internetowi, którzy używają języka o podłożu rasowym, aby zaszokować innych uczestników działań internetowych. Ta grupa osób sprzyja poczuciu rasizmu, które trudno jest złagodzić, poprawić, a nawet pozytywnie zaangażować.

Ewolucja internetowego rasizmu

Aby zrozumieć, w jaki sposób rasizm i Internet są ze sobą powiązane, konieczne jest rozważenie historycznych trendów w Internecie. Od najwcześniejszych dni World Wide Web biały nacjonalizm starał się podważyć dążenie do równości rasowej, podważając wszelkie dyskusje na ten temat w Internecie. Na początku XXI wieku jawny biały nacjonalizm znalazł się pod ostrzałem, a jednocześnie zjawisko znane jako lulz coraz bardziej rozprzestrzeniało się w Internecie. Lulz (pochodzące od LOL, używane online dla "śmiechu na głos") odnosi się do szokujących lub destrukcyjnych działań online popełnianych w celach rozrywkowych. Ta forma rozrywki zaowocowała nowymi sposobami dokonywania czynów na tle rasowym w Internecie. W końcu Internet przeszedł od luzu do działań politycznych, ponieważ niektórzy z tych, którzy chcieli się zabawić szokowaniem, zaczęli wykorzystywać Internet do realizacji celów politycznych, chociaż dążenie to było czasami ukryte pod warstwami ironii.

Wczesne lata Internetu

We wczesnej historii Internetu stworzono nową infrastrukturę komunikacyjną, która umożliwiała niemal natychmiastową komunikację na dowolną odległość. Rasizm w Internecie narastał wraz z rozprzestrzenianiem się Internetu, który nastąpił po udostępnieniu publicznie sieci World Wide Web w 1991 r. Początkowo był to okres optymizmu co do Internetu i jego możliwości pomagania ludziom w komunikowaniu się i tworzeniu połączeń; niektórzy nawet wyrazili pogląd, że Internet zrezygnuje z samej koncepcji rasy. Panowało przekonanie, że ponieważ Internet miał (w tamtym czasie) głównie charakter tekstowy, dyskusje online koncentrowałyby się raczej na wymianie pomysłów niż na cechach użytkowników. Wkrótce jednak pojawiły się rozwijane menu, które prosiły użytkowników o zdefiniowanie się na podstawie zmiennych, takich jak płeć i pochodzenie etniczne. W połowie lat 90. całkowicie zrezygnowano z idei Internetu wolnego od rasizmu. W 1995 roku biały nacjonalista Don Black założył stronę internetową Stormfront, która zyskała rozgłos w 2000 roku po dyskusji w filmie dokumentalnym HBO Hate .com: Extremists on the Internet. Od 2016 roku fora internetowe Stormfront były bardzo aktywne. Według Blacka strona powstała w celu poprawienia wizerunku Białego nacjonalisty. Obraz białych nacjonalistów, który niektórym może wciąż przychodzić na myśl, to ignoranci z Południa w białych prześcieradłach, a przynajmniej ludzie z niewielkim wykształceniem, którzy boją się technologii. Czarny starał się pokazać inny obraz. Oprócz zorganizowania domu dla rasizmu w Internecie, Black kupił również nazwę domeny martinlutherking.org. Ta witryna koncentruje się na analizowaniu przesłań Martina Luthera Kinga Jr. poprzez publikowanie zarzutów dotyczących Kinga, w tym zarzutów wynikających z wysiłków FBI mających na celu zniszczenie jego reputacji. W szczególności ta strona służyła jako prototyp wykorzystania Internetu przez innych do promowania idei rasistowskich poprzez tworzenie fałszywych wiadomości i żerowanie na technicznej naiwności.

Powstanie Lulza

Podczas gdy Black starał się podważyć próby dążenia do równości rasowej, wraz ze wzrostem popularności internetowego trollingu zaczął pojawiać się inny rodzaj rasizmu. Ta forma rasizmu koncentruje się na szokujących zachowaniach i zawiera mruganie i kiwanie głową, że nie jest się rasistą, będąc jednocześnie rasistą. Akt trollingu rozpoczął się jako zwykłe zakłócenie normalnej komunikacji. Poprzez proste, ale coraz głupsze pytania, internetowe trolle próbowały zakłócić społeczność dla śmiechu. Na początku XXI wieku pojawiły się społeczności internetowe, które zatarły różnicę między życiem online a życiem offline, ponieważ takie działania, jak blogowanie i gry online dla wielu graczy, stały się fenomenami kulturowymi. Wraz ze wzrostem częstotliwości interakcji w społecznościach internetowych zwiększyły się również żarty i siła różnych norm społeczności internetowych. Z większej populacji wkraczających do większej liczby społeczności internetowych, wzrosła również liczba zachowań związanych z trollingiem. Strony internetowe takie jak Something Awful zaczęły wykonywać większe, bardziej złożone trolle internetowe. Na przykład "Cliff Yablonski Hates You" oferował widzom zdjęcia zrobione z innego miejsca w Internecie i powody, dla których fałszywy staruszek miałby ich nienawidzić. Trollowanie obrazami zaczęło przybierać inne formy, gdy społeczności internetowe zaczęły umieszczać słowa na tych obrazach. Te zreplikowane fragmenty internetowego humoru stały się znane jako memy. Memy, termin ukuty przez Richarda Dawkinsa w jego książce Samolubny gen, oferowały to, podobnie jak komórki biologiczne, replikowane idee. Gdy memy i trolling zaczęły się mnożyć, niektóre akty trollingu podzieliły społeczności internetowe. Kiedy pierwsze społeczności zaczęły odrywać się od Something Awful, nieszkodliwe memy internetowe zaczęły stawać się nieco bardziej złowrogie. Jedna z pierwszych społeczności internetowych, która oddzieliła się od Something Awful, nazywała się 4Chan. To forum internetowe, pierwotnie pomyślane jako replika forów internetowych poświęconych japońskiej animacji lub anime, zaczęło zacierać granicę nie tylko między zachowaniami online i offline, ale także między intencjami, znaczeniem i etykietą. Mieszkańcy 4Chan, którzy mogli publikować posty na forum bez żadnych informacji identyfikujących, rutynowo zamieszczali groteskowe, sprośne lub rasistowskie obrazy, aby zaszokować się nawzajem. To zachowanie, zwłaszcza na forum /b/ lub "losowym", dało początek określeniu b-tard. Na tym forum zaczął pojawiać się rodzaj rasizmu charakterystyczny dla Internetu. Ta forma rasizmu jest zwykle określana jako rasizm ironiczny lub rasizm oświecony, ten ostatni zainspirowany książką Susan Douglas Enlightened Sexism: The Seductive Message That Feminism′s Work Is Done. Poprzez ten akt rasizmu "ironicznego", "oświeconego" lub "hipsterskiego" można "uprawiać" rasizm. W ten sposób oświecony rasizm jest zwykle postrzegany jako publikowanie treści niewrażliwych na rasę, twierdząc, że to żart, ale zamierzony żart "meta" polega na tym, że osoba, która żartuje, jest mimo wszystko rasistą. Zarówno osoba, która publikuje żart, jak i osoba, która go czyta, wiedzą, że plakat jest rasistowski, ale żadne z nich się do tego nie przyzna. Ta złożona zależność między mówieniem rasistowskich rzeczy, a twierdzeniem, że nie jest się rasistą, wyznacza naturę rasizmu "dla lulz". Wraz z minimalizującym lub dyskredytującym językiem tej formy rasizmu zaczęła się formować inna forma działań opartych na Internecie. W 2000 roku korzystanie z mediów społecznościowych szybko rosło, a trolling zaczął rozprzestrzeniać się daleko poza strony takie jak 4Chan. Po pierwsze, aktywista hakerski lub grupa haktywistów o nazwie Anonymous, która wyrosła z forum /b/ 4chan, zaczęła angażować różne inne rodzaje grup online. W 2011 roku grupa członków Anonymous oddzieliła się od Anonymous i nazwała siebie LulzSec. LulzSec zaczął hakować i usuwać strony internetowe po prostu dlatego, że członkowie uważali te ataki za zabawne. Metody LulzSec i Anonymous zostały przyjęte przez "niepoprawne politycznie" forum dyskusyjne 4Chan o nazwie / pol /. Tablica /pol/, pierwotnie tablica 4Chan o nazwie /new/, została przemianowana, ponieważ zawierała przytłaczającą liczbę rasistowskich dyskusji, a to zachowanie wymagało oddzielnej tablicy. W tym samym czasie niektóre społeczności internetowe zaczęły nadzorować treści niewrażliwe na rasę, oprócz różnych innych rodzajów działań związanych z nienawiścią. Po zidentyfikowaniu jako rasista osoba może zostać zablokowana lub usunięta ze społeczności. To skupienie się na indywidualnych rasistach mogło jednak wzmocnić grupy rasistowskie, ponieważ ponieważ rasiści zostali wyrzuceni z niektórych społeczności internetowych, trafili do społeczności internetowych dla ludzi takich jak oni. Społeczności te pozostały w dużej mierze niewidoczne ze względu na sposób, w jaki ich członkowie tam trafili. Na początku 2010 roku niektórym obserwatorom wydawało się, że społecznie postępowe treści zaczynają przytłaczać motywowane rasowo, często ironiczne, rozpowszechnianie rasizmu, seksizmu, a nawet zdolności. Czasami wydawało się, że nurt rasizmu, który przenikał Internet od jego najwcześniejszych dni, zaczął zanikać, ale to, co badacze i dziennikarze nazywają teraz bańką filtrującą, dopiero co sztucznie oddzieliło sfery polityki online. Podczas gdy osoby o poglądach postępowych mogły czytać świat wolny od retoryki na tle rasowym, osoby o innych poglądach mogły swobodnie i bez konsekwencji wypowiadać się. Miało to ogromny wpływ na prawie każdy aspekt interakcji online.

Od forów internetowych po media społecznościowe

Podczas gdy fora internetowe, takie jak Stormfront, pozostają aktywne, rosnąca popularność platform mediów społecznościowych, takich jak Facebook i Twitter, sprzyja nowym taktykom. Platformy te były o wiele za duże, aby korzystać z moderatorów, i pozwalały na automatyzację poprzez interfejsy programowania aplikacji. Te interfejsy pozwoliłyby technicznie zaawansowanym osobom robić takie rzeczy, jak tworzenie automatycznych odpowiedzi na tweety zawierające określone słowa, tworząc nowy sposób uprawiania rasizmu w Internecie. Ponadto akt bycia rasistą i rekrutowania podobnie myślących osób zyskał znaczną siłę dzięki zautomatyzowanemu nękaniu osób, które reprezentowały głos społecznie postępowych spraw. Stosowanie tych taktyk zyskało większą widoczność w 2014 roku wraz z kontrowersjami Gamergate. Gamergate zaczęło się, gdy były chłopak projektantki gier, Zoë Quinn, opublikował długą internetową przemowę na jej temat. To, co zrodziło się z tego wpisu na blogu, to długa, złożona seria nienawiści i nękania skierowanych przeciwko Quinn i innym kobietom związanym z branżą gier, a także związana z nią kampania przeciwko Gawker Media, która kosztowała organizację tysiące dolarów przychodów z reklam. Milo Yiannopoulos, reporter technologiczny Breitbart News Media, skrajnie prawicowej strony z wiadomościami i opiniami, wykorzystał zjawisko Gamergate, aby wyrzucić Breitbart do centralnej roli konserwatywnych ideałów. Chociaż celem Gamergate były feministki i dziennikarze, internetowa kampania nękania odegrała rolę w jednoczeniu różnych grup internetowych i doskonaleniu taktyk, które stały się powszechne w Alt-Right. Taktyki te obejmują swatting lub fałszywe zgłoszenie bomby lub strzelca w celu wysłania zespołu SWAT (specjalnej broni i taktyki) do domu celu oraz doxing lub udostępnienie dokumentów publicznych, które zawierają wszystkie dane kontaktowe celu. W międzyczasie Breitbart zyskał na znaczeniu dzięki relacji z kampanii prezydenckiej w USA w 2016 roku, a jego prezes wykonawczy, Stephen Bannon, został kierownikiem kampanii Donalda Trumpa.


Powrót

Ransomware



Ransomware to klasa ataków opartych na wymuszeniach, które blokują zasoby ofiar i żądają pieniędzy za ich uwolnienie. Kontekst ataków ransomware nie jest całkiem nowy, a takie ataki były rejestrowane już pod koniec lat 80. Jednak niedawne odrodzenie niektórych głośnych ataków ransomware spowodowało rosnące zaniepokojenie tą klasą cyberataków. Na przykład w 2015 r. CryptoWall 3.0 trafił na pierwsze strony gazet na całym świecie jako wysoce dochodowa rodzina oprogramowania ransomware, powodując szkody szacowane na 325 mln USD. Innym przykładem jest atak ransomware firmy Sony z 2017 r., który wzbudził duże zainteresowanie mediów, a rząd USA zajął nawet oficjalne stanowisko, że za atakiem stoi Korea Północna. Ransomware działa na wiele różnych sposobów, od zwykłego blokowania pulpitu zainfekowanych komputerów po szyfrowanie wszystkich plików użytkownika. W porównaniu z innymi atakami złośliwego oprogramowania oprogramowanie ransomware wykazuje różnice behawioralne. Na przykład inne klasy złośliwego oprogramowania zwykle dążą do ukrycia się, aby mogły zbierać dane uwierzytelniające bank lub naciśnięcia klawiszy bez wzbudzania podejrzeń. W przeciwieństwie do tego zachowanie ransomware jest w bezpośredniej sprzeczności z ukrywaniem się, ponieważ celem ataku jest otwarte powiadomienie użytkownika, że jest on zainfekowany. W udanym ataku ransomware ofiara ma zwykle tylko dwie możliwości: (1) zapłacić okup z nadzieją na odzyskanie danych lub (2) trwale utracić dostęp do danych. W tym wpisie przedstawiono koncepcję oprogramowania ransomware, zbadano jego działanie i omówiono niektóre znane sposoby obrony przed atakami oprogramowania ransomware.

Tło

Ogólnie rzecz biorąc, ataki ransomware dzielą się na dwie odrębne klasy: (1) oprogramowanie typu desktop locker ransomware, w którym złośliwe oprogramowanie uniemożliwia dostęp do samego systemu komputerowego poprzez zablokowanie pulpitu ofiary, oraz (2) oprogramowanie typu file locker ransomware, w którym złośliwe oprogramowanie atakuje przechowywane pliki na komputerze ofiary. W oprogramowaniu typu desktop locker ransomware szkodliwy program wyświetla ofierze wiadomość i informuje ją, że komputer został zablokowany. Użytkownik otrzymuje wówczas informację, w jaki sposób dokonać płatności w celu odzyskania dostępu do komputera. Przeciwnicy używają różnych podejść, aby zablokować pulpit komputera i zażądać pieniędzy. Jednak odblokowanie systemu zainfekowanego tą klasą oprogramowania ransomware często nie jest bardzo skomplikowane, a odzyskanie dostępu do zaatakowanej maszyny jest często możliwe po prostu poprzez aktualizację konfiguracji systemu. Oprócz oprogramowania ransomware blokującego pulpit, aby zamienić ofiarę w płatną ofiarę, autorzy oprogramowania ransomware często opracowują również kryptograficzne oprogramowanie ransomware, w którym złośliwe oprogramowanie wykorzystuje system kryptograficzny do szyfrowania danych ofiary. Kryptosystem to oprogramowanie używane przez przeciwników i odpowiedzialne za generowanie, dystrybucję i utrzymywanie klucza szyfrowania, który jest używany do szyfrowania danych i uniemożliwiania do nich dostępu. Przeciwnik może użyć standardowego lub dostosowanego systemu kryptograficznego do zarządzania kluczami szyfrującymi. Jeśli szkodliwy program używa niezawodnego narzędzia szyfrującego, takiego jak Microsoft CryptoAPI (interfejs programowania aplikacji), odzyskanie dostępu do zaszyfrowanych danych jest prawie niemożliwe bez zapłacenia okupu. Po zainstalowaniu złośliwego oprogramowania i wygenerowaniu klucza szyfrującego szkodliwa funkcja zaczyna przeszukiwać katalogi i pliki użytkownika w zainfekowanym systemie. Złośliwy program zwykle szyfruje jak najwięcej plików, aby zmusić ofiarę do zapłacenia okupu. Gdy duża liczba plików jest szyfrowana przez szkodliwy program, ofiara albo musi zapłacić okup w nadziei na odzyskanie dostępu do danych, albo trwale traci dostęp do danych. W dalszej części tego wpisu wyjaśniono techniki stosowane w różnych klasach ataków ransomware w celu niezawodnego uniemożliwienia dostępu do systemu i zmuszenia ofiar do zapłacenia okupu.

Mechanizm blokowania zasobów

Oprogramowanie ransomware do blokowania pulpitu


Jak wspomniano wcześniej, kluczowym krokiem w udanym ataku ransomware jest zablokowanie pulpitu komputera i uniemożliwienie dostępu do danych użytkownika. W udanym ataku szkodliwy program zwykle tworzy nowy obiekt na pulpicie i sprawia, że ten obiekt jest trwały. W systemie operacyjnym Windows tworzenie takich obiektów jest banalne. Szkodliwy program po prostu wywołuje interfejs API CreateDesktop w celu utworzenia nowego środowiska pulpitu, a następnie wywołuje funkcję SwitchDesktop w celu aktywacji nowego pulpitu poprzez uczynienie go pulpitem domyślnym w celu ustanowienia trwałej blokady pulpitu. Niektóre rodziny oprogramowania ransomware, takie jak Urausy, Reveton i Winlock, stosowały inne podejście do blokowania pulpitu. W tych rodzinach oprogramowania ransomware blokada pulpitu jest po prostu pobierana jako hipertekstowa strona języka znaczników z odpowiednimi obrazami na podstawie położenia geograficznego ofiary, a następnie wyświetlana na pełnym ekranie w oknie z ukrytymi kontrolkami. Położenie geograficzne ofiary można ustalić, sprawdzając adres protokołu internetowego maszyny, z której korzysta ofiara. Blokada pulpitu zwykle wyświetla ostrzeżenie lokalnych organów ścigania w języku używanym w lokalizacji geograficznej ofiary. Ostrzeżenie zwykle mówi, że system operacyjny jest zablokowany z powodu naruszenia pewnych praw (np. rozpowszechniania materiałów chronionych prawem autorskim lub odwiedzania witryn z pornografią dziecięcą) w tej lokalizacji. Wyłączenie niektórych skrótów klawiaturowych, takich jak przełączanie (np. Klawisz Windows + Tab), jest wykonywane automatycznie po utworzeniu nowego pulpitu, ponieważ żadne inne aplikacje nie są otwarte do przełączania. Jednak wyłączenie klawiszy specjalnych to kolejna część procedury blokowania. Odbywa się to poprzez zainstalowanie procedur przechwytujących, które monitorują zdarzenia wejściowe z klawiatury.

Kryptograficzne oprogramowanie ransomware

Istniejące próbki oprogramowania ransomware wykorzystują podczas ataku ransomware zarówno niestandardowe, jak i standardowe systemy kryptograficzne. Przeciwnik może używać dostosowanego systemu kryptograficznego z wielu powodów. Takie systemy kryptograficzne niekoniecznie są bardziej niezawodne lub skomplikowane niż standardowe systemy kryptograficzne, które zapewniają na przykład platformy Windows (np. CryptoAPI). Cyberprzestępcy opracowują własne systemy kryptograficzne wiele powodów. Jednym z powodów jest zmniejszenie szansy na łatwe wykrycie przez popularne systemy analizy złośliwego oprogramowania, które są przeznaczone do analizowania złośliwego oprogramowania w odizolowanym środowisku. Systemy analizy złośliwego oprogramowania zwykle sprawdzają informacje nagłówka danego pliku wykonywalnego, aby określić, które funkcje plik wykonywalny próbuje wywołać, gdy jest wykonywany na komputerze. Dostosowany kryptosystem, który jest podstawową częścią oprogramowania ransomware, jest zaprojektowane w taki sposób, aby uniknąć takiego wykrycia za pomocą funkcji, dla których systemy analizy złośliwego oprogramowania nie mają sygnatury. Jednak opracowanie niezawodnych systemów kryptograficznych nie jest proste. Jeśli system kryptograficzny nie zostanie poprawnie zaimplementowany, istnieje szansa, że obrońcy i inżynierowie wsteczni dowiedzą się, jak działa system kryptograficzny i wyodrębnią klucz szyfrujący, który prowadzi do niepłacenia okupu. Istnieje wiele rodzin oprogramowania ransomware, które są znane ze swoich złych mechanizmów szyfrowania. Dobre kryptograficzne oprogramowanie ransomware ma zwykle dwie cechy: (1) skutecznie blokuje dane użytkownika i (2) niezawodnie minimalizuje szansę na odzyskanie oryginalnych danych po wygenerowaniu zaszyfrowanych plików. Wcześniejsze wersje ataków ransomware koncentrowały się głównie na pierwszej charakterystyce, ale większość ostatnich ataków ransomware ma na celu rozwiązanie obu warunków, aby zmusić ofiarę do zapłacenia okupu. Procedura blokowania plików w kryptograficznym oprogramowaniu ransomware dzieli się na trzy różne kategorie:

1. Oprogramowanie ransomware nadpisuje zawartość oryginalnego pliku, otwierając plik docelowy, odczytując zawartość pliku, generując zaszyfrowaną zawartość, zapisując ją w miejscu, a następnie zamykając plik.
2. Oprogramowanie ransomware odczytuje zawartość oryginalnego pliku, tworzy nowy plik i zapisuje w nim zaszyfrowaną zawartość, zamyka oba pliki, a następnie usuwa oryginalny plik, po prostu usuwając plik.
3. Oprogramowanie ransomware odczytuje oryginalny plik, następnie generuje nowy plik, zapisując zaszyfrowaną zawartość oryginalnego pliku, a na końcu nadpisuje oryginalny plik losowymi danymi. Takie podejście w rzeczywistości rozszerza drugą klasę, co gwarantuje, że oryginalnych plików nie będzie można odzyskać.

Finansowe zachęty

Ostatecznym celem ataków ransomware, po udanej blokadzie zasobów, jest uzyskanie przychodów poprzez zmuszenie ofiary do zapłacenia okupu. Dlatego cyberprzestępcy nieustannie próbują znaleźć niezawodne metody ładowania. Mówiąc dokładniej, metody pobierania opłat stosowane przez operatorów oprogramowania ransomware mają zwykle dwie ważne właściwości: (1) odbiorca płatności powinien pozostać anonimowy oraz (2) płatności powinny być łatwo wymieniane na preferowaną walutę. Usługi anonimowości, takie jak sieć Tor i Bitcoin (forma kryptowaluty), znacznie ułatwiły transakcje finansowe dla takich złośliwych zamiarów i prawdopodobnie są czynnikami napędzającymi niedawny wzrost liczby programów ransomware i ataków. Bitcoin i inne kryptowaluty zapewniają pewne wyjątkowe korzyści w zakresie prywatności złoczyńcom stojącym za atakami ransomware. Transakcje w Bitcoin to wiadomości podpisane kryptograficznie zawierają transfer środków między dwoma kluczami publicznymi. Aby wykonać transfer, do autoryzacji transferu środków można użyć tylko odpowiedniego klucza prywatnego. Ważnym czynnikiem zwiększającym anonimowość użytkowników w takich serwisach jest to, że klucze Bitcoin nie są wyraźnie powiązane z rzeczywistymi użytkownikami, chociaż wszystkie transakcje są publiczne. Dlatego operatorzy ransomware mogą chronić swoją anonimowość i unikać ujawniania jakichkolwiek informacji, które mogłyby zostać wykorzystane do ich śledzenia. Co więcej, wykrywanie nielegalnie zdobytych Bitcoinów na podstawie historii transakcji adresu Bitcoin nie jest trywialne, zwłaszcza że przeciwnicy stosują wymijające podejścia, aby chronić swoją prywatność, wykorzystując wiele niezależnych adresów Bitcoin, mających krótki okres aktywności i niewielką liczbę transakcji. Te proste techniki znacznie pomagają przeciwnikom ukryć źródła tysięcy nielegalnie zdobytych Bitcoinów podczas ataku ransomware. Przedpłacone systemy płatności online, takie jak Moneypak, Paysafecard i karty Ukash, to inne formy otrzymywania okupu, ponieważ dają również ograniczone możliwości śledzenia pieniędzy. Usługi te nie są powiązane z żadnym organem bankowym, a właściciel pieniędzy pozostaje anonimowy. Model biznesowy oprogramowania ransomware wykorzystuje te systemy, ponieważ nie ma zapisów kuponów do śledzenia cyberprzestępców. W typowym scenariuszu, gdy przeciwnik otrzyma kupony, aby je spieniężyć, może sprzedawać kupony na podziemnych forach wymiany kuponów, ICQ lub innych niewykrywalnych kanałach komunikacji za cenę niższą niż nominalna wartość kuponów.

Mechanizmy obronne

Wykorzystanie zaawansowanych systemów kryptograficznych w nowoczesnych rodzinach oprogramowania ransomware sprawiło, że odzyskanie plików ofiar jest prawie niemożliwe bez zapłacenia okupu. Łatwiej jest jednak bronić się przed oprogramowaniem ransomware niż zwalczać inne rodzaje cyberzagrożeń, takie jak zaawansowane, trwałe zagrożenia, dzięki którym hakerzy po cichu uzyskują nieautoryzowany dostęp do danych firmowych i kradną krytyczne informacje. Aby zminimalizować ryzyko utraty danych, użytkownicy powinni przestrzegać niezawodnej polityki tworzenia kopii zapasowych danych, na przykład wykonując przyrostowe kopie zapasowe w czasie rzeczywistym. Ponadto użytkownicy powinni korzystać z zewnętrznych usług tworzenia kopii zapasowych w chmurze, aby mieć pewność, że ich dane są bezpiecznie przechowywane na wypadek, gdyby lokalna kopia zapasowa została zainfekowana oprogramowaniem ransomware. Jeśli użytkownik przestrzega niezawodnych zasad tworzenia kopii zapasowych, może przywrócić dane z kopii zapasowych offline zamiast płacić okup. Użytkownicy powinni również pobierać i instalować regularne aktualizacje oprogramowania, w tym wtyczki innych firm do przeglądarek internetowych i innych systemów. Często eliminują one luki w zabezpieczeniach, które pozostawione otwarte zapewniają atakującym łatwy dostęp. Ransomware jest poważnym zagrożeniem. Pojawienie się usług zapewniających anonimowość, takich jak Tor i Bitcoin, ułatwiło projektowanie nowych klas ataków ransomware. Podobnie jak w przypadku innych złośliwych programów, twórcy ransomware stale ulepszają swoje ataki, aby zminimalizować szansę na odzyskanie dostępu do danych bez płacenia okupu. Jednak obrona przed oprogramowaniem ransomware jest jasna. Użytkownicy i organizacje powinni mieć niezawodne zasady tworzenia kopii zapasowych. Ponadto, aby zminimalizować ryzyko narażenia na ransomware, zaleca się użytkownikom instalowanie regularnych aktualizacji oprogramowania, w tym wtyczek innych firm.


Powrót

Religia i Internet



Badania nad związkami między religią a Internetem rozwijają się w ostatnich latach w sposób dogłębny i różnorodny. Równolegle z rozwojem działań zapośredniczonych cyfrowo nastąpił szybki wzrost badań nad tym, w jaki sposób religia (czyli indywidualne i zinstytucjonalizowane przekonania, zainteresowania i praktyka określonych tradycji religijnych) wchodzi w interakcje z możliwościami i ograniczeniami komunikacji zapośredniczonej technologią oraz, ostatnio media społecznościowe. W świetle rosnącego zakresu interakcji między religią a Internetem, w tym wpisie dokonano przeglądu różnorodnych form w tym zakresie której współczesna religia przejawia się w multimodalnych praktykach komunikacyjnych. W szczególności ten wpis bada możliwości mediów cyfrowych w ułatwianiu komunikacji religijnej i jak ujawnia nie tylko nowe przejawy dyskursu religijnego ale także jak znaczące napięcia są endemiczne w budowaniu autorytetu i wspólnoty religijnej. Jak dalej omówiono, badania, które zajmują się dialektyczną perspektywą w zrozumieniu relacji między religią a Internetem, pokazują dynamiczną zależność między kulturami religijnymi a technologią oraz to, w jaki sposób codzienne praktyki komunikacyjne mogą konstytuować praktykę religijną, przywództwo i organizacje.

Wielopoziomowe powiązania wiernych

Media internetowe i cyfrowe mają znacznie skomplikowane rozumienie komunikacji interpersonalnej, grupowej i masowej. Pojawienie się zacierających się granic między kodowaniem i dekodowaniem informacji podważyło tradycyjne podziały ról społecznych, prowadząc do zmian w odbiorcach, w tym wyznaniowych. Korzystanie z mediów elektronicznych zmieniło ustawienia sytuacyjne, ponieważ istnieje rozdźwięk między położeniem geograficznym a zachowaniem ludzi w zakresie informacji. Brak zgodności lokalizacji i informacji powoduje przemieszczenie poczucia miejsca w życiu codziennym, w tym w codziennej religii i praktykach instytucjonalnych. Na platformach takich jak Twitter media społecznościowe wspierają tworzenie niemal nieskończonej liczby odbiorców, co ma wpływ na sposób komunikowania się ludzi wierzących. Historycznie rzecz biorąc, pastorzy i księża przyjęli jeden do wielu, masowy model przekazu. Przesłania religijne są rozpowszechniane za pośrednictwem ambon w lokalnych kościołach, synagogach, świątyniach i meczetach lub na odległość geograficzną za pośrednictwem mediów w głównych celach ewangelizacji i prozelityzmu. Jednak wraz z niedawnym rozwojem Internetu, a zwłaszcza mediów społecznościowych poświęconych udostępnianiu treści, wierni wierzący i instytucje przyjęły zróżnicowane, wielopoziomowe i międzyplatformowe środki komunikacji, które rozszerzyły kierunki, cele i praktyki dyskursów religijnych. W szczególności religijne zaangażowanie w media społecznościowe obejmuje nie tylko indywidualne działania i motywację. Internetowa komunikacja religijna może być dostosowana do konkretnych odbiorców, skalowana dla wielu wyborców i postrzegana jako akty publiczne, a nie ograniczone do jednego zboru. Na przykład stypendium dotyczące blogowania i mikroblogowania jako praktyk religijnych ilustruje dynamikę komunikacji różnych sieci wyznaniowych. Daleko od popularnego przedstawiania blogowania jako trywialnej rozrywki lub ucieczki od prawdziwego życia, analiza treści 200 blogów chrześcijańskich i wywiady z blogerami ujawniły, że blogowanie jest znaczącym doświadczeniem religijnym, które łączy osobiste refleksje i nauki, dzielenie się wiadomościami, wspólne tworzenie więzi, krytyka religijna i społeczna oraz wysiłki na rzecz koordynowania wydarzeń i rytuałów w terenie. Jak zauważyła Pauline Cheong i współpracownicy w swoich badaniach z 2008 roku, blogi religijne z ich wpisami chronologicznymi i łączami hiperłączy mogą na nowo zdefiniować procesy zaspokajania potrzeb i korzystania z mediów, zacierając komunikację międzyludzką i korzystanie ze środków masowego przekazu, ponieważ gratyfikacje mogą pochodzić z treści medium, z ogólnego narażenia do blogów, ze znajomości gatunku blogów religijnych oraz z kontekstu, w jakim jest używany. (s. 9) W ten sposób blogowanie wierzących często zaciera granice informacyjne. Według analizy przypadku chrześcijańskich blogów mamusi, przeprowadzonej przez Deborah Whitehead, opublikowanej w 2015 roku, są one zarówno silnie powiązane, jak i destrukcyjne dla naszego tradycyjnego rozumienia tego, co uważa się za sferę publiczną i prywatną. Tematem przewodnim tych blogów jest życie rodzinne, jednak treści te są wyrażane w medium, które może dotrzeć do milionów czytelników na całym świecie, których pociągają historie o życiu domowym, odzwierciedlające wartości i punkty widzenia religijne. Ponadto blogowanie wspiera różne relacje i sieci między blogerami religijnymi. Analizy hiperłączy, które obejmują śledzenie powiązań między chrześcijańskimi blogami, wykazały, w jaki sposób blogi te są powiązane zarówno ze źródłami świętymi, jak i świeckimi. Źródła te obejmują główne serwisy informacyjne, czasopisma chrześcijańskie, blogi popularnych pisarzy chrześcijańskich i wybitnych pastorów, witryny reprezentujące lokalne kongregacje, wpisy w Wikipedii i witryny takie jak BibleGateway. Tak więc mapowanie hiperłączy między blogami religijnymi może częściowo pokazać, w jaki sposób praktyki blogowania pomagają budować relacje z wieloma religijnymi i niereligijnymi składnikami, a tym samym tworzyć różnorodne społeczności internetowe. Zasięg i różnorodność praktyk komunikacyjnych na blogach religijnych ilustruje również "blogisattva", gdzie badanie wybitnych blogów buddyjskich udokumentowało związek między buddyzmem a blogowaniem. Według dochodzenia Beverley McGuire z 2014 r., blogi stanowią atrakcyjną platformę dla różnorodnych form wyrażania wiary buddyjskiej, biorąc pod uwagę, w jaki sposób odznaki i chmury tagów, widżety i przyciski mediów społecznościowych pomagają buddyjskim blogerom wcielać w życie ich tożsamość i tworzyć płynne pokazy ich praktyk i powiązań . Blogi buddyjskie mogą jednocześnie angażować wielu odbiorców i cele, ułatwiając komunikację międzyosobową i ekspresję kontemplacyjną kapłanom, przekazując wiadomości i pedagogikę oraz wzmacniając uczuciowe pokrewieństwo i empatię dla buddyjskich księży i mniszek. Ponadto praktyki blogowania umożliwiają mniejszościom religijnym kwestionowanie dominujących reprezentacji w mediach głównego nurtu i oferują alternatywne perspektywy debat i kontrowersji związanych z wiarą. Opublikowane analizy wywiadów z muzułmańskimi blogerami w Niemczech, przeprowadzone przez Stine Eckert i Kalyani Chadha w 2013 roku, uwydatniły sposoby, w jakie muzułmanie wykorzystywali blogi jako platformy komunikacji, aby wyrażać swoją marginalizowaną tożsamość i budować nowe sieci społecznościowe z innymi imigrantami, a także z członkami głównego nurtu europejskiego społeczeństwa, dzieląc się niedopublikowanymi historiami i komentując posty innych osób. Blogi autorów muzułmańskich są zróżnicowane i złożone, ponieważ treści religijne współistnieją z osobistymi doświadczeniami wiary i refleksjami na temat filozofii, dyskryminacji i praw człowieka, w tym emocjonalnym, a czasem irracjonalnym dyskursem na bardzo obciążone i delikatne kwestie związane z wiarą. Ponieważ pojawiają się nowe platformy komunikacyjne, a media społecznościowe są coraz bardziej zróżnicowane i połączone na różnych poziomach i skalach interakcji, komunikacja religijna online przejawia się również w krótszych komunikatach, takich jak mikroblogowanie w formie tweetów, które są krótkimi wpisami o długości 140 znaków lub mniej . Wierni wierzący mogą tworzyć rytuały mikroblogowania, w których tweetowanie promuje ich własne nawyki modlitewne i zwiększa świadomość duchową, a także pomaga tworzyć łańcuchy modlitewne z podobnie myślącymi osobami. Tweety związane z wiarą są również wykorzystywane do wzmacniania więzi relacyjnych w lokalnych zborach, gdy przywódcy wysyłają kluczowe, zapadające w pamięć punkty zastosowania ze swoich cotygodniowych kazań, a członkowie sami ujawniają zwycięstwa modlitewne lub zastanawiają się nad pytaniami podczas lub po nabożeństwach religijnych. Co więcej, memy online związane z tematami wiary mogą rozprzestrzeniać się wirusowo na wielu platformach komunikacyjnych, gdy członkowie sieci społecznościowych ponownie publikują treści i hashtagi lub remiksują treści, działając jako agenci kulturowi w obiegu wyraźnych wiadomości dotyczących wiary. Jak donosi Cheong w przypadku jednego z pierwszych memów zorientowanych na wiarę w 2012 roku, chrześcijański duchowny w 2008 roku stworzył "Twitter of Faith" (TOF), na którym poproszono o napisanie wyznania wiary w 140 słowach i przekazanie go do przodu: "Co czy wierzysz? Masz 140 znaków - podaj nam swoje wyznanie wiary w 140 znakach. #TOF." Utworzono wiele tweetów #TOF, destylując wersety biblijne i teologię w krótkie, uderzające frazy, które następnie zostały szybko rozpowszechnione i udostępnione za pośrednictwem różnych sieci społecznościowych. Rzeczywiście, w świetle rosnącej mnogości krótkich, emocjonalnych i wizualnych przekazów wiary, wirusowe rozprzestrzenianie się memów wiary jest coraz ważniejszym portalem do zrozumienia religii jako osadzonej w dzisiejszej większej kulturze partycypacyjnej, gdzie przesłania wiary są szybko tworzone, kuratorowane i krążących w komunikacji wielopoziomowej i multimodalnej. Wendy Bellar i jej współpracownicy we wstępnym raporcie na temat religijnych memów internetowych z 2015 roku zauważyli, w jaki sposób intertekstualność memów religijnych lub związek między różnymi krótkimi tekstami online może wspierać i krytykować przekonania i tożsamości religijne. Memy są reprezentacją przeżywanej na co dzień religii. Zaangażowanie memetyczne wierzących świeckich jest kształtowane przez ich kreatywność, preferencje i sieci społeczne, ale duchowa komunikacja memowa jest również kształtowana przez interakcje wierzących z grupami i instytucjami religijnymi. Autorzy tego raportu zalecają, aby przyszłe badania zwracały uwagę na różne konteksty, w których memy religijne są udostępniane i czytane, ponieważ memy te mogą być różnie interpretowane i negocjowane w różnych serwisach społecznościowych. W podobnym duchu bardziej dogłębne zbadanie chwytliwego memu i antymestów "zwątpić w swoje wątpliwości, zanim zwątpisz w swoją wiarę" w kontekście silnie uregulowanego kościoła Mormonów, opublikowanych w 2015 r. przez Benjamina Burroughsa i Gavina Fellera, pokazało, jak praktyki tworzenia i udostępniania memów religijnych zapewnia wyznawcom świeckim arenę do szerokiego wyrażania swoich przekonań w mediach społecznościowych. W ten sposób religijne zaangażowanie memetyczne jest przykładem złożonych wzajemnych relacji między wysiłkami instytucji religijnych i przywódców, którzy strategicznie rozpowszechniają przejmujące przesłania, a codziennymi praktykami religijnymi wierzących, którzy odwołują się do odniesień do kultury popularnej, aby wywołać humor i rozszerzyć wpływ swoich przesłań. Zasięg i różnorodność religii zapośredniczonych cyfrowo wzrosła w ostatnich latach na różnych poziomach komunikacji i platform technologicznych. Konsekwencje nowszych mediów społecznościowych dla umożliwienia nowej wielostronnej i transmedialnej komunikacji są głębokie, ponieważ towarzyszące im napięcia występują w zmieniającej się dynamice wiary, wspólnoty i władzy. Następna sekcja wyjaśnia niektóre z kluczowych dialektyk w tym procesie.

Napięcia dialektyczne w cyfrowej komunikacji religijnej

Popularne wizje nowych mediów i społeczeństwa, w tym implikacje Internetu dla religii, wydają się być uproszczone i często osadzone w warunkach utopijnych lub dystopijnych. W szczególności współczesne debaty na temat utraty wspólnoty religijnej lub spadku autorytetu religijnego w związku z korzystaniem z mediów cyfrowych często wiążą rozwój mediów internetowych z upadkiem wartości wiary, infrastruktury, więzi i praktyk. Ostre nagłówki w międzynarodowych mediach informujące o tym, jak Internet niszczy religię, podkreślają także panikę moralną, której doświadcza wielu ludzi, którzy czują się zagrożeni przez nowe technologie i obwiniają Internet za spowodowanie utraty wiary. Jednak rosnąca liczba naukowców pokazuje, jak błędne są niektóre z tych skrajnych oświadczeń i wrogich ram. Połączenia zapośredniczone cyfrowo pociągają za sobą dialektyczny związek między religią a Internetem. Myślenie dialektycznie o zapośredniczonych przekazach wiary pomaga zidentyfikować bieżące napięcia i nieoczekiwane paradoksy oraz zrozumieć zakres i bogactwo współczesnego życia społecznego i religijnego. Warto zauważyć, że w komunikacji władzy religijnej w krajobrazie mediów cyfrowych działa kilka dialektyk. Współczesna władza religijna w wielu kontekstach zapośredniczonych cyfrowo uległa zmianie, ponieważ media społecznościowe umożliwiają bardziej egalitarne formy interakcji między świeckimi zakonnikami a przywódcami. Jednocześnie korzystanie z mediów społecznościowych może wzmacniać autorytet religijny, ponieważ informacje religijne są zarządzane w sposób, który nie podważa działania organizacji wyznaniowych. Na przykład Pauline Cheong i Daniel Arasa omówili przypadek integracji wielu kanałów mediów społecznościowych z wewnętrzną i zewnętrzną komunikacją Kościoła katolickiego w rozdziale podręcznika opublikowanym w 2015 r. Wykorzystanie tweetów i wypowiedzi Papieża w czasach kryzysu lub kontrowersji oraz staranne zarządzanie komentarzami online na YouTube ilustrują, jak dialektyczne napięcia istnieją w cyfrowej komunikacji religijnej. Trwające wysiłki komunikacyjne Kościoła katolickiego ułatwiają większą interaktywność i debaty wśród parafian, a jednocześnie legitymizują władzę papieską. Ponadto zmiany w komunikacji cyfrowej i systemach informacyjnych wymuszają nowe normy i standardy dla nauczycieli religii na coraz bardziej konkurencyjnym rynku mediów religijnych. Liderzy zdają sobie sprawę, że muszą radzić sobie z innymi konkurentami w dynamicznym środowisku informacyjnym, które nie tylko coraz bardziej docenia ich formalne kwalifikacje lub stanowiska w instytucjach, ale także ocenia subiektywne cechy, takie jak ich dostępność, atrakcyjność osobowości i kompetencje w kulturze cyfrowej. Tak więc, podczas gdy zwiększony dostęp do informacji i interpretacji religijnych zapewnia wyznawcom zasoby do kwestionowania ortodoksyjnych nauk, władza duchownych wzrasta, gdy wychodzą poza jednokierunkowe instrukcje pedagogiczne i włączają media cyfrowe, takie jak wykorzystanie filmów z YouTube w swoich kazaniach. Władze stosują również bezpośrednie praktyki mentorskie, które wpływają na interpretację tekstów religijnych, w tym nacisk kładziony na relacje międzyludzkie z przewodnikiem duchowym związanym z lokalnymi sesjami medytacyjnymi i rytuałami prowadzonymi przez kapłanów. Wzrost liczby przywódców w megakościołach, którzy są obeznani z mediami w kulturze religijnego "celebryfikacji", odzwierciedla sposób, w jaki wprowadzają innowacje nie tylko w mediach społecznościowych, ale także nowe naciski, w tym wyzwania, aby zrównoważyć autopromocję i ujawnienie w Internecie ze cichą pokorą w praktyce duchowej. Wewnętrzne publikacje i zapośredniczone rozpowszechnianie komunikatów religijnych mogą wzmocnić zorganizowaną religię, ponieważ marketing w mediach społecznościowych pomaga budować widoczność, legitymację i atrakcyjność duchownych, którzy publikują na Twitterze. Jednak istnieją napięcia w tych internetowych praktykach brandingowych i mikroblogowania, które stanowią współczesny autorytet religijny. Duchowni twierdzą, że muszą zrównoważyć otwarte udostępnianie w mediach społecznościowych z poczuciem profesjonalizmu i wiarygodności w swojej społeczności. Gdy pastorzy zarządzają oczekiwaniami swoich wiernych co do ich dostępności i natychmiastowości odpowiedzi, doświadczają rosnącego obciążenia komunikacyjnego i jednocześnie utraty kontroli nad swoim tempem życia. Niedawne tworzenie i rozpowszechnianie memów religijnych wiąże się również z dialektycznymi napięciami w przywództwie religijnym. Zaangażowanie memetyczne w dzielenie się krótkimi i mocnymi wiadomościami na platformach medialnych stwarza możliwości konfliktów, ale zapewnia też kościołowi lepszą widoczność. Jak zbadali Burroughs i Feller w przypadku memu "zwątpić w swoje wątpliwości", który powstał na podstawie przesłania wybitnego przywódcy Mormonów, aby pomóc stłumić obawy co do przekonań religijnych, remiks uczestników online i rozpowszechnienie memu pomogły ,działają jako narzędzia prozelityzmu, łącząc się z oficjalnymi stronami internetowymi LDS, przy jednoczesnym zachowaniu spójnego stylu estetycznego rozpoznawalnego dla osób zaznajomionych z Kościołem. Strategiczna dwuznaczność memów pochodzenia zwiększa prawdopodobieństwo, że mem energetyczny instytucjonalnie wyda się organiczny i krąży w szaleńczym memetycznym momencie. W podobnym duchu Bellar i współpracownicy dostrzegli, w jaki sposób celowe ponowne przywłaszczenie memów wiary może podtrzymywać i prowokować autorytet religijny. Internetowi interakcje nakładają zabawne lub prowokacyjne wiadomości na uderzające efekty wizualne, a księża włączają memetyczne obrazy do swoich własnych blogów, aby generować refleksyjny dyskurs i ułatwiać wymianę online, która wspiera władzę religijną. Oprócz napięć związanych z władzą religijną, istnieje również wieloraka dialektyka w ustanawianiu wspólnoty religijnej, która pociąga za sobą generowanie i utrzymywanie więzi lokalnych i globalnych. Wraz z pojawieniem się nowych cyfrowych form socjalizacji na platformach wirtualnych interakcje online w grach i wciągających środowiskach cyfrowych tworzą ponadnarodowe praktyki religijne. Rozważanie nad religijnymi awatarami podkreśla, że spotkania z sacrum w wirtualnych światach są nie tylko doświadczeniami indywidualnymi, ale także zbiorowymi, ponieważ nawet awatary podlegają sugestiom rówieśników, które wpływają na ich interakcje online i sposoby tworzenia wirtualnych społeczności. W związku z tym rozwój wirtualnych światów i doświadczenie praktyk religijnych opartych na awatarach pokazują, w jaki sposób tworzone są standardy cyfrowych interakcji religijnych, takie jak zasady ubioru i sekwencje modlitewne, które z kolei socjalizują interakcje online w określone święte społeczności. Co więcej, podczas gdy wirtualne przestrzenie oferują pozornie nieograniczone możliwości budowania nowych wspólnot religijnych poza znanym położeniem geograficznym, religijne wyobrażenia związane z pojawiającą się religią awatarów są nadal często zakorzenione w ustalonych świętych praktykach i bezpośrednio powiązane z materialną architekturą lokalnych kościołów i świątyń. Jak zauważyli Stefan Gelfgren i Tim Hutchings w swoim badaniu 114 chrześcijańskich miejsc w Second Life z 2014 r., większość chrześcijańskich miejsc online to wizualne "reprodukcje" zaprojektowane z elementami architektonicznymi i symbolami, które były wyraźnie zsynchronizowane z tradycjami katolickimi, prawosławnymi i protestanckimi. W powiązanym badaniu analiza danych wywiadów z właścicielami chrześcijańskich miejsc w wirtualnym świecie Second Life podobnie wykazała napięcia w budowaniu wspólnoty religijnej, ponieważ respondenci podkreślali otwartość i akceptację odmiennych poglądów i zachowań, jednak uczestnicy online w większości działali w sposób hybrydowy przestrzenie odtwarzające tradycyjne życie kościoła. Dlatego ostatnie badania wyraźnie kwestionują popularne przekonania, że wirtualne wspólnoty religijne są z konieczności awangardowe, ponieważ nowe wirtualne światy zapewniają nieograniczone możliwości tworzenia nowych miejsc dla społeczności religijnych, które nie są związane zwyczajami i fizycznymi oznaczeniami; raczej tradycje religijne nadal odgrywają kluczową rolę w kształtowaniu konstrukcji tych wirtualnych społeczności. Wreszcie, praktyki komunikacji w mediach społecznościowych wiążą się z dialektycznymi napięciami w społeczności religijnej, ponieważ korzystanie z Internetu może powodować różne formy zarówno pozytywnych, jak i negatywnych więzi społecznych, gdy komunikacja online zarówno zwiększa, jak i osłabia bezpośrednie relacje w czasie rzeczywistym . Badania nad najnowszymi religijnymi rytuałami mikroblogowania pokazały, jak niektóre kościoły równoważą potrzebę angażowania Twittera (nawet włączenie transmisji na żywo podczas nabożeństw) z potrzebą cichej refleksji i wspólnej medytacji. W wyniku tych sprzeczności pojawiły się zalecenia dotyczące nowych zasad dotyczących korzystania z mediów społecznościowych w lokalnych zborach. W ten sposób dynamiczna zależność między religią i kulturą oraz zarządzanie praktykami mediów społecznościowych we wspólnotach religijnych wskazuje, w jaki sposób codzienne praktyki komunikacyjne tworzą i konstytuują organizację religijną w czasach hiperłączności.

Przyszłe badania

Podsumowując, badania nad skrzyżowaniami religii i Internetu zyskały na głębi i różnorodności w ostatnich latach, wraz ze wzrostem adopcji mediów cyfrowych i korzystania z mediów społecznościowych przez kolektywy religijne i indywidualnych wierzących. W wielu przypadkach współczesna zapośredniczona komunikacja religijna jest multimodalna i opiera się na interakcjach w ramach szerszej kultury partycypacyjnej, polegającej na udostępnianiu treści, opowiadaniu historii, remiksowaniu i współpracy. Niedawne badania pokazały, w jaki sposób przywódcy religijni i świeccy angażują się w tworzenie i udostępnianie wiadomości, postów i aktualizacji online, a tym samym zachęcanie przyszłych prac nad rosnącą różnorodnością i skalą interakcji religijnych. Podczas gdy badania nad religią i Internetem ujawniają innowacyjne zmiany w praktykach autorytetów i społeczności religijnych, nowe badania podkreślają również znaczenie rozpoznawania i odkrywania bieżących napięć dialektycznych, gdy aktorzy religijni negocjują możliwości, ograniczenia i wyzwania w nowych połączeniach medialnych.


Powrót

Right to Be Forgotten (Prawo do bycia zapomnianym)



Co by było, gdyby za naciśnięciem kilku przycisków ktoś mógł odkryć Twoje najbardziej osobiste i potencjalnie zawstydzające sekrety? Dla niektórych pytanie może brzmieć fantastycznie, ale prawda jest taka, że dzięki Internetowi i mediom społecznościowym osobiste tajemnice są bardziej "odkrywalne" niż kiedykolwiek, co budzi szereg obaw dotyczących prywatności w erze Web 2.0. 13 maja 2014 r. Trybunał Sprawiedliwości Unii Europejskiej z siedzibą w Luksemburgu podjął próbę rozwiązania tych problemów, ustanawiając precedens prawny znany jako "prawo do bycia zapomnianym" (RTBF). Od tego czasu RTBF stał się źródłem gorącej debaty, zwłaszcza w świetle jego konsekwencji dla pokrewnych praw i wolności. Na przykład, podczas gdy niektórzy twierdzą, że RTBF wspiera prawo jednostki do prywatności, inni twierdzą, że RTBF podważa wolność słowa i dostęp do informacji. Ten wpis definiuje RTBF i przedstawia teoretyczne stanowiska leżące u podstaw powiązanych debat na temat równowagi między prywatnością a wolnością słowa.

Definicja RTBF

Najczęściej RTBF odnosi się do uprawnienia prawnego, które daje osobom fizycznym możliwość wpływania na dostępność treści online zawierających dane osobowe. W krajach Unii Europejskiej (UE) prawo to jest obecnie odzwierciedlone w ustanowionych przepisach dotyczących "usuwania danych", które są oparte na wytycznych RTBF. RTBF opiera się na założeniu, że treści online mogą znacząco wpływać na życie offline na poziomie społecznym, ekonomicznym i politycznym. Na przykład nieodpowiedni tweet może spowodować utratę przyjaciół i pracy. Ponadto, ze względu na długowieczność informacji w Internecie, treści online będą działać jak "permanentny zapis", wpływający na zdolność osoby do utrzymywania relacji lub zatrudnienia w dającej się przewidzieć przyszłości. RTBF reprezentuje metodę, dzięki której jednostki mogą uwolnić się od szkodliwych skutków negatywnych treści online, zwłaszcza w przypadkach, gdy takie są treści online są nadmierne i/lub niedokładne. Biorąc pod uwagę praktyczne imitacje możliwości kontrolowania własnego profilu online - będące konsekwencją różnorodności treści online i niemal losowych sposobów ich tworzenia - RTBF celuje w określony element treści online: wyniki wyszukiwania w sieci. Zamiast próbować cenzurować "producentów danych", takich jak strony internetowe, które wnoszą wkład w cyfrowe dossier danej osoby, ciężar RTBF spoczywa na "administratorach danych", takich jak wyszukiwarki, które odgrywają rolę nie w tworzeniu treści online, ale w Zdolność użytkowników Internetu do dostępu do treści online. RTBF ma dłuższą historię prawną niż się często zakłada. Przepisy dotyczące resocjalizacji, takie jak ustawa o resocjalizacji przestępców, ograniczają wykorzystanie informacji o przestępcy po odbyciu kary. Podobnie przepisy dotyczące ochrony danych, takie jak europejska dyrektywa o ochronie danych (1995), próbowały regulować wykorzystanie danych osobowych. Kraje w całej UE, najsłynniejsza Francja, również od 2010 roku mają prawnie uznane prawa podobne do RTBF ( le droit ? l′oubli ). Pomimo tej historii przypadek omówiony w poniższej sekcji jest powszechnie uważany za ten, który przyniósł RTBF na czele obecnie popularnej dyskusji na temat Internetu i prywatności. Sprawa ta polegała na przesunięciu punktu ciężkości z producentów danych na jednego z najpopularniejszych administratorów danych na świecie: Google.pl. W czasach, gdy "jesteś tym, kim Google mówi, że jesteś", wyszukiwarka jest odpowiednim celem. Szczegóły sprawy przedstawiają się następująco.

Google kontra Mario Costeja González

W 1998 r. hiszpańska gazeta La Vanguardia otrzymała od hiszpańskiego Ministerstwa Pracy i Spraw Socjalnych polecenie opublikowania artykułu dotyczącego przymusowej sprzedaży dwóch nieruchomości. Ministerstwo wyjaśniło, że artykuł w popularnej gazecie pomoże jak najszybciej znaleźć nabywców nieruchomości. La Vanguardia zaakceptowała tę dyrektywę i napisała artykuł, w którym ujawniła, że przymusowa sprzedaż była wynikiem niezdolności obecnych właścicieli nieruchomości do spłaty długów z tytułu ubezpieczeń społecznych. W artykule wymieniono tych właścicieli, z których jednym był obywatel Hiszpanii, Mario Costeja González. W listopadzie 2009 González skontaktował się z La Vanguardia po tym, jak zauważył, że wyszukiwanie jego nazwiska w Google nadal prowadzi do artykułu sprzed 11 lat. Pomimo tego, że był nieaktualny (González sfinalizował sprzedaż nieruchomości wiele lat temu) i miał tylko 36 słów, González martwił się, że artykuł w wiadomościach może niesprawiedliwie wpłynąć na jego reputację i poprosił gazetę o usunięcie artykułu lub usunięcie wszelkich informacji umożliwiających identyfikację. La Vanguardia odmówiła, twierdząc, że usunięcie jakichkolwiek elementów artykułu byłoby niewłaściwe, ponieważ zostało zlecone przez ministerstwo. Zdając sobie sprawę, że cenzurowanie agencji prasowej raczej się nie powiedzie, González zwrócił się do odpowiedniego administratora danych i skontaktował się z Google Spain. González powtórzył swoje obawy, a Google Spain przekazało jego skargi do centrali Google w Kalifornii w Stanach Zjednoczonych. Aby odpowiedzieć na skargi Gonzáleza, Google musiał odpowiedzieć na szereg nowych pytań, które nigdy nie były rozważane przed wynalezieniem Internetu. Obejmowały one rozważenie stopnia szkody, jaką mogą wyrządzić internetowe reprezentacje danej osoby, stopnia odpowiedzialności witryny wyszukiwania za ograniczenie wspomnianych szkód oraz odpowiedzialności firmy, która istnieje poza odpowiednią jurysdykcją. Aby odpowiedzieć na takie pytania, skargi Gonzáleza weszły na grunt prawny i trafiły do Trybunału Sprawiedliwości Unii Europejskiej. W dniu 13 maja 2014 r. Sąd zakończył wyrokiem korzystnym dla Gonzáleza i zwrócił się do Google o usunięcie wszelkich wyników wyszukiwania w sieci, które łączą internautów z artykułem La Vanguardia. W swojej decyzji sąd ustalił, że osoby fizyczne mają prawo żądać od wyszukiwarek usunięcia określonych typów linków ze stron wyników wyszukiwania. To orzeczenie stało się impulsem dla tego, co jest obecnie znane jako RTBF. Ustalenia sądu nie obyły się bez dyskusji na temat ograniczeń RTBF, w tym okoliczności, w których wyniki wyszukiwania powinny nadal być powiązane z Google, ponieważ leżą w interesie publicznym. Wydaje się jednak, że orzeczenie zostało zrozumiane jako argument przemawiający za możliwością wpływania na treści online przez daną osobę. W związku z tym RTBF był używany w wielu krajach europejskich, w tym w sądach w Wielkiej Brytanii, Francji i Niemczech.

Jak działa RTBF

Od czasu orzeczenia w sprawie González RTBF zostało wyraźnie uznane w unijnym ogólnym rozporządzeniu o ochronie danych. W 2014 r. nazwę RTBF zmieniono na "prawo do usunięcia danych", a art. 17 ogólnego rozporządzenia o ochronie danych wyraźnie określa metodologię stosowania RTBF. Obecnie decyzje o tym, kiedy i jak stosować RTBF, są podejmowane przez Google oraz radę uczonych, prawników i ekspertów zatrudnianych przez Google. większość spraw jest inicjowana, gdy dana osoba wypełnia aplikację opracowaną przez Google, która deklaruje zamiar usunięcia określonego łącza internetowego. Na podstawie orzeczeń w sprawie González ustalenie, czy RTBF ma zastosowanie w danej sprawie, wymaga rozważenia, czy dana treść online jest niedokładna, nieodpowiednia, nierelatywna lub nadmierna. Chociaż pomocne w zawężeniu, kiedy ma zastosowanie RTBF, każda z wcześniej wymienionych koncepcji jest ostatecznie niejasna i wymaga precyzyjnej analizy prawnej. W odpowiedzi organizacje takie jak Forget.me poświęciły swoje umiejętności prawnicze na wspieranie aplikacji RTBF dla Google. Polityka przyjmowania i/lub odrzucania takich aplikacji nie jest gwarantowana, podobnie jak ogromna władza udzielona Google i jego zespołowi prawnemu, ponieważ reprezentują oni teraz głównych przyznających/odmawiających prawa. Google otrzymuje stały strumień wniosków RTBF od czasu orzeczenia sądu UE. W chwili pisania tego tekstu najnowsze raporty Google dotyczące przejrzystości sugerują, że ocenił ponad 1,6 miliona adresów URL pod kątem usunięcia ze stron wyników wyszukiwania w Internecie i przyznał ponad 500 000 żądań RTBF. Raporty sugerują również, że najczęstsze witryny, których dotyczy proces usuwania, to Facebook.com, Google.com i YouTube.com. Na liście 10 największych serwisów informacyjnych, których dotyczą żądania RTBF, nie ma żadnych głównych serwisów informacyjnych, co może być zaskoczeniem, biorąc pod uwagę charakter sprawy González, a także obawy dotyczące implikacji RTBF dla cenzury mediów informacyjnych i wypowiedzi demokratycznych. Wczesne doniesienia sugerują również, że nawet 95% wniosków RTBF otrzymywanych przez Google pochodzi od osób prywatnych, które chcą chronić dane osobowe (np. którzy zarazili się wirusem HIV), w przeciwieństwie do tych, którzy mogą mieć bardziej podejrzane zamiary, takich jak przestępcy lub politycy. To powiedziawszy, Google przyznaje, że regularnie otrzymuje wnioski od sądów i agencji rządowych na całym świecie, aby usunąć wyniki wyszukiwania. Liczba takich żądań wzrosła z czasem, co prawdopodobnie podsyca obawy, że RTBF może i będzie wykorzystywany w podejrzany sposób.

Debata RTBF

Jak wspomniano, RTBF ma na celu wspieranie prawa osób fizycznych do wpływania na dostępność danych osobowych. Prawo to wynika z zasad prawnych, takich jak prawo do prywatności i związane z tym oczekiwania co do godności, samoidentyfikacji i szacunku. Zakłada się, że zezwalając innym na dostęp (niedokładnych, nieodpowiednich, nierelatywnych lub nadmiernych) danych osobowych, każda z wymienionych zasad jest w pewnym stopniu udaremniona. Jednak poza ramami praw i wolności RTBF opiera się również na socjologicznej debacie dotyczącej pamiętania i zapominania w dobie Internetu. RTBF jest niezbędny ze względu na sposób, w jaki Internet zwiększył zdolność społeczeństwa do zapamiętywania. Jak przekonuje Viktor Mayer-Schönberger w swojej książce Delete z 2010 roku, zapominanie było czymś domyślnym przez większość historii ludzkości. W dużej mierze z powodu ograniczeń ludzkiego mózgu zapamiętywanie było trudne, a czasem niemożliwe. Mimo rozwoju języka i przyborów do pisania, ograniczenia związane z prowadzeniem pisemnych zapisów sprawiły, że większość informacji nigdy nie została udokumentowana i nigdy nie została zapamiętana. Chociaż oznaczało to kilka ograniczeń w zakresie gromadzenia i przechowywania dużych zbiorów informacji, oznaczało to również, że osoby fizyczne zachowywały pewien stopień kontroli nad swoimi prywatnymi informacjami. Można argumentować, że prywatność we wczesnych epokach historii ludzkości niekoniecznie była wynikiem ustanowienia i zaangażowania w prawa do prywatności, ale dlatego, że technologie zagrażające prywatności nie istniały. Ze względu na ostatnie przełomy technologiczne i zmiany kulturowe, takie jak gromadzenie, przechowywanie i udostępnianie coraz większej ilości danych osobowych. "Wykrywalność" danych osobowych ogromnie wzrosła. Obejmuje to dane osobowe dotyczące wiadomości e-mail, przeglądania stron internetowych, zakupów, a nawet ruchów. Aby zrozumieć, jak wiele danych osobowych jest gromadzonych, rozważ następujące statystyki dotyczące "dużych zbiorów danych": Eric Schmidt z Google twierdzi obecnie, że możemy stworzyć i przechowywać więcej danych w ciągu 2 dni niż od początków cywilizacji ludzkiej do 2003 r. W przewidywano, że całkowita ilość przechowywanych danych wyniesie 300 eksabajtów (1 eksabajt to równowartość 100 000 000 gigabajtów). W 2013 roku przewidywano, że ilość przechowywanych danych wzrosła do 13 000 eksabajtów. Nasza zdolność do rejestrowania i przechowywania coraz większej ilości danych stworzyła "pamięć cyfrową", która dokumentuje zachowania dużych populacji. Nasza pamięć cyfrowa ma wiele zalet. Na przykład społeczeństwo z pamięcią cyfrową ma więcej informacji o każdym ze swoich obywateli, co może pozwolić mu na efektywniejszą alokację zasobów i usług. Jest to przesłanka leżąca u podstaw argumentów tzw. ewangelistów big data, którzy twierdzą, że instytucje odpowiedzialne za egzekwowanie prawa, zdrowie i bezpieczeństwo mogą wykorzystywać ogromne zbiory danych do poprawy zdolności wykrywania zagrożeń oraz zapewniania pomocy medycznej i bezpieczeństwa. Jednak pamięć cyfrowa budzi również kilka obaw. Na przykład gromadzenie masowych ilości danych osobowych oznacza ograniczenie praw do prywatności i budowę zaawansowanego społeczeństwa nadzorowanego, w którym trudno jest cokolwiek zrobić bez stworzenia jakiegoś identyfikowalnego zapisu danych. Ten stopień nadzoru powinien dotyczyć; w końcu wszyscy mamy dane osobowe, które wolimy zachować dla siebie. Może się okazać, że nie zgadzasz się z ostatnim stwierdzeniem. Powszechnie uważa się, że niewinne osoby nie mają nic do ukrycia, a zatem nie mają powodów do obaw o pamięć cyfrową. Istnieje jednak kilka scenariuszy, które mogą zachęcić cię do ponownego przemyślenia takiego nastawienia, jeśli je utrzymasz. Aby to wyjaśnić, wyobraź sobie, co by się stało, gdyby każdy, kto przeprowadził proste wyszukiwanie w Google, miał dostęp do Twoich najbardziej zawstydzających momentów. Alternatywnie, rozważ implikacje pamięci cyfrowej dla tych, którzy byli winni nawet lekko dewiacyjnego zachowania. Takie działania mogą obejmować wszystko, od picia alkoholu przed osiągnięciem pełnoletności, przez robienie nieodpowiednich żartów z przyjaciółmi, po publikowanie zdjęć z pijackiej sobotniej nocy w mediach społecznościowych. W społeczeństwie nadzorowanym z pamięcią cyfrową dane dotyczące tych działań będą dokumentowane, przechowywane i udostępniane online. W rezultacie osoby z kryminalną przeszłością mogą mieć trudności z resocjalizacją, treści online mogą ułatwiać masowe zawstydzanie i zastraszanie, a osoby fizyczne mogą mieć trudności z utrzymaniem lukratywnych relacji z pracodawcami i neutralnych relacji z organami ścigania. Rozważmy przypadek Stacy Snyder, która stała się przykładem zagrożeń związanych z pamięcią cyfrową. W 2006 roku kariera nauczycielska Snyder została wykolejona, gdy administratorzy jej uniwersytetu w Stanach Zjednoczonych odkryli zdjęcie Myspace przedstawiające Snydera w pirackim kapeluszu i pijącego z plastikowego kubka. Zdjęcie opatrzono podpisem "pijany pirat". Przedstawiciele uniwersytetu opisali obraz jako "nieprofesjonalny" i sugerował, że niektórych uczniów może urazić, a innych zachęcać do picia alkoholu. Uniwersytet następnie odmówił Snyderowi jej stopnia nauczyciela. Snyder pozwała uczelnię, twierdząc, że naruszają jej prawa wynikające z Pierwszej Poprawki do Konstytucji Stanów Zjednoczonych. Sędzia federalny odrzucił jej roszczenia, opierając się na argumencie, że uniwersytet nie ma obowiązku zapewniania stopnia naukowego swoim studentom. Wysiłek Snyder, aby uzyskać stopień nauczyciela, został unieważniony dzięki pojedynczemu postowi na Myspace, co najprawdopodobniej uważano wówczas za mało znaczący akt. Sprawa Snydera jest przypomnieniem, w jaki sposób treści online umożliwiają pracodawcom (i wielu innym podmiotom) kontrolę prywatnych zachowań danej osoby, a następnie odmówienie im dowolnej liczby przywilejów i możliwości. Implikacje pamięci cyfrowej stają się szczególnie niepokojące, gdy bierze się pod uwagę trwałość treści online. Ponieważ tak trudno jest je wymazać, konsekwencje treści online będą prawdopodobnie długotrwałe, a osoby takie jak Stacy Snyder będą zmuszone dźwigać ciężar zdjęć z Myspace przez większość swojej kariery. Ponadto osoby z pierwszego pokolenia, które dorastały w erze pamięci cyfrowej, będą musiały zmagać się z implikacjami swojego zachowania w młodym wieku w sposób, w jaki osoby z poprzednich pokoleń nigdy tego nie robiły. Na przykład będą musieli pogodzić się ze świadomością, że wszelkie komunikaty w młodym wieku (w tym między innymi zdjęcia pijanych piratów lub tak zwane nieodpowiednie wiadomości na Facebooku) mogą powrócić, aby ich prześladować, gdy będą ubiegać się o pracę w ich dorosłe życie. Ta wiedza może zniechęcić wielu młodych ludzi do wypowiadania się w Internecie. Pamięć cyfrowa może zatem mieć "efekt mrożący" na swobodę wypowiedzi. Zagrożenia związane z pamięcią cyfrową ilustrują znaczenie zapominania. Jak argumentuje Mayer-Schönberger, zapomnienie usuwa "kajdany" przeszłości i pozwala jednostkom na relatywną swobodę wyrażania siebie i bez troski o długoterminowe implikacje. Wydaje się, że RTBF spełnia tę samą funkcję uwalniania, ułatwiając przywrócenie zapominania w erze pamięci cyfrowej. RTBF może również oferować możliwość odkupienia cyfrowego, ponieważ osoby podlegające negatywnym konsekwencjom pamięci cyfrowej mogą skorzystać z prawa do ustanowić "czyste konto" i stworzyć nowe możliwości społeczne, gospodarcze i polityczne. Rozumiany w ten sposób RTBF stanowi próbę przywrócenia prywatności i drugiej szansy w epoce Internetu, która skądinąd zawsze pamięta.

Cenzura i ryzyko RTBF

Choć obchodzony jako narzędzie do ochrony różnych praw i wolności, nieco paradoksalnie, RTBF może pełnić również przeciwną funkcję. Na przykład RTBF może tłumić takie zasady, jak swobodny dostęp do informacji i wolność wypowiedzi, jeśli jest używany do cenzurowania treści w Internecie. Takie obawy były wyrażane najdobitniej poza UE. Na przykład wielu ekspertów prawnych w Stanach Zjednoczonych, kraju, który tradycyjnie przedkładał wolność słowa nad prywatność, wyraziło obawy co do tego, w jaki sposób RTBF może zostać wykorzystany do cenzurowania wypowiedzi w Internecie. Pojawiły się również obawy, w jaki sposób przestępcy i politycy mogą wykorzystywać RTBF do ukrywania informacji, które mogą leżeć w interesie ogółu społeczeństwa. Aby zrozumieć te obawy, rozważ następujące kontrowersyjne zastosowania RTBF:

- Japoński sąd niedawno nakazał Google usunięcie wszelkich linków do doniesień o mężczyźnie skazanym za łamanie przepisów dotyczących prostytucji dziecięcej i pornografii. Po tym, jak mężczyzna zapłacił grzywnę w wysokości 500 000 jenów (około 5 000 USD), sędzia orzekający orzekł, że jednostki powinny mieć możliwość rehabilitacji z czystym kontem.
- Irlandzki polityk, który twierdzi, że niesłusznie został napiętnowany jako homofob po budzących wątpliwości komentarzach na temat zachowania gejów w parkach publicznych, próbował wykorzystać RTBF do ograniczenia dostępu do stron internetowych zawierających krytykę jego poglądów na temat homoseksualizmu.

Można argumentować, że w obu tych przypadkach RTBF służy do cenzurowania informacji, które są cenne dla opinii publicznej. Na przykład rozsądne wydaje się, aby agent nieruchomości wynajmujący mieszkanie w pobliżu szkoły dla dzieci miał łatwy dostęp do danych o osobie, która w przeszłości miała do czynienia z prostytucją dziecięcą. Zasadne wydaje się również, aby wyborca miał łatwy dostęp do danych o poglądach polityka na temat homoseksualizmu. Istnieją powiązane obawy co do tego, w jaki sposób sprawy takie jak ta mogą stanowić precedens umożliwiający władzom politycznym cenzurowanie wypowiedzi dziennikarzy, którzy próbują przekazać informacje o znaczeniu politycznym. W odpowiedzi na krytykę UE niedawno wyprodukowała "arkusz informacyjny", który wyjaśnia, że RTBF nie jest prawem nadrzędnym, ale podlega wielu ograniczeniom, które próbują zapewnić kontrolę i równowagę w celu zapobiegania naruszeniom wolności słowa. Na przykład można odmówić korzystania z RTBF, jeśli orzeka się, że dane informacje muszą być łatwo dostępne, ponieważ służą interesowi publicznemu. Ponadto należy pamiętać, że istniejące raporty Google sugerują, że najczęstszymi użytkownikami RTBF są osoby prywatne, a nie politycy czy przestępcy. Mimo to, ponieważ jesteśmy we wczesnych latach RTBF, istnieją powody, by krytycznie oceniać, w jaki sposób można go wykorzystać w przyszłości, oraz potencjalne ryzyko związane z ustanowieniem systemu, w którym zapominanie jest zbyt łatwe.

Równoważenie zapominania i pamiętania w dobie Internetu

Napięcie między ryzykiem a korzyściami RTBF podkreśla złożony związek między Internetem a zapominaniem. Internet działa jak zewnętrzne urządzenie pamięciowe, umożliwiające gromadzenie i przechowywanie szczegółowych informacji, które w przeciwnym razie zostałyby zapomniane, gdybyśmy polegali wyłącznie na ograniczonej pojemności ludzkiego mózgu. W związku z tym Internet jest słusznie chwalony za poprawę dostępu do informacji. Jednak zagrożenia nieodłącznie związane z pamięcią cyfrową Internetu obejmują możliwość, że dane, które są niedokładne, nieodpowiednie, nierealne lub nadmierne, mogą spowodować znaczną szkodę dla reputacji jednostki. W związku z tym RTBF wydaje się być niezbędnym narzędziem prawnym do rozpoznania tych zagrożeń i wartości zapomnienia. I odwrotnie, nadmierne RTBF może stanowić własne zagrożenie dla wolności słowa, umożliwiając legalne formy cenzury. Wdrożenie RTBF będzie zatem wymagać ekspertów prawnych i komentatorom staranne zaszczepienie wyważonej wersji prawa, która odzwierciedla wartości zapomnienia, ale konkuruje z wartościami pamięci cyfrowej. Ważne jest, aby uznać, że wielka debata na temat korzyści i zagrożeń związanych z RTBF nie powinna być traktowana jako kontradyktoryjność. Należy raczej znaleźć równowagę, która uzna, że zarówno zapominanie, jak i pamiętanie niosą ze sobą wyjątkowe korzyści i zagrożenia w erze Internetu. Peter Fleischer z globalnego doradcy ds. prywatności w Google zaproponował jedną z ram, które można wykorzystać do osiągnięcia tej równowagi. Rozważając uprawnienia nadane przez RTBF, Fleischer prosi nas o rozważenie trzech pytań dotyczących usunięcia:

1. Jeśli opublikuję coś w Internecie, czy mam prawo do ponownego usunięcia tego?
2. Jeśli coś opublikuję, a ktoś inny to skopiuje i ponownie opublikuje na swojej stronie, czy mam prawo to usunąć?
3. Jeśli ktoś inny opublikuje coś o mnie, czy mam prawo to usunąć?

Fleischer argumentuje, że chociaż większość ludzi zaakceptowałaby usunięcie pierwszego stopnia, to w pytaniach 2 i 3 musimy zmierzyć się z problemami związanymi z własnością danych, cenzurą i napięciem między prywatnością a wolnością wypowiedzi. Jeśli np. RTBF przyznaje jednostkom uprawnienia do usuwania danych trzeciego stopnia, co powstrzymuje je przed wykorzystywaniem RTBF do cenzurowania dziennikarzy przekazujących publicznie cenne informacje? W związku z tym eksperci prawni próbowali zaproponować sposoby zmiany RTBF i ograniczenia trzeciego stopnia usunięcia. Na przykład RTBF może być ograniczony do osób prywatnych, które chcą usunąć dane osobowe, lub RTBF może być używany tylko do usuwania informacji opublikowanych wyłącznie w celu zawstydzenia lub wyłudzenia innych. RTBF jest najwyraźniej na najwcześniejszym etapie i prawdopodobnie będzie musiał stawić czoła kilku dostosowaniom i poprawkom, ponieważ eksperci prawni próbują zrównoważyć wartość pamięci cyfrowej, nie zapominając, dlaczego ważne jest, aby zapomnieć.


Powrót

Robaki



Robaki internetowe to złośliwe programy, które samoczynnie rozprzestrzeniają się w sieci i Internecie, infekując hosty, a w niektórych przypadkach uruchamiając złośliwe działania. Infekcja następuje poprzez wykorzystanie usług sieciowych lub słabych punktów i błędów w projekcie oprogramowania dostępnego na hoście. Host, który został zainfekowany robakiem, aktywnie wykrywa i rozpowszechnia kopię robaka na innych wrażliwych hostach w Internecie. W przeciwieństwie do wirusa, który wyszukuje pliki w systemie komputerowym, aby się do niego podłączyć lub który wymaga jakiejś interwencji użytkownika w celu rozprzestrzeniania się, robak ma zdolność wyszukiwania nowych celów i rozprzestrzeniania się w sieciach. Robaki często wyrządzają szkody usługom i sieciom, takie jak ataki typu "odmowa usługi" (DoS), szpiegostwo, podsłuchiwanie, ukrywanie się, cyberwojna, i inne cyberprzestępstwa. Infekcja robakiem często rozpoczyna się od pojedynczego hosta, który następnie atakuje zestaw adresów protokołu internetowego (IP) w Internecie, wyszukując bardziej podatne hosty. Jeśli robak pomyślnie trafi na podatnego na ataki hosta, następnie przenosi swoją kopię na nowego hosta, który rozpoczyna wykonywanie kodu robaka. W tym wpisie omówiono sposób rozmnażania się robaków internetowych, ich rozprzestrzenianie się i aktywację oraz kilka niesławnych epidemii robaków w Internecie.

Wykrywanie celu robaka

Robaki internetowe przyciągnęły powszechną uwagę ze względu na ich zdolność do samorozprzestrzeniania się. Robak internetowy rozprzestrzenia się, wykorzystując różne techniki wykrywania celu w celu wykorzystania podatnego hosta. Podczas infekowania wrażliwego hosta robak wykorzystuje hosta ofiary do automatycznego rozprzestrzeniania swoich kopii za pomocą technik skanowania (robaki skanujące) lub infekowania topologicznych sąsiadów (robaki topologiczne). Ta technika sondowania zestawu adresów lub pracy z zestawem uporządkowanych adresów w celu zidentyfikowania wrażliwych hostów jest znana jako skanowanie. Strategia skanowania a robak jest ogólnie klasyfikowany jako (a) losowy, (b) permutacyjny, (c) topologiczny, (d) zlokalizowany, (e) lista trafień, (f) skradający się i (g) skanujący z możliwością routingu.

Losowe skanowanie

Skanowanie losowe jest najpowszechniejszą i najprostszą strategią wyszukiwania celu, w ramach której robaki generują pseudolosowe adresy IP, a następnie próbują się z nimi połączyć. Większość robaków skanujących rozprzestrzenia się, sondując pseudolosowe adresy, a po zainfekowaniu podatnego hosta kopia robaka jest następnie przesyłana do zainfekowanego hosta, który z kolei wykorzystuje tę samą strategię na ofierze, aby znaleźć bardziej podatne hosty. Losowa strategia skanowania sonduje adresy wiele razy, skanuje adresy, które nie są używane i nie określa, czy hosty są już zainfekowane.

Skanowanie permutacyjne

Podczas skanowania permutacyjnego zainfekowanemu hostowi przypisywana jest część pseudolosowej permutowanej przestrzeni adresowej IP w celu znalezienia i zainfekowania wrażliwych hostów. Osiąga się to poprzez podzielenie przestrzeni adresów IP, w ramach której każda nowa instancja robaka otrzymuje część przestrzeni adresów IP do przeskanowania i zainfekowania. Zachowanie skanowania rozpoczyna się losowo, a następnie zainfekowane hosty przedzierają się przez przypisaną przestrzeń adresów IP, aby znaleźć bardziej podatne hosty. Ponadto, jeśli robak napotka już zainfekowanego hosta, zakłada, że inny robak wykonuje tę sekwencję permutacji, dlatego wybiera nowy losowy punkt i kontynuuje skanowanie.

Skanowanie topologiczne

Skanowanie topologiczne występuje, gdy robak wyszukuje adresy znalezione na zainfekowanym hoście i wykorzystuje je do przeprowadzania dalszych ataków. Jest to typowe zachowanie robaków pocztowych, w przypadku których adresy znalezione w książce adresowej zainfekowanego hosta zostaną wykorzystane do dalszego ataku. Robak może również wyszukiwać adresy URL na dysku zainfekowanego serwera WWW i wykorzystywać je do przeprowadzania bardziej sondujących ataków.

Zlokalizowane skanowanie

Zlokalizowane skanowanie wyszukuje podatne hosty w podsieci zainfekowanego hosta. Po tym, jak robak zainfekuje podatne hosty w Internecie, robak następnie atakuje adresy IP znajdujące się blisko zainfekowanych hostów. Na przykład, jeśli adres IP zainfekowanego hosta to X, następnym celem ataku jest adres X + 1 lub X - 1. Technika ta ma potencjał szybkiego rozprzestrzeniania się w obrębie sieci wewnętrzne, ponieważ robak przekroczył już zapory ogniowe i inne obwodowe systemy bezpieczeństwa.

Skanowanie listy trafień

Skanowanie listy trafień wykorzystuje wstępnie skompilowaną listę adresów IP hostów, które są potencjalnie podatne na atak robaków. Ta lista jest tworzona przez powolne i ukradkowe skanowanie Internetu przez długi czas aby uniknąć jakichkolwiek podejrzeń. Listę można również sporządzić, zbierając informacje z publicznie dostępnych zasobów lub rekonesans ręczny. Skanowanie listy trafień może być niezwykle szybkie, ale wymaga kompilacji docelowej listy adresów.

Potajemne skanowanie

Ukradkowe skanowanie pozwala robakowi rozprzestrzeniać się znacznie wolniej, aby naruszyć dużą liczbę hostów bez wykrycia. Robak uruchamia się na hoście serwera lub klienta, w zależności od wyboru i wygody atakującego. W przypadku hosta serwera, maszyna infekująca będzie czekać na połączenie klienta i sprawdzać, czy host jest podatny na ataki. Jeśli okaże się, że host jest podatny na ataki, serwer skompromituje hosta klienta. Gdy zainfekowany host klienta odwiedza inne podatne na ataki serwery, sprawdza, czy serwery w tych witrynach są podatne na ataki i dlatego je infekuje.

Skanowanie rutowalne

Skanowanie rutowalne zawęża obszar skanowania, wyszukując adresy IP z rutowalnej przestrzeni adresowej IPv4 (Internet Protocol Version 4) zamiast z całej przestrzeni adresowej IPv4 aby zwiększyć prędkość rozprzestrzeniania się robaka. Routowalna przestrzeń adresowa IP jest zwykle pozyskiwana z głównych internetowych sieci szkieletowych.

Rozmnażanie robaków

Robak rozprzestrzenia swoją kopię po wykryciu podatnego hosta. Rozprzestrzenianie się robaka jest klasyfikowane jako (a) propagacja przenoszona samodzielnie, (b) propagacja drugiego kanału i (c) propagacja osadzona. W przypadku samodzielnego rozprzestrzeniania się robak jest przenoszony podczas wykrywania celu; innymi słowy, robak rozprzestrzenia się, dołączając swoją kopię do ładunku początkowego pakietu wysłanego w celu wykrycia podatnego hosta. Propagacja drugiego kanału wykorzystuje dodatkowy kontakt do przesłania robaka po pomyślnym skontaktowaniu się z wrażliwym hostem. W przypadku propagacji osadzonej robak jest rozpowszechniany w normalnym kanale komunikacyjnym jako dołączone dane lub zastępuje normalne dane. Rozprzestrzenianie robaków internetowych wykorzystuje protokół kontroli transmisji (TCP) lub protokół datagramów użytkownika (UDP). W transmisji TCP robak wymaga trójstronnego uzgadniania w celu ustanowienia połączenia z podatnym na ataki hostem przed przesłaniem kopii robaka. Dlatego, gdy robak wysyła datagram TCP SYN w celu zainicjowania połączenia, musi czekać, aż to nastąpi , odbiera odpowiedni datagram SYN/ACK lub time-out od hosta, z którym próbuje się skontaktować. Z drugiej strony UDP jest bezpołączeniowy, co oznacza, że nie wymaga potwierdzenia od celu przed wysłaniem datagramów. Dlatego robaki UDP nie wymagają ustanowienia połączenia przed rozpoczęciem infekcji. Implementacja robaka korzystającego z protokołu UDP jest zwykle przenoszona samodzielnie i dołączana do pierwszego datagramu wysyłanego do celu.

Aktywacja robaka

Robak aktywuje się na hoście ofiary po przesłaniu swojej kopii za pomocą samoczynnej aktywacji lub zaplanowanego procesu. Podczas samoczynnej aktywacji robak zainicjuje swoje wykonanie za pomocą poleceń z uprawnieniami wykorzystywanej usługi. Alternatywnie, do uruchomienia robaka używany jest zaplanowany proces na zainfekowanym hoście. Robak zachowuje się wtedy w zależności od zawartości ładunku i intencji atakującego. Robaki zwykle mają na celu wywoływanie ataków typu DoS, zbieranie danych osobowych lub poufnych informacji z zainfekowanego hosta oraz wykonywanie innych złośliwych działań, takich jak usuwanie plików, a w niektórych przypadkach tworzenie backdoora na zainfekowanym hoście, co umożliwia atakującemu zdalną kontrolę nad hostem . Historyczne epidemie robaków w Internecie Od 1988 r., kiedy pierwszy zgłoszony robak rozprzestrzenił się w Internecie, w Internecie miało miejsce wiele epidemii robaków. Wykorzystanie robaka rozpoczęło się jako eksperyment (np. robak Morris w 1988 r.). Rozwój robaków do szkodliwych działań rozpoczął się 11 lat później wraz z wybuchem epidemii robaka Melissa w 1999 r. i robaka ILoveYou w 2000 r. Robaki Melissa i ILoveYou zainfekowały miliony hostów na całym świecie i rozprzestrzeniły się za pośrednictwem programu Microsoft Outlook, wysyłając kopie robaka pocztą elektroniczną adresów znalezionych w książce adresowej programu Outlook zainfekowanego hosta. Epidemie Code Red i Nimda w 2001 r., Slammer w 2003 r., Witty w 2004 r. i Conficker w 2008 r. pokazały nowość w tworzeniu i rozmnażaniu robaków. Są to wyrafinowane robaki, które szybko rozprzestrzeniają się w Internecie i przeprowadzają ataki DoS, fałszowanie i cyberprzestępstwa powodujące szkody warte miliardy dolarów. Odkrycie Stuxneta zapoczątkowało wykorzystanie robaków w cyberwojnie i do atakowania określonych celów, takich jak infrastruktura przemysłowa. Potem pojawiło się więcej wariantów Stuxneta, w tym Duqu, Flame i Gauss. Poniżej przedstawiono niektóre znaczące i historyczne epidemie robaków, które spowodowały szkody w Internecie.

Robak Morrisa

Jest to pierwszy zgłoszony robak rozprzestrzeniający się w Internecie. Robak został wypuszczony 2 listopada 1988 r., kiedy Internet był zbiorem tysięcy komputerów. Robak Morris wykorzystywał luki w aplikacji Sendmail i słabe hasła na hostach z systemem operacyjnym BSD i pochodnymi, takimi jak Sun OS. Robak wykorzystywał skanowanie topologiczne, aby znaleźć swoje ofiary, pobierając adresy z pliku hosta zainfekowanego hosta, narażając hosta, a następnie przesyłając jego ładunek. Zgłoszono, że robak był przeznaczony do eksperymentów w celu pomiaru wielkości ARPANET (Advanced Research Projects Agency Network) i jest pierwszym zgłoszonym robakiem, który spowodował atak DoS. Zgłoszono również, że robak zainfekował 6000 serwerów i spowodował szkody o wartości od 10 do 100 mln USD.

Robak Melissa

Robak Melissa został odkryty 26 marca 1999 r. Rozprzestrzenianie się Melissa zamykało systemy poczty internetowej, ponieważ rozprzestrzenianie się robaka blokowało systemy zainfekowanymi wiadomościami e-mail. Podczas wykonywania Melissa użyła makrowirusa, aby rozprzestrzenić się na pierwsze 50 adresów w książce adresowej programu Outlook zainfekowanego hosta. Jeśli jednak książka adresowa programu Outlook nie jest dostępna, robak kopiuje się do innych dokumentów programu Word i próbuje wysłać te dokumenty pocztą elektroniczną, ujawniając w ten sposób potencjalnie poufne informacje. Melissa zmodyfikowałaby również istniejące dokumenty, wstawiając cytaty z programu telewizyjnego The Simpsons. Zgłoszono, że Melissa spowodowała szkody o wartości 1,1 miliarda dolarów.

Robak ILoveYou

Robak ILoveYou został odkryty 3 maja 2000 roku w Azji i szybko rozprzestrzenił się na całym świecie. W przeciwieństwie do robaka Melissa, ILoveYou wykorzystywał do rozprzestrzeniania się każdy adres znaleziony w książce adresowej programu Outlook zainfekowanego hosta. Zgłoszono, że ILoveYou spowodował szkody o wartości 8,75 miliarda USD.

Kod Czerwony Robak

Code Red I pojawił się 13 lipca 2001 roku i wykorzystał odkrytą i poważną lukę w serwerach sieciowych Microsoft IIS (Internet Information Services). Robak uruchomił losowe skanowanie przy użyciu 100 wątków. Dziewięćdziesiąt dziewięć z tych wątków wybierało adresy IP, a następnie łączyło się z nimi za pomocą portu 80. Setny wątek był używany do niszczenia strony internetowej ofiary, jeśli taka istniała. Druga wersja Code Red I pojawiła się 19 lipca 2001 roku i miała podobne cechy, ale miała ulepszoną technikę losowego skanowania i przeprowadziła atak DoS na http://www.whitehouse.gov. Druga wersja Code Red I zainfekowała około 359 000 hostów i spowodowała szkody o wartości 2,6 miliarda USD. Code Red II został wydany 4 sierpnia 2001 roku i wykorzystywał tę samą lukę, co Code Red I. Code Red II wykorzystał nowe losowe zachowanie skanowania, lokalizując swoje skanowanie w celu zainfekowania hostów, które były połączone w klaster. Code Red II zainstalował backdoora, aby umożliwić nieograniczony zdalny dostęp do zainfekowanego hosta.

Robak Nimda

Robak Nimda zaczął się rozprzestrzeniać 18 września 2001 r. przy użyciu metody propagacji wielowektorowej. Nimda rozprzestrzeniała się od klienta do klienta za pomocą skanowania topologicznego; wysyłając się jako załącznik do adresów znalezionych na zainfekowanym hoście, a także kopiując się do otwartych udziałów sieciowych. Ponadto Nimda atakował serwery sieciowe zainfekowanych klientów, wykorzystując luki w zabezpieczeniach Microsoft IIS, a także atakował klientów, którzy odwiedzali zaatakowaną witrynę poprzez przeglądanie. Ponadto Nimda naruszyła hosty za pomocą tylnych drzwi pozostawionych przez Code Red II. To wielowektorowe podejście umożliwiło Nimdzie szybkie rozprzestrzenianie się i spowodowało szkody o wartości 18,9 mld USD.

Robak Slammer

Slammer rozpoczął rozprzestrzenianie się 25 stycznia 2003 r. i wykorzystał lukę w zabezpieczeniach serwera indeksującego Microsoft SQL, umożliwiającą przepełnienie bufora. Slammer rozprzestrzenił się szybko i losowo zainfekował większość wrażliwej populacji od 75 000 do 100 000 hostów w ciągu 10 minut. Szybkiemu rozprzestrzenianiu się Slammera sprzyjał jego mały rozmiar (376 bajtów) i przepustowość dostępna do przesyłania jego pojedynczego i małego datagramu UDP. Slammer nie miał złośliwego ładunku, ale spowodował znaczne zakłócenia usług w Internecie. Slammer miał szczytową łączną szybkość skanowania 55 milionów skanów na sekundę. Uważa się, że jest to najszybciej rozprzestrzeniający się robak widziany w Internecie i spowodował szkody o szacunkowej wartości 1,2 miliarda USD.

Robak Witty

Robak Witty zaczął się rozprzestrzeniać 19 marca 2004 r., obierając za cel lukę w zabezpieczeniach produktów systemów bezpieczeństwa internetowego polegającą na przepełnieniu bufora. Zgłoszono, że robak Witty rozprzestrzenia się w Internecie z destrukcyjną zawartością i ma najkrótszy czas między ujawnieniem luki w zabezpieczeniach a wydaniem robaka. Hosty zainfekowane dowcipem wysłały 20 000 datagramów z losowymi adresami IP, losowymi rozmiarami (od 796 do 1307 bajtów) i losowymi portami docelowymi. Następnie robak porusza się dalej (po wysłaniu 20 000 datagramów), aby wielokrotnie zapisywać 65 kilobajtów danych w losowych punktach dysku twardego zainfekowanego hosta, aż do ponownego uruchomienia hosta lub awarii. Robak Witty miał wrażliwą populację 12 000 hostów i skutecznie dezaktywował połowę populacji w ciągu 12 godzin. Dowcipny spowodował szkody o wartości 11 mln USD

Robak Conficker

Robak Conficker zaczął się rozprzestrzeniać 21 listopada 2008 r. i wykorzystywał lukę w zabezpieczeniach usługi Windows Server Service (MS08-067), która umożliwiała tworzenie złośliwego żądania RPC (zdalne wywołanie procedury) na komputerach z systemem Microsoft Windows. Conficker z powodzeniem rozprzestrzenił się i zainfekował 25 milionów hostów przy użyciu topologii, preferencji lokalnych i losowego skanowania. Miał również dodatkowe funkcje, takie jak ukrywanie się w zainfekowanych systemach, dodawanie się do folderu systemowego i rejestru oraz wyłączanie oprogramowania antywirusowego i automatycznych aktualizacji.

Robak Stuxnet i jego warianty

Robak Stuxnet został odkryty 20 czerwca 2010 roku i jest uważany za jednego z najbardziej wyrafinowanych robaków. Stuxnet jest złożonym złośliwym oprogramowaniem i pierwszym atakującym infrastrukturę przemysłową. Stuxnet wykorzystał wiele luk typu zero-day do atakowania przemysłowych systemów sterowania. Stuxnet został zaprojektowany, aby atakować konkretny obiekt nuklearny, ponieważ złośliwe oprogramowanie zaatakowało programowalny sterownik logiczny firmy Siemens za pośrednictwem komputera z systemem Windows, na którym uruchomiono oprogramowanie do kontroli produktów firmy Siemens. Robak Duqu został odkryty 14 października 2011 r. w laboratorium CrySyS na Uniwersytecie w Budapeszcie. Duqu jest podobny do Stuxneta, ale został zaprojektowany w celu podjęcia szpiegostwa na systemy przemysłowe. Infekcje Duqu rozprzestrzeniły się w ośmiu krajach: (1) Holandia, (2) Francja, (3) Szwajcaria, (4) Ukraina, (5) Iran, (6) Indie, (7) Sudan i (8) Wietnam. Duqu wykorzystał lukę w jądrze typu zero-day w dokumencie programu Microsoft Word, która umożliwia robakowi samodzielną instalację. Duqu komunikuje się z serwerem dowodzenia i kontroli za pośrednictwem HTTP, HTTPS (bezpieczny protokół przesyłania hipertekstu) i peer-to-peer, a także wykorzystuje różne serwery proxy podczas komunikacji. Robak Flame został odkryty w maju 2012 roku i jest uważany za wyrafinowane złośliwe oprogramowanie do cyberszpiegostwa i ataku na różne bazy danych. Flame miał wspólne segmenty kodu ze Stuxnetem, ale w wyjątkowy sposób wykorzystywał zaawansowane techniki kryptograficzne, aby udawać legalnego proxy dla usługi aktualizacji systemu Windows, dlatego robak jest pobierany zamiast aktualizacji. Inną odrębną funkcjonalnością używaną przez Flame′a jest nagrywanie rozmów przez Skype′a, robienie zrzutów ekranu, a także monitorowanie aktywności klawiatury i ruchu sieciowego. Robak Gauss został wykryty przez badaczy bezpieczeństwa z Kaspersky Lab w czerwcu 2012 roku. Gauss ma wspólną modułową strukturę z Flame′em i inne funkcje, takie jak baza kodu oraz serwery dowodzenia i kontroli. Rozprzestrzenianie się Gaussa miało na celu zbieranie informacji od zainfekowanych hostów. Gauss ma unikalną funkcję kradzieży danych uwierzytelniających z różnych systemów bankowych, sieci społecznościowych, kont e-mail i komunikatorów internetowych. Gauss ma docelowy moduł, który jest zaszyfrowany przy użyciu szyfru RC4 i może zostać odszyfrowany jedynie poprzez obliczenie klucza deszyfrującego w zainfekowanym systemie przy użyciu ciągów zmiennych ścieżki i nazw plików.

Cykl życia robaków internetowych

Życie robaka po uwolnieniu składa się z kilku etapów: (a) znalezienie celu, (b) rozmnażanie i aktywacja robaka, a następnie (c) infekcja. Podczas fazy znajdowania celu robak wykorzystuje strategie, które obejmują skanowanie losowe, skanowanie permutacyjne, skanowanie topologiczne, skanowanie zlokalizowane oraz skanowanie rutowalne i skanowanie listy trafień w celu wykrycia i zainfekowania bardziej podatnych hostów. Następnie robak rozprzestrzenia kopię do hosta ofiary, aktywuje robaka i wykonuje jego ładunek, jeśli taki istnieje. Jednak robak może wykorzystywać ukradkowe skanowanie, w którym infekcja jest przeprowadzana w powolny i ukradkowy sposób, aby uniknąć wykrycia, a tym samym stopniowo infekować dużą liczbę wrażliwych hostów. Inną techniką wykrywania celów jest kombinacja zachowań związanych ze skanowaniem listy trafień i permutacji


Powrót

Ruchy społeczne i Internet



U zarania ery cyfrowej wielu aktywistów na całym świecie postrzegało Internet jako utopijne miejsce, w którym mógłby się rozwijać alternatywny świat. Wielu aktorów ruchów społecznych przywłaszczyło sobie różnorodny zakres funkcji i usług internetowych, które stopniowo zakorzeniły się w ruchach społecznych, zarówno podczas protestów, jak iw kontekście codziennego życia aktywistów. W szczególności Internet splata się, a tym samym powoduje zmiany w trzech głównych wymiarach charakteryzujących ruchy społeczne: (1) wzorce organizacyjne, (2) tworzenie dyskursu i (3) formy protestu. Te przemiany były coraz bardziej wszechobecne, ponieważ Internet, jego usługi i platformy ewoluowały z biegiem czasu od tak zwanego Web 1.0 z ostatnich dziesięcioleci do obecnego Web 2.0, który aktywiści szeroko stosują dzisiaj. Ten wpis analizuje, w jaki sposób Internet został wykorzystany w organizacji sprzeciwu na całym świecie oraz konkretne formy protestu, które dały początek Internetowi.

Internet i organizacja sprzeciwu

Jeśli chodzi o schemat organizacyjny, to nie tylko prasa drukowana, ale także radio i telewizja funkcjonowały już jako środek koordynacji podczas protestów z przeszłości. Ale większa prędkość i zasięg, na jakie pozwala Internet, spowodowały pojawienie się ponadnarodowych sieci komunikacji i koordynacji między grupami aktywistów zakorzenionymi w różnych lokalnych środowiskach. W globalnym ruchu sprawiedliwości szerokie spektrum organizacji ruchów społecznych z całego świata wykorzystywało platformy internetowe jako narzędzia organizacyjne do przygotowywania protestów antyszczytowych i organizacji forów społecznych od końca lat 90. do początku XXI wieku. Uczeni często zauważają podobieństwa i wzajemne wpływy między przepływem informacji, na który pozwala Internet, a sposobem, w jaki aktywiści organizują się w celu mobilizacji. Logika tworzenia sieci, która charakteryzowała Internet we wczesnych stadiach, znalazła również odzwierciedlenie w logice organizacyjnej, która była typowa dla globalnych ruchów na rzecz sprawiedliwości, często przedstawianych jako "ruch ruchów", aby świadczyć o tym, że jest to globalna sieć lokalnych organizacji ruchów społecznych. W podobnym duchu ruchy prodemokratyczne i antyoszczędnościowe z początku 2010 roku odzwierciedlały kuratorską charakterystykę platform Web 2.0, a więc kierowały się logiką agregacji. Jednocześnie jednak w ramach globalnych ruchów na rzecz sprawiedliwości istniały różne kultury organizacyjne, które ukształtowały wiele sposobów, za pomocą których aktywiści przywłaszczali sobie technologie internetowe, czasami podkreślając jego egalitarny potencjał poprzez horyzontalne wzorce organizacyjne, innym razem odtwarzając istniejące pionowe hierarchie w ramach ruchów społecznych . Ponadto badacze podkreślali sytuacyjny i kontekstualny charakter wyobrażeń internetowych tworzonych przez aktywistów podczas ruchów antyoszczędnościowych i prodemokratycznych, co miało również wpływ na sposób, w jaki aktywiści zaadaptowali Internet do wspierania organizacji protestów.

Internet i tworzenie znaczeń

Prasa drukowana, radio i telewizja miały już duży wpływ na tworzenie alternatywnych dyskursów ruchów społecznych i na ich temat, zwłaszcza gdy aktywiści byli w stanie przywłaszczyć sobie wsparcie technologiczne, za pomocą którego tworzyli treści medialne o sobie i/lub kontrowersyjne kwestie, na których im zależy. Jednak tani dostęp do Internetu otworzył tę możliwość dla większej liczby aktywistów na całym świecie, którzy mogli dotrzeć do szerszej publiczności niż radykalne czasopisma drukowane czy stacje radiowe. Internet funkcjonuje jako potężna platforma do tworzenia i dystrybucji treści kontrhegemonicznych. Niezadowolony z poglądów, jakie media głównego nurtu przedstawiały ruchowi, działaczom globalnego ruchu na rzecz sprawiedliwości postanowiła je ominąć, tworząc Indymedia, pierwsze Niezależne Centrum Mediów przed protestami przeciwko szczytowi Światowej Organizacji Handlu w Seattle w 1999 roku. Te opozycyjne media internetowe szybko rozprzestrzeniły się w wielu innych krajach świata, przyjmując system otwartego publikowania, który pozwalał każdemu pisać wiadomości o lokalnych, krajowych i ponadnarodowych protestach. Historia ruchów społecznych dostarcza wielu przykładów radykalnych magazynów, niezależnych stacji radiowych i niezależnych kanałów telewizyjnych, które promowały tworzenie i rozpowszechnianie alternatywnych dyskursów od i na temat aktorów ruchów społecznych. Jednak powstanie Indymediów sprawiło, że podział między czytelnikami a producentami alternatywnych treści jeszcze bardziej się zatarł niż w przeszłości ze względu na stosunkowo szerokie rozpowszechnienie Internetu i względną łatwość procesu wydawniczego. W związku z tym Indymedia stała się wczesnym przykładem partycypacyjnych mediów obywatelskich, które stanowiły alternatywę dla głównych mediów korporacyjnych. Obecność krytycznej blogosfery, w połączeniu ze zwiększonym wykorzystaniem grup i stron na Facebooku, odegrała ważną rolę przed mobilizacjami, również w odniesieniu do tworzenia alternatywnych dyskursów w krajach o bardzo niskiej wolności prasy. Blogerzy byli szczególnie ważni w potępianiu brutalności policji w latach poprzedzających Arabską Wiosnę w Egipcie. Praktyka blogowania wykraczała jednak poza szerzenie kontrinformacji, ponieważ również blogi bardziej zorientowane na kwestie społeczne niż polityczne były ważne w reżimach autorytarnych, ponieważ przyczyniały się do konstruowania szeroko rozpowszechnionej kultury niezgody. Co więcej, blogerzy w świecie arabskim zaczęli spotykać się twarzą w twarz na konferencjach poświęconych internetowi, co sprzyjało powstawaniu sieci społecznościowych podobnie myślących blogerów, które stanowiły ważną podstawę protestów (Tufekci i Wilson, 2012). Facebook stał się miejscem, w którym ludzie mogli wyrażać swój gniew na policję, zwłaszcza po zabójstwie Kahleda Sayda, blogera, który w czerwcu 2010 roku potępił udział policji w handlu narkotykami. Facebook umożliwił wyrażanie i dzielenie się emocjami, które wyzwalały poczucie przynależności zbiorowej opartej na sprzeciwie wobec brutalności policji. Podczas gdy kolektywne budowanie wspólnego znaczenia w ramach ruchów społecznych zawsze było kluczowe dla powodzenia mobilizacji, wzorce, dzięki którym znaczenia kształtują się w Internecie, stawiają dziś indywidualnych aktywistów na czele kampanii ruchów społecznych. Tak było również w przypadku Occupy Wall Street w Ameryce Północnej, gdzie platformy Web 2.0 wspierały logikę działań połączonych, która w przeciwieństwie do bardziej tradycyjnej logiki działań zbiorowych w dużej mierze opiera się na obecności technologii komunikacji osobistej, które pozwalają na szybkie i łatwe udostępnianie treści multimedialnych na wielu platformach multimedialnych. Oznacza to późniejszy rozwój osobistych ram działania, czyli znaczeń, które są łatwo personalizowane przez poszczególnych protestujących, którzy przyłączają się do mobilizacji.

Internet i formy protestu

Najważniejsza zmiana związana z Internetem wydaje się dotyczyć form protestu, ponieważ wraz z pojawieniem się środowiska online grupy aktywistów mogły liczyć na jeszcze jedno miejsce, w którym mogły stać się widoczne poprzez publiczne protesty. To jest coś, na co prasa, radio i telewizja nie pozwoliły aktorom ruchu społecznego. Związani z szeroko zakrojonymi praktykami alternatywnej informatyki, aktywiści uważali środowisko internetowe za nową przestrzeń walki. Już w 1996 roku kolektyw Critical Art Ensemble wysunął teorię o konieczności "elektronicznego nieposłuszeństwa obywatelskiego" w celu przerwania i zablokowania przepływu informacji przechodzącej przez infrastrukturę internetową w ramach protestu. Wkrótce potem inne kolektywy przyjęły to wezwanie, między innymi Electronic Disturbance Theatre, który w 1998 roku wspierał Zapatystów za pomocą aplikacji o nazwie FloodNet, która spowolniła i ostatecznie zablokowała oficjalną stronę internetową rządu meksykańskiego, dając początek praktyce haktywizmu. w którym wiedza hakerska jest nierozerwalnie związana z kontrowersyjną polityką. W tym samym czasie aktorzy ruchów społecznych badali potencjał Internetu w zakresie poszerzania repertuaru działań w środowisku sieciowym. Ponadto nowoczesne formy protestu, takie jak petycje, przeszły radykalny proces transformacji w związku z pojawieniem się technologii informacyjno-komunikacyjnych. Ponadto występowanie demonstracji off-line, wieców, strajków i okupacji było w coraz większym stopniu wspierane za pomocą usług internetowych i platform internetowych. Po tradycyjnym i nowoczesnym repertuarze sporów, zwiększone wykorzystanie Internetu w kontrowersyjnej polityce wprowadziło aktorów ruchów społecznych do "cyfrowego repertuaru sporów", w którym aktorzy polityczni stają się mniej centralnymi inicjatorami protestów i dzielą ten sam czas i miejsce protestu Kontynuacja protestu jest mniej ważna.

Krytyczne problemy platform mediów społecznościowych dla ruchów społecznych

Korzystanie z Internetu jest ambiwalentne i kontrowersyjne, ponieważ jego usługi i aplikacje mają często komercyjny i korporacyjny charakter, który może funkcjonować jako ograniczenie dla aktorów ruchów społecznych na co najmniej dwa sposoby: (1) poprzez projekt platformy i (2) Polityka firmy. Co więcej, usługi i aplikacje internetowe mogą zostać przekształcone w narzędzia opresji przez półautorytarne i autorytarne rządy. Na przykład Facebook, Twitter i YouTube mogą być wykorzystywane jako potężne środki cyfrowej inwigilacji, które rządy mogą wykorzystywać do monitorowania i cenzurowania kont protestujących, a także do podsycania tłumnych praktyk represji, prosząc użytkowników platform mediów społecznościowych o uznanie i potępienie zaangażowanych aktywistów w protestach. Z tych powodów aktywiści uważają problemy na poziomie własności danych i kontroli platformy za ważne kwestie, które mogą stanowić wyzwanie dla postępowych ruchów społecznych. W rezultacie różne grupy aktywistów zaczęły eksperymentować z tworzeniem platform mediów społecznościowych pozycjonowanych poza logiką rynku. Chociaż są one wykorzystywane do atakowania osób, które działają poza środowiskiem ruchów społecznych, te platformy mediów społecznościowych są nierozerwalnie związane z aktywizmem. Po pierwsze, wspierają tworzenie niezależnych infrastruktur komunikacyjnych, często projektowanych z myślą o potrzebach aktywistów - np. w zakresie ochrony danych. Po drugie, tworzenie takich niezależnych infrastruktur komunikacyjnych może być postrzegane jako forma aktywizmu sama w sobie, mająca na celu interwencję w ekologię mediów w celu wspierania praw komunikacyjnych dla ludzi. Jeszcze przed rozpowszechnieniem się platform mediów społecznościowych kolektyw radykalnych techników, takich jak Riseup.net, zapewniał aktywistom e-maile, listy dyskusyjne, fora i blogi, które zapewniają wysoki stopień ochrony danych. Co więcej, aktorzy ruchu społecznego eksperymentują z usługami i platformami internetowymi, takimi jak Crabgrass, Briar i Thimbl, które oferują podobne funkcjonalności korporacyjnych platform medialnych w połączeniu z silną ochroną danych i platformami zaprojektowanymi z myślą o potrzebach aktywistów. Oprócz problemów związanych z ich komercyjnym charakterem i ich potencjalnym wykorzystaniem jako narzędzi inwigilacji, indywidualna logika uprzywilejowana przez platformy mediów społecznościowych może utrudniać transformacyjny potencjał kolektywnego tworzenia ruchów społecznych. Rzeczywiście, korzystanie z platform mediów społecznościowych nie zawsze jest zgodne z ideałami partycypacyjnych procesów decyzyjnych i może sprzyjać tworzeniu nowych rodzajów hierarchii wśród aktywistów. W ruchach prodemokratycznych i antyoszczędnościowych w 2011 r. grupy na Facebooku, które ostatecznie stały się nierozerwalnie związane z protestami, takie jak "wszyscy jesteśmy Kahled Said" w Egipcie i "demokracja real ya" w Hiszpanii, zostały założone przez osoby obeznane z technologią, które stały się częścią cyfrową awangardę w ramach tych mobilizacji.

Ruchy społeczne i Big Data

Rozpowszechnienie urządzeń sieciowych, w połączeniu z rosnącym, często zautomatyzowanym, generowaniem danych na wielu platformach, wraz z masowym przyjęciem mediów społecznościowych jako narzędzi zaangażowania politycznego, szybko zmienia zawłaszczanie Internetu przez ruchy społeczne. Te nowe osiągnięcia technologiczne otwierają nowe kierunki badań, które są istotne dla uchwycenia ruchów społecznych w dobie wszechobecności cyfrowej i ich metod organizowania się w procesach datafikacji. Ruchy społeczne w coraz większym stopniu angażują się w duże zbiory danych, próbując je wykorzystać do rozwiązywania problemów związanych z prawami komunikacyjnymi, a także szerszych problemów związanych ze sprawiedliwością społeczną. W tym scenariuszu doświadczamy również nieprzewidzianych form algorytmicznego oporu, który przybiera różne formy: aktywiści, organizacje społeczeństwa obywatelskiego i radykalne grupy technologiczne okazują się coraz bardziej zręczni w demaskowaniu propagandy algorytmicznej w mediach społecznościowych, pokazując za pomocą wizualizacji danych, jak rządy używają botów do osłabiania sprzeciwu i wykorzystują moc algorytmu Twittera do zwiększania popularności ruchów protestacyjnych, jak w przypadku hiszpańskich Indignados.


Powrót

Reklama internetowa



W 2002 roku Jef Richards i Catharine Curran opracowali powszechnie uznaną definicję reklamy, która obejmuje cztery kluczowe elementy, łatwo rozpoznawalne przez większość ludzi w wieku powyżej 40 lat: (1) komunikacja płatna, (2) komunikacja zapośredniczona, ( 3) z możliwego do zidentyfikowania źródła oraz (4) mające na celu nakłonienie konsumentów do działania. Jednak jak sugerował artykuł AdWeek z 2013 r., konsumenci z kohorty milenijnej mają znacznie mniej uporządkowany pogląd na reklamę, co prowadzi do pytania, czy definicje reklamy zmieniają się drastycznie. Do leksykonu reklamy weszły nowe terminy. Na przykład "reklama natywna" wykorzystuje oprogramowanie do przekształcania reklamy w wygląd i styl treści redakcyjnych medium online, w którym jest umieszczona. "Transmedia" polegają na wykorzystaniu wielu modalności medialnych do opowiadania wielu historii marki z tego samego "świata opowieści". Naukowcy zbadali, w jaki sposób zmieniła się reklama w kontekście Internetu. Chociaż zbadali wiele różnych aspektów reklamy internetowej, artykuł z 2014 roku w Journal of Advertising Research sugeruje, że Internet wywrócił do góry nogami "wiadra", w których przechowywana była komunikacja marki, i doprowadził do mnożenia się form komunikacji związanej z marką. Komunikacja cyfrowa możliwa dzięki protokołom internetowym umożliwia komunikację opartą na marce na wielu platformach. Menedżerowie marki niekoniecznie muszą już płacić za umieszczanie swojego przekazu na tych platformach. Źródło komunikatów handlowych jest czasami dalekie od jasności, ale intencja przekonania jest często silna. W związku z tym wydaje się, że niektóre kluczowe elementy tradycyjnej definicji reklamy pozostały nienaruszone w środowiskach cyfrowych, podczas gdy inne doświadczają znacznych zakłóceń. Ten wpis przedstawi krótką historię reklamy; wprowadzenie do głównych graczy w komunikacji marki; omówienie modelu komunikacji marki w modelu opłaconym, zarobionym, posiadanym (PEO); oraz proponowaną typologię reklamy internetowej. Wpis zakończy się krótką analizą implikacji zmian, jakie zaszły w reklamie w środowisku cyfrowym.

Krótka historia reklamy

Działalność reklamowa rozpoczęła się od bardzo ścisłych powiązań z branżą medialną. Pierwszym "agentem" reklamowym był Volney Palmer, który otworzył swoją agencję w Filadelfii w 1850 roku. Reprezentował gazety i zabiegał o reklamy od marketerów, aby zapełnić miejsce na tych stronach. Ta podstawowa struktura agencji, które hurtowo kupowały przestrzeń drukowaną i sprzedawała ją detalicznie, pozostawała względnie nienaruszona aż do lat dwudziestych XX wieku, kiedy to radio wprowadziło nowy, przełomowy sposób komunikowania się z masową publicznością. Marketerzy, którzy chcieli wykorzystać to nowe medium do komunikacji z konsumentami, musieli przejść od myślenia o "kupowaniu miejsca" w prasie do "kupowania czasu" w radiu. W rzeczywistości marketerzy nigdy tak naprawdę nie interesowali się ani czasem, ani przestrzenią. To, czego naprawdę chcieli, było aby ich komunikaty handlowe pojawiały się w czasie i/lub przestrzeni, która zapewniłaby im dostęp do potencjalnych konsumentów. Agencje reklamowe oferujące pełen zakres usług, które zapewniały wsparcie dla całej komunikacji związanej z marką, zaczęły nabierać znaczenia w latach pięćdziesiątych XX wieku, gdy telewizja dodała kolejny środek masowego docierania do konsumentów. W latach sześćdziesiątych XX wieku funkcja zakupu mediów stała się znacznie bardziej wyspecjalizowana i opracowano wyrafinowane miary, takie jak zasięg, częstotliwość i punkty oceny brutto, do budowania media planów uwzględniających czas, przestrzeń i możliwość zobaczenia reklamy, a także efektywność kosztowa. Ponadto funkcja zakupu mediów często wyodrębniała się z innych funkcji agencji. Doprowadziło to do pewnych zmian w modelu finansowania, ponieważ system prowizyjny, na którym pierwotnie budowano działalność agencyjną, nie miał już sensu. Często agencjom kreatywnym płaci się teraz za bycie partnerem marketera w zarządzaniu marką i zarządzaniu szerokim zakresem strategii i taktyk komunikacyjnych. W latach 80. bardzo kreatywne komunikaty reklamowe tworzone przez agencje w imieniu marek były co roku prezentowane masowej publiczności podczas Super Bowl. Na początku XXI wieku Internet stał się kluczowym elementem strategii Super Bowl dla wielu marek, a do 2013 roku najważniejszą wiadomością podczas Super Bowl było spontaniczne korzystanie z mediów społecznościowych. Zaledwie chwilę po awarii zasilania podczas Super Bowl XLVII w Nowym Orleanie Oreo wysłał wiadomość na Twitterze: "Nadal możesz zanurzać się w ciemności". Menedżer marki Oreo poinformował, że firma nauczyła się, że skuteczny marketing koncentruje się na zdolności marki do autentyczności i nadążania za nieustannie zmieniającymi się rytmami kultury. Znaczna część prasy branżowej zajmującej się reklamą nadal zajmuje się reklamą w sposób zgodny z definicją reklamy z 2002 roku opracowaną przez Richardsa i Currana. Ponieważ Internet ewoluował, aby umożliwić większe zaangażowanie i interakcję konsumentów, pojawia się coraz więcej pytań o to, czy ta tradycyjna definicja przetrwa.

Gracze w komunikacji marki

Tradycyjny model reklamy obejmuje trzech głównych "graczy": (1) markę (często reprezentowaną przez agencję reklamową), (2) media i (3) konsumenta. Jak zauważono w poprzedniej sekcji, zarówno agencje reklamowe, jak i technologie medialne osiągnęły pełnoletność w XX wieku. W tym samym okresie rozwinęło się również badanie marketingu marki i zachowań konsumentów. Wprowadzenie graficznych interfejsów użytkownika do podłączonych sieci internetowych w drugiej połowie XX wieku umożliwiło nową formę komunikacji cyfrowej, która podzieliła media na osobne odtwarzacze treści i kanały. W erze przedcyfrowej jedynym sposobem na czytanie New York Timesa było kupowanie papieru, na którym został wydrukowany. Jedynym sposobem na obejrzenie General Hospital było dostrojenie się do lokalnego partnera ABC w zaplanowanym czasie wyświetlania. Niektóre technologie przedcyfrowe zaczęły pozwalać na oddzielenie treści i kanału. Kserowanie umożliwiło przekazanie wiadomości bez udostępniania faktycznego papieru gazetowego. Magnetowidy umożliwiły nagrywanie programów telewizyjnych i udostępnianie ich innym i/lub oglądanie ich w późniejszym czasie. W większości jednak treść i kanał nadal były ze sobą ściśle powiązane. Ponadto media drukowane były ograniczone przestrzenią (czytelnik musiał mieć fizyczny dostęp do nośnika, na którym pojawił się druk, aby móc go odczytać), a media telewizyjne związane były czasem (widz lub słuchacz musiał dostroić się do emisja o zaplanowanej godzinie). Nic więc dziwnego, że reklamodawcy nadal kupowali przestrzeń i czas jako pośrednik w dotarciu do konsumentów. Media cyfrowe przełamały granice czasu i przestrzeni. Treść New York Timesa można teraz czytać na dowolnym urządzeniu cyfrowym bez potrzeby używania papieru. General Hospital można oglądać na ABC.go.com w dowolnym momencie po emisji programu w telewizji. Media cyfrowe przełamują również bariery modalności. Gazety udostępniają wideo swoim cyfrowym czytelnikom, a opery mydlane komunikują się z widzami za pośrednictwem tekstowych kont na Twitterze. W środowiskach cyfrowych marketerzy umieszczają swoje komunikaty online w sposób, który często finansuje przekaz, a nie twórców treści. Te trendy w reklamie online sprawiają, że firmy takie jak Google, które "obsługują" wiele reklam online, stają się bogate. Są jednak druzgocące dla tradycyjnych firm medialnych, które dostarczają profesjonalnie tworzone treści i odnotowują ogromne spadki przychodów z reklam, ponieważ reklamodawcy nie są już zainteresowani kupowaniem czasu i/lub miejsca w treściach medialnych, które gwarantują im niewiele więcej niż możliwość, że niektórzy członkowie grupy docelowej może mieć możliwość zobaczenia przekazu reklamowego. Internet nie tylko przerwał powiązanie między treścią a kanałem, ale także zatarł różnicę między publicznością a mediami. W środowiskach cyfrowych osoby zarówno tworzą, jak i konsumują treści. W serwisie takim jak Facebook konsumenci tworzą prawie całą treść. Reklamodawcy, którzy kupują możliwość interakcji z konsumentami w tym środowisku, płacą za możliwość bezpośredniego komunikowania się z osobami, które poprzez zamieszczone przez siebie treści zidentyfikowały się jako potencjalni konsumenci. Marketerzy zaczęli zdawać sobie sprawę, że nowe narzędzia cyfrowe umożliwiły im komunikowanie się z konsumentami w znacznie bardziej ukierunkowany sposób - nie jako część grupy demograficznej, ale jako jednostki lub członkowie społeczności, które wykazują cechy behawioralne i kulturowe. Firmy medialne nadal borykały się z problemami, ponieważ większość konsumentów zgłaszała, że nie chce płacić za treści cyfrowe, które przeniosły się z telewizorów i publikacji drukowanych na ich komputery, iPady i urządzenia mobilne. W tym środowisku kontrolowanym przez konsumentów marketerzy zaczęli zdawać sobie sprawę, że muszą angażować swoich klientów w nowy sposób. W artykule z 2008 Advertising Age Nick Lico napisał, że General Motors, lider w dziedzinie komunikacji marki, zaczął myśleć o reklamie jako o dialogu, który reprezentuje odejście od jednokierunkowych narzędzi komunikacji, takich jak szyldy, gazety, czasopisma, telewizja, i radia, na nowy poziom interakcji z konsumentami w środowiskach cyfrowych. Menedżerowie marki zaczęli myśleć o angażowaniu konsumentów na różne sposoby w kontekście mediów cyfrowych. Mają dostęp do nowych narzędzi, takich jak markowe filmy publikowane na YouTube i Brand Newsrooms, które dostarczają konsumentom angażujące i aktualne treści za pośrednictwem kanałów mediów społecznościowych.

Model PEO

Od około 2010 roku zarówno praktycy, jak i naukowcy odkryli wartość w myśleniu o komunikacji marki online w kontekście tego, czy wiadomości były płatne, zarobione czy posiadane. Płatne media w środowiskach cyfrowych są bardzo zbliżone do tradycyjnej reklamy. Reklamodawcy płacą za czas, przestrzeń, odbiorców i/lub indywidualne zachowania. Marka jest zwykle podstawową częścią przekazu, a intencją jest wyraźne zachęcenie konsumenta do jakiegoś działania związanego z marką. Reklamy banerowe umieszczane w wyszukiwarkach oraz reklamy osadzone w treściach multimedialnych mają płatny format. Tradycyjnie zarobione media były domeną public relations. Praktycy public relations w przeszłości współpracowali ze środkami masowego przekazu, aby "podrzucać" pomysły na historie i umieszczać informacje związane z marką w mediach, które mogą docierać do odbiorców z perspektywy postrzeganej jako obiektywna. Menedżerowie marki tracą część kontroli nad swoim przekazem, ale zyskują szeroki zasięg bardzo niskim kosztem. Tradycyjne techniki public relations były stosowane w środowiskach internetowych, ale zarobione media w kontekście cyfrowym mogą również pochodzić z takich nieplanowanych działań, jak wzmianki konsumentów o markach w ich postach w mediach społecznościowych. Internet dał też markom dodatkowe narzędzia do bezpośredniej komunikacji z konsumentami za pomocą narzędzi, które posiadają. Obejmuje to treści będące w całości własnością, które można znaleźć w witrynach marek, a także filmy związane z markami, które można znaleźć w witrynach takich jak YouTube. Marki zidentyfikowały również sposoby bezpośredniego kontaktu z konsumentami za pośrednictwem aplikacji mobilnych i gier reklamowych, które są cyfrowymi grami zawierającymi wbudowane reklamy.

Proponowana typologia

Tradycyjni gracze w komunikacji marki to marka, media i konsument, ale w nowych środowiskach cyfrowych kanał komunikacji został oddzielony od profesjonalnych twórców treści. Tak więc, jak pokazano w tabeli 1, marka, treść, kanał i konsument stają się graczami kontrolującymi cyfrową komunikację marki. Tabela 1 zestawia tych graczy z trzema elementami modelu PEO. Pozycje w każdej komórce mają na celu przedstawienie przykładów i nie obejmują wszystkich technik reklamy internetowej. Komórka z płatną marką w typologii jest najbardziej zgodna z tradycyjną definicją reklamy. Techniki takie jak banery reklamowe i wyskakujące okienka reklamowe były jednymi z najwcześniejszych form reklamy internetowej i wyraźnie wyrosły z tradycji środków masowego przekazu. Komórka z płatnymi treściami ma również wyraźne podobieństwa w świecie analogowym. Reklama natywna jest zasadniczo bardzo podobna do praktyki płacenia za miejsce w mediach, która wygląda jak artykuł redakcyjny, ale w rzeczywistości jest reklamą (czasami nazywaną reklamą). Komórka z płatnym kanałem ma mniej odpowiedników w środowisku analogowym. Być może najbliższym przykładem jest reklama zewnętrzna, w której firma medialna nie dostarcza żadnych własnych treści, a jedynie miejsce na umieszczenie komunikatu przez reklamodawcę. Reklama w wyszukiwarkach jest jednak znacznie silniejsza niż reklama zewnętrzna, ponieważ użytkownik kontroluje proces wyszukiwania w znacznie bardziej aktywny sposób niż kierowca mijający tablicę zewnętrzną. Płatny konsument zazwyczaj nie była głównym elementem kampanii komunikacyjnych marki. Niektóre kampanie przedcyfrowe obejmowały techniki, takie jak identyfikowanie liderów opinii i dostarczanie im bezpłatnych próbek produktów i usług. Środowiska cyfrowe znacznie ułatwiają identyfikację konsumentów będących influencerami w społecznościach, z którymi marka chce się komunikować, oraz motywowanie tych influencerów produktami, usługami i bezpośrednimi płatnościami za promocję marki. Komórka z zarobionymi treściami różni się nieznacznie w zależności od typu mediów. Praktycy public relations współpracują z profesjonalnymi twórcami treści, niezależnie od tego, gdzie publikują lub produkują, aby znaleźć sposoby na pogodzenie celów komunikacji marki z celami medialnymi w zakresie dostarczania treści, które przyciągają czytelników i widzów. Komórka z zarobionymi kanałami to nowy sposób, w jaki marki mogą zdobyć miejsce w zbiorze rozważań konsumentów. Optymalizując komunikaty marki online, marki zwiększają swoje szanse na pojawienie się w górnej części wyników, gdy konsument szuka produktu lub usługi. Komórka zarobionego konsumenta podkreśla zwiększoną siłę konsumenta w środowiskach cyfrowych. Konsumenci lojalni wobec marki mogą zainicjować własną komunikację wspierającą markę, a niezadowoleni klienci mogą mieć ambony do atakowania marki w środowiskach cyfrowych. Ostatni wiersz tabeli 1 ilustruje kilka sposobów, w jakie media cyfrowe oferują nowe możliwości komunikacji związanej z marką. Chociaż marki zawsze miały możliwość tworzenia całkowicie własnych narzędzi komunikacyjnych, takich jak broszury i biuletyny, narzędzia te często nie były łatwe do dotarcia do konsumenta dokładnie w momencie, gdy konsument chciał dowiedzieć się więcej o produkcie lub usłudze. Komórka należąca do marki jest często postrzegana jako rodzaj broszury online i była jednym z pierwszych sposobów budowania obecności marek w Internecie. Zarówno komórki z posiadanymi treściami, jak i z kanałami ilustrują, w jaki sposób oddzielenie treści i kanałów stworzyło nowe możliwości dla marek i wyzwania dla twórców treści. Witryny takie jak YouTube zapewniają miejsce na treści wideo. Niektóre z tych treści są tworzone przez profesjonalnych twórców treści i wspierane przez reklamy. Niektóre są produkowane przez amatorów. Te środowiska cyfrowe oferują jednak również zupełnie nowe sposoby interakcji marek z klientami. Na przykład mogą tworzyć dedykowane aplikacje i tworzyć środowiska gier z marką. Wreszcie komórka posiadanych konsumentów reprezentuje sposoby, za pomocą których marki umożliwiają konsumentom komunikowanie się o markach w innowacyjny sposób. Chociaż marki od dawna wykorzystują badania, aby uzyskać opinie konsumentów na temat cech marki i przekazów reklamowych, narzędzia cyfrowe dają markom możliwość uzyskania znacznie większej liczby informacji zwrotnych od konsumentów, a nawet pozwalają konsumentowi odgrywać kluczową rolę w tworzeniu przekazu reklamowego, tak jak zrobił to Doritos dla kilku reklam Super Bowl.

Implikacje

Zgodnie z definicją reklama to płatna, zapośredniczona forma komunikacji z możliwego do zidentyfikowania źródła z przekonującymi intencjami i celami działania. W mediach cyfrowych płatna komunikacja jest tylko częścią modelu PEO, koncepcja mediów została podzielona na treść i kanał, źródła wiadomości mogą pochodzić od organizacji lub konsumenta, a perswazja jest tylko jednym z wielu powodów, dla których organizacja i konsumenta do interakcji. Tak więc być może nowa definicja reklamy w środowiskach cyfrowych umożliwionych przez Internet mogłaby brzmieć następująco: Reklama to interakcja między organizacjami i osobami w środowiskach cyfrowych, które umożliwiają komunikację nieograniczoną czasem, przestrzenią ani modalnością i która pozwala organizacjom na dostosowywać swoje komunikaty w oparciu o indywidualne cechy i zachowania. Chociaż większość tego wpisu koncentrowała się na komunikacji opartej na marce, proponowana definicja nie wspomina o markach, ponieważ organizacje czasami komunikują się z osobami z powodów niezwiązanych z marką, takich jak reklama usług publicznych. Pod wieloma względami reklama internetowa stanowi ewolucję. Jak opisano wcześniej, radio i telewizja doprowadziły do zmian w strukturze i funkcji reklamy w sposób ewolucyjny. Pod wieloma względami Internet można postrzegać jako kolejny krok w tej ewolucji. Wiele strategii i taktyk cyfrowych, które obserwujemy dzisiaj, jest kontynuacją wcześniejszych strategii i taktyk. Jednak dwa czynniki, które pojawiły się sugestie, że zmiany mogą być nieco bardziej rewolucyjne. Po pierwsze, rola konsumenta stała się znacznie bardziej aktywna i zaangażowana. Drugi to szeroki trend w kierunku dezintermediacji. Internetowe narzędzia reklamowe pozwalają użytkownikowi zachować kontrolę. Marki od dawna wykorzystują narzędzia badawcze, aby lepiej zrozumieć, co motywuje konsumentów. Zamiast polegać na ankietach i skupieniu się grup wśród próby konsumentów, marki mogą teraz monitorować szeroki zakres zachowań online wszystkich konsumentów, aby zobaczyć, co działa w komunikacji marki. Konsumenci mogą również inicjować interakcje z marką w nowy sposób za pośrednictwem mediów społecznościowych (np. grając w grę reklamową lub tworząc fanbloga). Ponadto konsumenci mogą przekazywać innym konsumentom informacje zwrotne na temat marki w znacznie wydajniejszy i szerszy sposób niż przy użyciu tradycyjnych technik ustnych. Ta analiza reklamy internetowej ilustruje również dezintermediację, którą przewidzieli pierwsi badacze Internetu, tacy jak Robert Gellman. Tradycyjna pośrednicząca rola agencji reklamowej w łączeniu marek ze środkami masowego przekazu nie jest już potrzebna. Organizacje nadal płacą duże pieniądze za reklamę z dużym widowiskiem w dużych wydarzeniach w środkach masowego przekazu, takich jak Super Bowl, ale reklamy te są uzupełniane przekazami, które należą do reklamodawcy, takimi jak strony internetowe i aplikacje, a także szumem, który generuje marka poprzez zachęcanie do zamieszczania w mediach społecznościowych treści generowanych przez konsumentów w dniu meczu, a nawet umożliwianie konsumentom wymyślania pomysłów na reklamy podczas Super Bowl. Poza wydarzeniami z dużymi widowiskami masowa widownia generalnie spada. Treści, które kiedyś były powiązane z mediami, są teraz dostępne w dowolnym momencie za pośrednictwem wielu kanałów i wielu modalności. Ta dezintermediacja doprowadziła do kryzysu profesjonalnych twórców treści, takich jak dziennikarze i producenci wideo. Prawdą jest, że dostępnych jest wiele nowych kanałów udostępniania ich pracy. Jednak konsumenci nie chcą płacić za dostęp do tych kanałów, a reklamodawcy są skłonni łączyć swoje przekazy z profesjonalnie stworzonymi treściami tylko wtedy, gdy zapewnia im to wyraźny link do konsumentów, do którego nie mogą skuteczniej dotrzeć w inny sposób. Ponadto reklamodawcy nie chcą już kupować ekspozycji dla docelowych odbiorców. Chcą kupować zachowania, takie jak klikanie, od zainteresowanych konsumentów. Internet zmienił sposób, w jaki menedżerowie marek myślą o rodzajach reklamy i dał im znacznie więcej możliwości dotarcia do konsumentów. Menedżerowie marki mają teraz znacznie skuteczniejsze sposoby bezpośredniego kontaktu z konsumentami. Nie potrzebują agentów reklamowych, aby połączyć ich z mediami. Nie potrzebują mediów, aby zapewnić im grupę docelową. Mogą nawet tworzyć własne kanały do bezpośredniego kontaktu z konsumentami w dowolnym miejscu i czasie oraz w dowolny sposób.


Powrót

Rada Architektury Internetowej



Rada Architektury Internetu (IAB) jest powołanym komitetem Internet Engineering Task Force (IETF), który po raz pierwszy spotkał się w 1986 r. IAB nadzoruje ewolucję protokołu kontroli transmisji/protokołu internetowego (TCP/IP) i nadzoruje działalność badawczą IETF; pod pewnymi względami IAB może być postrzegana między innymi jako zarządca TCP/IP. Jak ujęli to Paul Hoffman i Susan Harris (2012): "IAB odpowiada za obserwację "szerszego obrazu" Internetu i skupia się na długofalowym planowaniu i koordynacji między różnymi obszarami działalności IETF". Ten wpis omawia rolę, historię i działalność IAB. Głównym celem IAB jest uczynienie Internetu tak otwartym i funkcjonalnym, jak to tylko możliwe, zinstytucjonalizowanie ducha, który tchnął kulturę internetową od samego początku. Jest głęboko zaangażowany w nadzór nad monitorowaniem i konfiguracją sieci, routingiem pakietów, szyfrowaniem i kwestiami bezpieczeństwa Internetu. Dlatego IAB zajmuje się standardami internetowymi, interoperacyjnością, hakowaniem, spamem i powiązanymi kwestiami. Zasadniczo IAB istnieje po to, aby społeczeństwo mogło mieć zaufanie do Internetu, zapewniając odpowiednią prywatność i bezpieczeństwo. Na przykład w 2014 roku, w następstwie kilku naruszeń danych na dużą skalę (zwłaszcza dokumenty WikiLeaks dostarczone przez Edwarda Snowdena), wydała oświadczenie wzywające do wszechobecnego szyfrowania całego ruchu internetowego, co odbiło się szerokim echem. IAB wykonuje szereg istotnych zadań. Co najważniejsze, oferuje nadzór nad protokołami używanymi w Internecie i procesem ustalania standardów, a także rozpatruje odwołania w sprawie skarg, jeśli użytkownicy uważają, że popełniono błąd. Pozyskuje, redaguje, zatwierdza i publikuje liczne prośby o komentarze lub notatki na temat Internetu, który rozpoczął się w 1969 roku; jeśli prośby o komentarz otrzymają wystarczające wsparcie, staje się to standardem internetowym. Udziela porad Towarzystwu Internetowemu w zakresie aspektów technicznych, wytycznych proceduralnych, a czasami implikacji politycznych Internetu, w szczególności standardów internetowych. Potwierdza mianowanie przewodniczącego IETF i jego dyrektorów regionalnych oraz wybiera przewodniczącego Internet Research Task Force na odnawialną 2-letnią kadencję. Identyfikuje i proponuje rozwiązania problemów technicznych Internetu. Współpracując z Internet Corporation for Assigned Names and Numbers, IAB administruje przypisywaniem parametrów protokołu sieciowego IETF przez Internet Assigned Numbers Authority. Na przykład, ponieważ pierwotna pula adresów protokołów (IPv4) stopniowo się wyczerpywała, IAB zachęcała do korzystania z nowszego schematu IPv6, który ma znacznie większą liczbę adresów. Koordynuje również badania prowadzone przez Internet Research Task Force i rozpowszechnia ich wyniki. Organizuje zapraszające warsztaty, które dostarczają przeglądów różnych aspektów architektury Internetu i publikuje swoje artykuły. Służy jako łącznik z podobnymi organizacjami w innych krajach i doradza organizacjom, takim jak Organizacja Współpracy Gospodarczej i Rozwoju oraz Federalna Komisja Łączności. Początki IAB sięgają Rady Kontroli Konfiguracji Internetu, która została utworzona przez Vinta Cerfa, dyrektora technicznego Agencji Zaawansowanych Projektów Badawczych w Obronie, w 1979 roku, aby doradzać mu w kwestiach technicznych. Kiedy Rada Kontroli Konfiguracji Internetu została rozwiązana w 1984 r., została przemianowana na Internet Advisory Board, a następnie ponownie przemianowana na Internet Activities Board w 1986 r. (z tymi samymi inicjałami) w ramach przejścia z DARPANET (Defence Advanced Research Project Agency Network) do sieci NSFNET Narodowej Fundacji Nauki. W końcu przyjęło swoją obecną nazwę w 1992 r., kiedy powstało Towarzystwo Internetowe, a Internet przekształcił się w sieć zarządzaną prywatnie. W ten sposób, od swoich rządowych korzeni, IAB stała się podmiotem międzynarodowym i publicznym. Członkostwo w IAB składa się z 13 wolontariuszy, z których jeden jest przewodniczącym IETF, nominowanych przez komitet nominacyjny. Wszyscy są ekspertami w dziedzinie architektury Internetu, a wielu z nich ma karierę w sektorze prywatnym (tj. firmach zajmujących się technologiami sieciowymi) lub na uniwersytetach, ale działają jako jednostki, a nie przedstawiciele swoich instytucji. Członkowie odbywają 2-letnią kadencję i są zatwierdzani przez Internet Society. IAB odbywa dwa spotkania miesięcznie przez telefon. Organizuje również coroczne konferencje. Jednak, jak argumentuje Andrew Russell (2006),

IAB nie można scharakteryzować jako demokrację, ponieważ nikt nie głosował, a zarząd wpuszczał tylko tych, których chciał. Samo założenie Internetu - zwłaszcza jego protokół i projekt sieci - wymagało, aby Rada podejmowała decyzje w drodze konsensusu. Demokracja, ze swoimi rywalizującymi frakcjami i politycznymi kompromisami, nie była odpowiednim modelem politycznym dla IAB czy Internetu.

Poza kwestiami technicznymi IAB angażuje się w inne działania. W 1989 roku opublikowała kodeks etyczny, oparty w dużej mierze na kodeksie National Science Foundation, który potępia jako niedopuszczalne działania, które nadużywają Internetu lub zagrażają jego integralności. Ponadto ma na celu promocję dostępu do Internetu, w tym Internetu mobilnego oraz Internetu Rzeczy. Na przykład przekazała Narodowej Agencji Telekomunikacji i Informacji informacje zwrotne na temat roli rządu we wspieraniu Internetu przedmiotów. Jednak zazwyczaj nie publikuje kompleksowych planów wdrożeniowych.


Powrót

Randkowanie w internecie



Randki internetowe to sposób na poszukiwanie intymnej partnerki przy wsparciu specjalistycznych serwisów lub aplikacji mobilnych. Można go zdefiniować jako nowy rynek partnerski i/lub małżeński, który ze względu na szereg zmian społecznych jest coraz częściej wykorzystywany jako miejsce poszukiwania potencjalnych partnerów do związków romantycznych, seksualnych, przyjaźni czy innych intymnych związków. Rosnąca popularność randek internetowych sugeruje, że należy to podkreślać przy omawianiu wpływu Internetu na codzienne życie jednostek. W tym wpisie skupiono się na charakterystyce randek internetowych jako internetowej platformy wyszukiwania romantycznych partnerów i budowaniu romantycznych partnerstw na podstawie randek internetowych. Zawiera krótki przegląd rozwoju internetowych serwisów randkowych, charakterystykę społeczną zachęcającą do randek internetowych, zmiany w normatywnej akceptacji internetowych poszukiwań partnera intymnego, postrzegane zalety i wady takich poszukiwań, charakterystykę profili i pisania profili oraz refleksję o głównych negatywnych aspektach podkreślanych przez krytyków randek internetowych. Na zakończenie wpisu omówiono skuteczność randek internetowych, skupiając się na różnicach między randkami internetowymi a klasycznymi, bezpośrednimi poszukiwaniami potencjalnego partnera.

Początki i różnorodność randek internetowych

Prawdopodobnie pierwszym internetowym serwisem randkowym był Web Personals, założony w 1994 roku przez Andrew Conru, gdy był studentem na Uniwersytecie Stanforda. W następnym roku Gary Kremen założył portal randkowy Match.com. Pierwsze badania dotyczące randek internetowych przeprowadzono pod koniec lat 90. Randki internetowe jako partnerstwo i małżeństwo to rynek wciąż zyskuje na popularności. Od roku 2000 gwałtownie wzrosła liczba i różnorodność witryn stworzonych w celu poszukiwania intymnych relacji. Stale uruchamiane są nowe serwisy randkowe w celu umożliwienia specjalistycznego wyszukiwania potencjalnych partnerów (np. członków różnych grup religijnych, osoby z wyższym wykształceniem, osoby o specjalnych gustach muzycznych, homoseksualiści, biseksualiści). Oprócz klasycznych portali randkowych dostępne są również aplikacje mobilne, które pozwalają na jeszcze szybsze nawiązywanie kontaktów wśród zainteresowanych osób, które znajdują się w pobliżu poszukiwacza. Internetowe strony randkowe są z jednej strony ograniczone do określonych kontekstów kulturowych; z drugiej umożliwiają wyszukiwanie w skali globalnej. Niektóre strony umożliwiają dopasowywanie na podstawie wyliczeń dokonanych przy pomocy zaprogramowanych psychologicznych testów dopasowujących, inne umożliwiają wyszukiwanie na podstawie kryteriów ustalonych przez wyszukującego. Największe internetowe serwisy randkowe mają kilkaset milionów użytkowników.

Czynniki społeczne i indywidualne

Wpływanie na praktyki związane z randkami internetowymi


Powodów korzystania z internetowych serwisów randkowych jest wiele i obejmują one zarówno szersze zmiany społeczne, jak i możliwości, jakie Internet daje ludziom na poznanie potencjalnych partnerów na dużym obszarze geograficznym. Wśród zmian społecznych, które zachęcają jednostki do korzystania z internetowych serwisów randkowych (lub mobilnych aplikacji randkowych) są zmiany w alokacji czasu wolnego i czasu pracy, sekularyzacja, która spowodowała mniejsze zaangażowanie jednostek w instytucje religijne lub inne tradycyjne instytucje, które od dawna uznawane były za bezpieczne miejsca spotkań partnerów oraz rosnąca różnorodność stylów życia poszczególnych osób. Ponadto życie w mieście nieustannie wymaga od jednostek sprawnego działania i dobrego wykorzystania ograniczonego czasu wolnego, co z kolei zmniejsza szansę na poznanie kogoś nowego. Młodsze pokolenia mają obecnie tendencję do zawierania małżeństw lub nawiązywania znaczących związków romantycznych i posiadania dzieci później niż było to typowe dla ich rodziców. Seryjna monogamia wpływa na częste nawiązywanie i kończenie związków wśród młodych, podczas gdy solidne, długotrwałe związki partnerskie na ogół pozostają jedną z nadrzędnych wartości osób starszych.

Użytkownicy

Kiedy korzystanie z Internetu było ograniczone do niewielkiej części populacji uprzywilejowanej posiadaniem komputera i wiedzą, jak go używać, powstało kilka teorii na temat przeciętnych użytkowników internetowych serwisów randkowych. W latach 90. uważano, że ci, którzy uprawiają randki internetowe, albo rekompensują ograniczone umiejętności społeczne i możliwości, albo są bardziej pobłażliwi seksualnie i żądni przygód niż przeciętna osoba. Tacy użytkownicy byli często uważani za niezdolnych do znalezienia partnera na przypadkowe randki twarzą w twarz lub byli postrzegani jako wysoce introwertyczni. Idee te doprowadziły do stygmatyzacji randek internetowych. Z drugiej strony często uważano też, że randki internetowe uprawiali głównie biali mężczyźni z wyższym wykształceniem i statusem społecznym. Obecnie, gdy zdecydowana większość populacji świata zachodniego korzysta z Internetu, cechy społeczno-kulturowe osób korzystających z randek internetowych coraz bardziej przypominają ogólną heterogeniczność całej populacji. Mimo to czołowi użytkownicy internetowych serwisów randkowych to osoby w wieku od 30 do 40 lat.

Profile randkowe

Profil użytkownika jest punktem wyjścia do randek internetowych i ważnym narzędziem umożliwiającym wyszukiwanie zainteresowanych partnerów na podstawie z góry ustalonych kryteriów. Zwykle zawiera zdjęcia i kilka kategorii opisowych, takie jak m.in. wiek, miejsce zamieszkania, cechy fizyczne (np. płeć, budowa ciała, kolor oczu i włosów, wzrost, waga), stan cywilny (np. stan cywilny, stan cywilny, rozwódka, wdowa), wykształcenie poziom, hobby i zainteresowania oraz "tekst motywacyjny", za pomocą którego osoba poszukująca opisuje siebie oraz cechy osoby i rodzaj związku, którego szuka. Niektóre serwisy randkowe zachęcają użytkowników do zamieszczania klipów wideo w swoich profilach. Wiek i miejsce zamieszkania to najważniejsze kategorie używane do filtrowania dopasowań, ale istnieją dowody, które podkreślają znaczenie zdjęcia użytkownika. Poszukiwacze, którzy nie umieszczają zdjęć w swoich profilach, znacznie zmniejszają swoje szanse na znalezienie partnera. Wśród użytkowników lub właścicieli profili jest zwykle więcej mężczyzn niż kobiet, co należy wziąć pod uwagę, gdy użytkownik chce zrozumieć dynamikę randek internetowych. Jeśli właściciel profilu nie stara się stworzyć atrakcyjnego profilu, ponosi duże ryzyko, że w ogóle nie zostanie uznany za interesującego. Co więcej, użytkownicy mogą kłamać, a profil może wskazywać, że użytkownik ma cechy pożądane społecznie, ale których w rzeczywistości nie posiada.

Powody użycia

Istnieje wiele powodów, dla których ludzie praktykują randki internetowe. Często przyczyny te są ze sobą silnie powiązane. Wśród głównych powodów randkowania przez Internet są (a) zakończenie długotrwałego związku, (b) strach przed samotnością, (c) poczucie, że istniejący związek nie jest już satysfakcjonujący, (d) samookreślona introwersja, (e) strach przed odrzuceniem podczas spotkań twarzą w twarz, (f) dłuższe okresy bycia singlem oraz (g) ciekawość i sprawdzanie, czy to działa w znalezieniu partnera. Dla użytkowników, którzy nie mieszczą się w heteronormatywnych normach, istnieją inne powody korzystania z internetowych serwisów randkowych. Homofobia i piętno społeczne, które czasami wiąże się w szczególności z tożsamościami nieheteroseksualnymi, może powodować strach przed wejściem do napiętnowanych miejsc, takich jak bary dla gejów. Anonimowość oferowana przez Internet jest zatem jednym z powodów, dla których kwitnie randkowanie w Internecie wśród nieheteroseksualistów, na przykład dzięki aplikacjom Grindr i GROWLr oraz stronie Adam4Adam.

Zalety i wady randek internetowych

Ci, którzy uprawiają randki internetowe, dostrzegają zarówno zalety, jak i wady w porównaniu z przypadkowymi poszukiwaniami offline. Ta sama cecha może działać jako zaleta dla kogoś lub jako wada dla kogoś innego. Korzyści można podzielić na następujące kategorie:

Anonimowość: Anonimowość jest jedną z kluczowych zalet komunikacji i interakcji online, a także kluczową przynętą randek internetowych. Zmniejsza psychologiczne obciążenie odrzuceniem i znaczenie norm społecznych, co oznacza, że ludzie w środowiskach internetowych czują się bardziej wolni i bezpieczni.
Łatwość nawiązania pierwszego kontaktu: Względna łatwość nawiązania kontaktu z kandydatem na randkę jest konsekwencją kilku czynników, wśród których głównym jest jasna intencja osób posiadających profil. Jeśli założymy, że intencja jest realna, dylemat, czy jednostka jest "na rynku", nie występuje. Drugi powód leży w zmniejszonej wrażliwości osoby wyszukującej, która zostaje odrzucona w komunikacji wyłącznie online. Łatwość nawiązywania kontaktu jest powiązana z anonimowością.
Krótsza faza nawiązywania kontaktu: Kontakt można nawiązać na podstawie kliknięcia lub prośby o rozmowę online. Potencjał ujawniania głębokich intymnych myśli rośnie dzięki anonimowości i zmniejszonej wrażliwości. Dłuższa komunikacja online zachęca jednostki do dzielenia się informacjami na temat swojego życia intymnego oraz dzielenia się nadziejami i obawami, których zwykle nie ujawniają nieznajomym.
Zmniejszone znaczenie odrzucenia: jeśli osoba, która szuka miłości w Internecie, zostaje odrzucona, poszukiwacz przypisuje mniejsze znaczenie odrzuceniu niż w przypadku spotkania twarzą w twarz. Ta cecha wynika z anonimowości, częstotliwości odrzuceń i poczucia, że istnieje niewyczerpana lista innych potencjalnych partnerów online, którzy wciąż są dostępni.
Komfort domu: możliwość poznawania ludzi z własnego domu to kolejna zaleta randek internetowych. Przejście do komunikacji twarzą w twarz jest ograniczone do tych, którzy przeszli już wstępny proces filtrowania. Ta zaleta obejmuje również możliwość prostego zakończenia relacji tylko online, które nie są już postrzegane jako obiecujące.
Możliwość budowania relacji najpierw online: W przypadku randek internetowych atrakcyjność fizyczna może stać się mniej ważna, ponieważ potencjalni partnerzy najpierw poznają się online. Aaron Ben-Ze′ev podkreśla, że przyciąganie i bliskość budują się w związkach internetowych, umożliwiając w ten sposób tworzenie romantycznych relacji w sytuacjach, w których normalnie by się nie rozpoczęły.
Elastyczność czasowa: możliwość przejścia do trybu online w dowolnym momencie umożliwia wyszukiwanie innych osób, kierując się preferencjami, chęciami i emocjami osoby poszukującej.
Oszczędność czasu: Internetowe serwisy randkowe zazwyczaj oferują szybkie dopasowanie, co jest ważne zwłaszcza na początku, kiedy następuje intensywne filtrowanie interesujących właścicieli profili. Z drugiej strony komunikacja online, która następuje po pierwszym filtrowaniu, może być czasochłonna.
Autorefleksja: randki internetowe zachęcają ludzi do zadania sobie pytania, kim są, jakie są ich życzenia i plany na przyszłość. Autorefleksja daje możliwość przekształcenia tożsamości jednostki. Eva Illouz i Shoshannah Finkelman w swojej pracy nad emocjami i racjonalnością w doborze partnerów podkreślają, że w spotkaniu z wirtualnym innym ja musi doświadczyć skoncentrowanego procesu samoobserwacji, wglądu w siebie, samooceny oraz artykulacji gustów i opinie odnoszące się do siebie i do innych.
Niższe koszty: Możliwość wydawania mniejszych pieniędzy poprzez randki internetowe jest zwykle podkreślana przez mężczyzn i może być rozumiana jako dowód utrzymujących się tradycyjnych oczekiwań społecznych dotyczących finansowych kosztów randek.

Wśród wad najczęściej podkreślane przez randkowiczów są następujące:

Bezosobowy charakter cyberprzestrzeni: Bezosobowość jest zwykle związana z koncepcją racjonalnego wyboru, a nie z głębokimi emocjami. W Internecie treść komunikacji staje się bardziej istotna, podczas gdy inne cechy, które są na pierwszym planie w ramach przypadkowych randek, schodzą na dalszy plan (np. Komunikacja niewerbalna, ton głosu, atrakcyjność fizyczna).

Niższa początkowa inwestycja emocjonalna i zaangażowanie: początkowo może być mniej inwestycji emocjonalnych, co stanowi barierę w rozwoju intymności. Kiedy dwie osoby spotykają się twarzą w twarz i nie od razu się dogadują, nie podejmują próby zbudowania intymnego, romantycznego związku. Kończą proces poznawania się bez poważnych konsekwencji emocjonalnych.
Czasochłonna komunikacja: Czas poświęcony na komunikację z potencjalnymi partnerami nie gwarantuje pozytywnego wyniku. Szczególnie w okresach, gdy osoba poszukująca jest bardzo zaangażowana w komunikację online z jednym lub kilkoma potencjalnymi partnerami, czynność ta może być bardzo czasochłonna, czasem znacznie bardziej niż oczekiwano. Tę wadę wyrażają głównie ci, którzy powiedzieliby, że jeszcze im się nie udało.
Nierealistyczne wyobrażenia partnerów: Ponieważ budowanie relacji za pomocą komunikacji online opiera się na ograniczonych informacjach o potencjalnym partnerze, brakujące informacje są często wypełniane wyobraźnią. Charakterystyka internetowych serwisów randkowych i komunikacji online zwiększa siłę fantazji i wyobraźni, które mogą pobudzać uczucia zakochania. Problem jest szczególnie trudny w przypadkach, gdy niezgodność między wyobrażoną wersją a rzeczywistą osobą jest zbyt duża, aby można ją było zaakceptować.
Częstotliwość kłamstw lub fałszu: Częstotliwość, z jaką randkowicze online przedstawiają się nieprawdziwie, jest dla wielu użytkowników główną wadą randek internetowych. Internet i aplikacje internetowe dają możliwości eksperymentowania i manipulowania danymi. Manipulacja może być celowa, ale może też być konsekwencją testowania lub budowania nowej tożsamości użytkownika. Innym powodem częstych oszustw jest kontekst pisania profilu, który wymaga od osoby poszukującej zaprezentowania się jako atrakcyjna lub interesująca. Często właściciele profili kłamią na temat swojej budowy ciała lub ogólnego wyglądu (czasem wykorzystując stare lub wyretuszowane zdjęcia, a nawet zdjęcia innych osób), stanu cywilnego, wieku i przyzwyczajeń, takich jak palenie tytoniu lub spożywanie alkoholu. Małe, nieszkodliwe kłamstwa są częstsze niż zamierzone, szkodliwe. Częste kłamstwa zachęcają poszukiwaczy do opracowania procesu podwójnego sprawdzania zgłaszanych danych.
Natrętność i wulgarność: Natarczywość i wulgarność to wady, na które zwracają uwagę zwłaszcza kobiety, które czują, że kandydaci płci męskiej nie akceptują odrzucenia lub są zbyt bezpośredni w poszukiwaniu związku seksualnego. Natrętność i wulgaryzmy są konsekwencją internetowego efektu rozhamowania, który zachęca do komunikacji bez autocenzury.
Nękanie i przemoc: Nękanie i przemoc należą do negatywnych aspektów randek internetowych, które często są pomijane podczas omawiania tematu. Ofiarami są zazwyczaj kobiety, które mogą doświadczyć cyberstalkingu.
Potencjalne uzależnienie: Korzystanie z portali randkowych jest zachęcane przez pokusę znalezienia nowego partnera. W przypadku niektórych użytkowników czynności związane z wyszukiwaniem i komunikacja z potencjalnymi partnerami mogą obejmować przeważającą część codziennych czynności poszukiwaczy i mogą stać się uzależnieniem.

Dokonywanie wyborów i budowanie relacji w randkach internetowych

Oprócz anonimowości, jedną z największych przynęt randek internetowych jest pozorna nieskończoność potencjalnych kandydatów. Pomysł, że istnieją tysiące potencjalnych dopasowań, zachęca poszukiwaczy do ustalania surowych i zróżnicowanych kryteriów wyszukiwania i minimalizuje znaczenie poczucia porażki, gdy poszukiwacz zostanie odrzucony lub nie znajdzie interesującego potencjalnego partnera. Osoby ustalają kryteria wyboru na podstawie swoich preferencji dotyczących potencjalnych dobrych dopasowań. Kryteria są zazwyczaj ustalane w taki sposób, aby uniknąć potencjalnych trudności w relacjach. W praktyce oznacza to, że na początku elastyczność poszukiwacza w ustalaniu kryteriów jest niewielka. Przy większej elastyczności osoba poszukująca może zaangażować się w coś w rodzaju "zakupów w związku". Wybór potencjalnych dopasowań staje się podobny do zakupów katalogowych: randkowicze w Internecie koncentrują się na tych cechach, które im się podobają, i unikają tych, których nie lubią. Funkcjonowanie randek internetowych w aspekcie rynkowym jest argumentem przemawiającym za niechęcią do nich. Jeśli dana osoba chce odnieść sukces w poszukiwaniu partnera w Internecie, musi wziąć pod uwagę niepisane zasady randek internetowych, które generalnie wynikają z netykiety. Zasady składają się z konwencji społecznych, które ułatwiają interakcje w sieciach cyfrowych. Oprócz netykiety należy wspomnieć również o innych niepisanych zasadach. Randki internetowe to nie to samo, co przypadkowe randki, gdzie wygląd fizyczny i komunikacja niewerbalna odgrywają ważną rolę. Wytyczne, które podpowiadają, jak napisać profil, nawiązać kontakt, komunikować się i unikać negatywnych skutków, są krokiem naprzód w zrozumieniu tych zasad. Mówiąc o "niepisanych" zasadach, musimy również wziąć pod uwagę normy społeczne związane z płcią, które określają społecznie akceptowalne praktyki procesu randkowego. Na pierwszy rzut oka randkowanie w Internecie różni się od poszukiwania romantycznego partnera offline. Początek romantycznego partnerstwa jest w tym przypadku randek internetowych, na które wpływ mają głównie cechy komunikacji za pośrednictwem komputera. Cechy komunikacji za pośrednictwem komputera wpływają na sposób, w jaki użytkownicy wybierają interesujące osoby, z którymi chcieliby się zapoznać. Cechy te mogą również stymulować autorefleksję w budowaniu potencjalnych związków partnerskich i ujawnianiu intymności. Z drugiej strony, po przejściu na spotkania twarzą w twarz i komunikację off-line na pierwszy plan wysuwa się zadanie budowania relacji. Sposób zawierania znajomości online zmienia proces wyboru osoby, która może nadawać się do romantycznego związku. Zasada racjonalnego wyboru na podstawie bliskości geograficznej ma kluczowe znaczenie dla randek internetowych, podczas gdy atrakcyjność fizyczna ma mniejsze znaczenie. Wymogi randek internetowych, aby indywidualny profil zawierał informacje o tym, kim jest dana osoba i jakich ludzi chciałby poznać, stymulują proces samoobserwacji. Dzięki randkom internetowym użytkownicy uczą się wyrażać siebie, filtrować i wybierać interesujące osoby oraz czytać wskazówki komunikacji online.


Powrót

Rekrutacja internetowa



Jedną z głównych funkcji korporacyjnych, które zostały przekształcone przez technologię informacyjną, jest dziedzina zarządzania zasobami ludzkimi. W szczególności największe zmiany w rekrutacji i selekcji są uważane za "powiązane z technologią" (Ryan i in., 2015), podczas gdy "rekrutacja internetowa przynajmniej w pewnym sensie znacząco zmieniła sposób, w jaki cały proces rekrutacji jest prowadzone i rozumiane" (Lievens i Harris, 2003, s. 132). Ten wpis bada, w jaki sposób rekrutacja została zmieniona z procesów tradycyjnych na cyfrowe lub elektroniczne w tak zwanej e-rekrutacji. Omówiono w nim wykorzystywane serwisy oraz cechy serwisów, które są istotne dla rekrutacji. Analizuje również korzyści i ograniczenia rekrutacji przez Internet oraz sposób, w jaki firmy wykorzystują media społecznościowe do weryfikacji kandydatów. Wykorzystanie Internetu i innowacyjnych technologii do rekrutacji w organizacjach stale rośnie w ostatnich latach. Duża część korporacji weszła w sferę sieci społecznościowych, oficjalnie prezentując się na portalach społecznościowych, takich jak Facebook, LinkedIn i YouTube. Dwa główne środki komunikacji online wykorzystywane przez organizacje w celu przyciągania i rekrutacji potencjalnych kandydatów to oficjalne strony internetowe organizacji oraz strony osób trzecich, które publikują ogłoszenia o pracę, takie jak HotJobs.com i Monster.com. Ogłoszenia o zatrudnieniu na korporacyjnych stronach internetowych to obecnie powszechna praktyka. Według Brigitte Pfieffelmann, S. H. Wagner i T. Libkuman (2010) firmy odnotowały oszczędności w wysokości około 95% dzięki praktykom rekrutacji online. Ze względu na ograniczenia danych i kwestie prywatności niewiele badań dotyczyło związku między rekrutacją przez Internet a wydajnością pracy. Badanie przeprowadzone przez Farrukha Suvankulova wykazało, że rekruci zatrudnieni przez Internet średnio wykazali się obiecującymi wzorcami zatrudnienia. Jednak to badanie koncentrowało się na armii amerykańskiej, specyficznym statusie zatrudnienia, którego nie można łatwo uogólnić.

Charakterystyka witryny internetowej ważna przy rekrutacji

Ważnym aspektem rekrutacji internetowej są cechy witryn biznesowych, takie jak ich użyteczność i estetyka (Sylva i Mol, 2009) oraz referencje pracowników (Braddy, Meade i Kroustalis, 2008; Van Hoye i Lievens, 2007). Użyteczność, zawartość i wygląd strony internetowej są ważnymi czynnikami dla osób poszukujących pracy. Badania e-Recruitment wykazały, że łatwo dostępne strony internetowe zwiększają atrakcyjność kandydatów dla organizacji (Thompson, Braddy i Wuensch, 2008). Specyficzne cechy stron internetowych i przyjazność dla użytkownika są zdecydowanie najważniejszymi czynnikami wymagań aplikujących (Sylva i Mol, 2009). Co więcej, często sugeruje się, że osoby poszukujące pracy są bardziej zainteresowane ogłoszeniami o pracę i informacjami zawartymi w hiperłączach niż obrazami graficznymi, podczas gdy treść, projekt i funkcje komunikacyjne są ważne dla atrakcyjności kandydatów . Jednak według Phillipa Braddy′ego, A. Meade′a i C. Kroustalisa (2006) projekty stron internetowych (zdjęcia i referencje pracowników) pozytywnie wpływają na postrzeganie przez osoby poszukujące pracy. Reputacja, wizerunek i marka organizacji mają duże znaczenie dla kandydatów, a organizacje powinny dostarczać wystarczających informacji o takich cechach wewnętrznych. A zatem zażyłość organizacyjna , marka organizacyjna i zamiar zatrudnienia (Allen i in., 2007), wartości organizacyjne i określone właściwości estetyczne (Dineen, Ling, Ash i DelVecchio, 2007) są ważnymi aspektami e-rekrutacji. Według Braddy′ego i współpracowników (2006) deklaracje strategiczne, komentarze kulturowe i deklaracje wartości to wymiary, które wpływają na postrzeganie kultury przez jednostki. Zbadano inne zmienne oprócz strony internetowej, takie jak dopasowanie osoby do organizacji lub zgodność między podażą a popytem na pracowników. Badania ujawniły również kilka problemów związanych z postrzeganiem przez kandydatów wizerunku organizacji i dopasowaniem osoby do pracy lub zgodnością między pracownikami a zawodami

Korzyści i ograniczenia rekrutacji przez Internet

Główną zaletą rekrutacji przez Internet jest duża pula potencjalnych kandydatów (Howardson i Behrend, 2014) ze względu na brak ograniczeń geograficznych. Rekrutacja przez stronę internetową organizacji ma szczególne zalety w postaci niższych kosztów zatrudnienia (Ehrhart, Mayer, & Ziegert, 2012) oraz możliwości umieszczenia przez organizację ogłoszenia o pracę w określonej sekcji rekrutacyjnej organizacji (funkcja niedostępna w przypadku headhunterów lub online banki pracy; Selden i Orenstein, 2011). Inne zalety rekrutacji przez Internet obejmują możliwość odwołania się do określonej jakości (pod względem wiedzy i umiejętności) i ilości zasobów ludzkich w dowolnym momencie za pośrednictwem banków CV kandydatów. Dla osób poszukujących pracy online, rekrutacja internetowa oferuje oszczędności kosztów, oszczędność czasu oraz obszerne i nieograniczone wyszukiwanie. Internet umożliwia dostęp bez ograniczeń czasowych i poszukiwanie pracy w kraju lub za granicą.

Ogłoszenia o pracy

Możliwym ograniczeniem korporacyjnej strony internetowej wykorzystywanej jako mechanizm rekrutacji jest liczba nieodpowiednich aplikacji otrzymywanych od niewykwalifikowanych kandydatów. Jednocześnie sugerowano, że informacje o organizacji są bardziej wiarygodne, gdy pochodzą z niezależnego źródła niż ze strony internetowej poświęconej pracodawcy (Van Hoye i Lievens, 2007). Tym samym tablice ogłoszeń są ważne również w e-rekrutacji. Tablice ogłoszeń mają tę zaletę, że przyciągają stosunkowo duży ruch, ale mają ograniczone dane na temat wakatu i kultury organizacji. Kluczową zaletą portali pracy jest to, że kandydaci mogą zamieszczać swoje CV online i mieć bezpłatny dostęp do szerokiej bazy danych ofert pracy (Nikolaou, 2014). Ponadto CV są widoczne dla rekruterów za pośrednictwem mechanizmu wyszukiwania. Podobnie osoby rekrutujące mają w dowolnym momencie otwarty dostęp do kandydatów posiadających odpowiednie umiejętności i doświadczenie. W rezultacie pracodawcy mogą rozszerzyć swoją pulę aplikacji i bazę życiorysów, co prowadzi do skoncentrowanego czasu cyklu rekrutacji (Nikolaou, 2014). Jednak potencjalnymi ograniczeniami są liczba życiorysów, które należy przejrzeć, co zwiększa czas i wydatki administracyjne. Tablice ofert pracy zapewniają ponadto inne podejście do rekrutacji przez Internet, które koncentruje się na rekruterów poszukujących kandydatów do pracy w Internecie. Podejście to kładzie nacisk na odkrycie "pasywnego" kandydata (Lievens i Harris, 2003), który zamieścił CV na tablicy ogłoszeń. Ta "pasywna" atrakcyjność kandydatów jest również silnie kojarzona z mediami społecznościowymi. Serwisy społecznościowe mają codziennie ogromną liczbę użytkowników. Należy jednak wspomnieć, że portale ogłoszeniowe pozostają najwyższym priorytetem dla osób poszukujących pracy, a nie portale społecznościowe.

Linkedin

Najpopularniejszym portalem społecznościowym poświęconym e-rekrutacji jest LinkedIn, który w 2017 r. miał 500 milionów użytkowników. Ta internetowa społeczność zawodowa jest platformą, na której pracodawcy mogą tanim kosztem sprawdzać potencjalnych kandydatów do pracy i bez kwestii prawnych lub etycznych związanych z witrynami takich jak Facebook, gdzie użytkownicy mają większe oczekiwania co do prywatności. Na LinkedIn kandydaci do pracy mogą przygotować profil prezentacyjny online, zakładając, że pracodawcy będą przeglądać ich kwalifikacje. W jednej z ankiet 95% specjalistów ds. zasobów ludzkich wskazało, że korzystali z LinkedIn do rekrutacji "pasywnych" kandydatów, którzy w innym przypadku mogliby nie aplikować.

Weryfikacja kandydatów za pośrednictwem mediów społecznościowych

Oprócz wyszukiwania w witrynach dostosowanych do kandydatów do pracy, organizacje coraz częściej przeszukują serwisy społecznościowe, takie jak Facebook, w celu zebrania informacji o potencjalnych pracownikach przed złożeniem oferty pracy, pomimo możliwości ograniczania dostępu użytkowników do ich profili i postów. Informacje uzyskane za pośrednictwem mediów społecznościowych są powiązane z postrzeganiem przez rekruterów wiedzy, umiejętności i zdolności potencjalnych i obecnych pracowników. Rodzi to względy etyczne, kwestie prawne i możliwość stronniczości z powodu braku ważności . Niemniej jednak w jednej ankiecie 29% menedżerów stwierdziło, że wykluczyło kandydatów z procesu selekcji z powodu informacji zebranych z mediów społecznościowych


Powrót

Routing internetowy



Internet to powszechne określenie ogólnoświatowej sieci między komputerami. Zrewolucjonizował komputery. Aby poznać zawiłości związane z transmisją danych w Internecie z z jednego końca na drugi, trzeba zrozumieć mechanizm routingu w Internecie. Routing internetowy polega najpierw na utworzeniu tablic routingu, które zawierają informacje o najlepszych trasach od źródła do wszystkich miejsc docelowych, a następnie wybraniu z tablic odpowiednich tras do transmisji informacji między systemami końcowymi. Routing w Internecie odbywa się za pośrednictwem routerów, które są urządzeniami kierującymi ruchem sieciowym między źródłem a miejscem docelowym. W tym wpisie przedstawiono wprowadzenie do routingu internetowego i jego procedury, różne komponenty związane z routingiem internetowym (w szczególności routery i protokoły), szeroką kategoryzację strategii routingu internetowego i niektóre określone protokoły. Wpis kończy się omówieniem niektórych kluczowych problemów związanych z routingiem internetowym, różnymi popularnymi zewnętrznymi producentami na rynku oraz omówieniem trudnych zagadnień związanych z routingiem internetowym.

Routing i routery internetowe

Podstawowa architektura routingu internetowego została pierwotnie zaprojektowana przez Vintona Cerfa i Roberta Kahna, którzy kierowali projektowaniem i wdrażaniem protokołu kontroli transmisji i protokołu internetowego (TCP/IP), które są podstawą obecnego Internetu. Virginia Strazisar z BBN Technologies opracowała pierwszy prawdziwy router IP w ramach działań Agencji Zaawansowanych Projektów Badawczych Obrony Stanów Zjednoczonych, zainicjowanych w latach 1975-1976. Do końca 1976 roku w eksperymentalnym prototypie Internetu działały trzy routery oparte na programowanym procesorze danych 11. Przełączanie pakietów to mechanizm używany w routingu internetowym do przesyłania informacji między sieciami. Routery to wyspecjalizowane komputery, które łączą sieć, przełączając pakiety informacji z jednego węzła do drugiego. Każdy węzeł w sieci jest identyfikowany przez adres IP, który pomaga śledzić dostarczanie informacji od źródła do miejsca docelowego. Kiedy jeden komputer wysyła pakiet do innego, wysyła go do najbliższego routera. Protokół routingu określa, w jaki sposób routery komunikują się ze sobą i przesyła informacje, które pomagają im wybierać trasy między dowolnymi dwoma węzłami w sieci komputerowej. Algorytmy wyznaczania tras określają konkretny wybór trasy. Router może łączyć się z kilkoma różnymi sieciami zarówno w intranecie, jak iw Internecie. Protokoły wychodzące Procedury routingu internetowego to specjalne programy działające na routerach. Protokoły routingu wysyłają i odbierają informacje o ścieżce do iz innych routerów w sieci. Każdy protokół routingu jest powiązany z tablicą routingu, w której przechowywane są informacje o ścieżce. Każdy router ma a priori wiedzę tylko o sieciach bezpośrednio do niego podłączonych. Routery skanują tablice routingu z różnych protokołów routingu (jeśli działa więcej niż jeden protokół routingu) i wybierz najlepszą ścieżkę lub ścieżki do każdego miejsca docelowego. Każdy węzeł pośredni na ścieżce do węzła docelowego przekazuje informacje o urządzeniu następnego przeskoku, którym może być inny router lub nawet host docelowy. Informacje te są umieszczane w tablicy przekazywania routera. Gdy router odbiera pakiet, sprawdza nagłówek pakietu, aby określić adres docelowy. Router konsultuje się z tablicą przekazywania, aby uzyskać adres następnego skoku, aby dotrzeć do miejsca docelowego. Proces ten trwa do momentu osiągnięcia hosta docelowego. Routing internetowy przy użyciu przełączania pakietów jest zatem zgodny z paradygmatem routingu przeskok po przeskoku.

Algorytmy routingu

W algorytmach routingu stosowane są dwie strategie:

(1) wektor odległości i (2) stan łącza.

Protokoły routingu wektora odległości

Protokoły działające na podstawie wektora odległości podejmują decyzje dotyczące tras na podstawie wektora (listy) odległości związanych z każdym miejscem docelowym. Każdy węzeł osobno oblicza najlepszą ścieżkę do każdego miejsca docelowego. Po wybraniu najlepszej ścieżki router wysyła następnie wektory odległości do swoich sąsiadów, powiadamiając ich o zasięgu każdego miejsca docelowego. Równolegle sąsiedzi węzła obliczają również najlepszą ścieżkę do każdego dostępnego miejsca docelowego, a następnie powiadamiają swoich sąsiadów o dostępnej ścieżce, którą wybrali, aby dotrzeć do miejsca docelowego. Po otrzymaniu wiadomości od sąsiadów router wybiera lepszą ścieżkę przez alternatywnego sąsiada. Router ponownie powiadamia swoich sąsiadów o wybranych przez siebie ścieżkach dotarcia do każdego miejsca docelowego. Ten cykl trwa, dopóki wszystkie routery nie osiągną wspólnego zrozumienia najlepszych ścieżek dotarcia do każdego miejsca docelowego.

Protokoły routingu według stanu łącza

W protokołach stanu łącza routery wymieniają surowe informacje topologiczne zwane stanami łącza, które przenoszą informacje o łączach i węzłach w sieci. Protokoły routingu według stanu łącza są jak puzzle. Każdy router w sieci generuje element układanki (tate łącza), który opisuje sam siebie i gdzie łączy się z sąsiednimi elementami układanki. Informacje te są dystrybuowane do wszystkich routerów za pośrednictwem mechanizmów zalewania. Kiedy dystrybucja jest zakończona, każdy router w sieci ma kopię każdego elementu układanki i przechowuje elementy układanki w bazie danych stanu łącza. Następnie każdy router samodzielnie konstruuje całą układankę, czego wynikiem jest identyczna kopia całej układanki na każdym routerze w sieci. Każdy węzeł zna całą topologię. Każdy router stosuje algorytm najkrótszej ścieżki (najczęściej algorytm Dijkstry) do układanki, aby obliczyć drzewo najkrótszych ścieżek do każdego miejsca docelowego, umieszczając się w katalogu głównym.

Routing w Internecie

Każda pojedyncza sieć w Internecie działa jako system autonomiczny (AS). Duża liczba AS jest ze sobą połączona. Każdy AS ma przypisany globalnie unikalny numer AS przez regionalny rejestr internetowy. Routing w Internecie działa na zasadzie dwupoziomowej hierarchii routingu, poziomu int a-AS i inter-AS. AS to zestaw routerów w tej samej domenie administracyjnej. Routery graniczne między AS działają jako bramy zewnętrzne, podczas gdy routery wewnątrz AS działają jako bramy wewnętrzne. Każdy AS podejmuje własną decyzję o użyciu wewnętrznego protokołu routingu. Wszystkie routery w AS działają na tym samym wewnętrznym protokole routingu. Routery brzegowe nie tylko wykonują trasowanie między AS przez granice AS, ale także podejmują decyzje dotyczące trasowania wewnątrz AS z innymi routerami w każdym AS. Protokoły bramek wewnętrznych (IGP) działają na poziomie wewnątrz systemu AS - to znaczy są używane do kierowania pakietów informacji w sieci lokalnej, na przykład w budynku biurowym. Najczęściej używanymi protokołami IGP są Routing Information Protocol (RIP) i Open Shortest Path First (OSPF). Protokoły IGP działają w sieci lokalnej na poziomie między systemami autonomicznymi, ale do routingu między sieciami używane są protokoły bram zewnętrznych (EGP). Takie protokoły są wykonywane przy użyciu podstawowego Internetu i łączą ze sobą różne sieci. Najczęściej używanym EGP jest Border Gateway Protocol (BGP).

Protokół informacji o routingu

RIP to standardowy protokół IGP, który gwarantuje stabilne usługi sieciowe. Jeśli jedno połączenie sieciowe ulegnie awarii, może łatwo przystosować się do wysyłania pakietów przez inne połączenie. Charles Hedrick z Rutgers University napisał RIP w czerwcu 1988 roku. Wszystkie są oparte na strategii routingu wektora odległości. Najwcześniejszym RIP był Public Unitary Protocol, który wykorzystywał protokół informacyjny bramy do wymiany informacji o routingu. Nieco zaktualizowana wersja tego protokołu została przyjęta w architekturze Xerox Network Systems pod nazwą RIP. Unikalną zaletą protokołu RIP jest możliwość aktualizowania bazy danych tras, w której przechowywane są informacje o najszybszej trasie między komputerami. Działa w oparciu o algorytm aktualizacji, który umożliwia każdemu routerowi aktualizowanie bazy danych najszybszą trasą komunikowaną z sąsiednich routerów.

Najpierw otwórz najkrótszą ścieżkę

Protokół OSPF jest nie tylko szybszym i wydajniejszym protokołem routera, ale także bardziej złożonym protokołem routingu IGP niż RIP. Opiera się na algorytmie najpierw najkrótszej ścieżki zamiast algorytmu Bellmana-Forda. Wiąże się to również ze znacznie większymi kosztami, przede wszystkim dlatego, że w przeciwieństwie do protokołu RIP (który śledzi tylko najbliższy router dla każdego adresu docelowego), OSPF śledzi kompletną topologiczną bazę danych wszystkich połączeń w sieci lokalnej. Wykorzystuje również strukturę drzewa do opisu topologii sieci w celu zdefiniowania najkrótszej ścieżki od każdego routera do każdego adresu docelowego.

Protokół bramy granicznej

BGP jest najpopularniejszym protokołem międzysystemowym. Zapewnia dużą stabilność sieci, gwarantując, że w przypadku awarii jednej linii sieci Internet routery BGP mogą szybko przystosować się do wysyłania pakietów przez inne łącze. BGP został początkowo stworzony w trzech różnych implementacjach. Kirk Lougheed z Cisco Systems opracował zastrzeżoną wersję protokołu BGP dla routerów Cisco. Jeff Honig z Cornell University i Dennis Ferguson z University of Toronto opracowali wersję BGP o nazwie "gated" do pracy na komputerach z systemem Unix. Yakov Rekhter z IBM Thomas J. Watson Research Center opracował wersję BGP dla sieci szkieletowej National Science Foundation Network. Podczas inicjalizacji router BGP najpierw pobiera całą tablicę routingu każdego sąsiedniego routera. Routery BGP wysyłają i odbierają komunikaty aktualizacyjne w celu wskazania zmiany preferowanej ścieżki dostępu do komputera o zadanym adresie IP. Jeśli jakikolwiek router zdecyduje się zaktualizować swoje własne tablice routingu o nową lepszą ścieżkę, następnie roześle tę informację do wszystkich sąsiednich routerów BGP, z którymi jest połączony, a one z kolei zdecydują, czy zaktualizować swoje własne tabele i rozpowszechniać informacje dalej. Jedną z innych ważnych funkcji spełnianych przez algorytm BGP jest eliminowanie pętli z informacji o routingu. Algorytm BGP wyłapuje i zatrzymuje wszelkie takie pętle. BGP był okresowo aktualizowany i obecnie jest w wersji 4. Każda wersja może obsługiwać wszystkie wcześniejsze wersje. Protokół bramy zewnętrznej Od 1980 do połowy lat 90. protokół EGP był używany, ale nie był w stanie zwiększyć skali, ponieważ Internet szybko się rozrósł. EGP został zastąpiony przez BGP.

Problemy z routingiem internetowym

Routing internetowy jest podatny na różnego rodzaju ataki. Mogą pojawić się inne problemy, takie jak błędna konfiguracja routera, błędy routingu lub wysoce ukierunkowane przechwytywanie ruchu. Głównym problemem związanym z dostarczaniem rozwiązań problemów związanych z bezpieczeństwem w routingu internetowym jest brak scentralizowanego organu, który mógłby zlecić wdrożenie rozwiązania zabezpieczającego. Protokoły routingu działają na poziomie globalnym, ponad granicami organizacyjnymi i krajowymi. Każda organizacja samodzielnie stosuje rozwiązania bezpieczeństwa routingu we własnej sieci. Koordynacja kilku niezależnie działających sieci jest trudnym zadaniem. Żadne rozwiązanie nie może przynieść rezultatów, jeśli nie zostanie wdrożone w dużej liczbie sieci.

Typowi gracze na rynku routerów

Istnieje wielu popularnych producentów, którzy dostarczają różnorodne routery dla małych firm, firm telekomunikacyjnych, dostawców usług internetowych i przedsiębiorstw międzynarodowych. Należą do nich routery Huawei, Core, MultiService, Agregation i Access routery od ZTE, Juniper Networks i Cisco.

Otwarte wyzwania w routingu internetowym

Istnieje wiele otwartych pytań badawczych dotyczących routingu internetowego, co sugeruje, że przy projektowaniu przyszłych architektur routingu należy położyć duży nacisk na podstawy teoretyczne. W pracy teoretycznej należy skupić się na uzgodnieniu zasad routingu między domenami, zdefiniowaniu AS, monitorowaniu jakości ścieżki od końca do końca i zarządzaniu ruchem dystrybucyjnym.


Powrót


[ 238 ]