Humanistyka cyfrowa



Humanistyka cyfrowa to grupa działań naukowych, które badają skrzyżowania technologii i nauk humanistycznych. Prace te przybierają różne formy, od zbiorów danych dotyczących informatyki stosowanej i nauk humanistycznych, przez nowe metody i platformy, po teorię i krytykę. Znaczna część humanistyki cyfrowej ma miejsce w Internecie i za jego pośrednictwem, czy to jako źródło treści (np. narzędzie do nauczania i uczenia się (np. materiały szkoleniowe, samouczki online). Wpis ten przybliża pojęcie humanistyki cyfrowej, jej historię i krytykę, kategorie projektów humanistyki cyfrowej oraz przecinające się dziedziny.

Historia i krytyka

Cathy N. Davidson omawia pojawienie się humanistyki cyfrowej ("Humanistyka 2.0") w kategoriach Web 1.0 i Web 2.0 oraz ich implikacje dla wiedzy. Internet od lat 90. do krachu dotcomów w 2001 roku (Web 1.0) pozwolił na rozpowszechnianie informacji na nową skalę. W tym czasie humaniści również cieszyli się nowym dostępem do internetowych czasopism, baz danych i poczty elektronicznej. Chociaż publikowanie treści online było stosunkowo tanie i szybkie, wymagało również przejścia przez jednego z kilku strażników, którzy sprawowali władzę nad platformami i byli kuratorami odbiorców. Wraz z pojawieniem się blogów i platform mediów społecznościowych (Web 2.0) to rozróżnienie między producentami a konsumentami zostało zakwestionowane: można było nie tylko przeglądać treści, ale także komentować, udostępniać, oceniać, oznaczać, dodawać adnotacje, a może nawet edytować treści . Co więcej, nowe platformy sprawiły, że samopublikowanie stało się łatwe i atrakcyjne, co doprowadziło do obfitości nowych treści i decentralizacji władzy, którą wcześniej posiadali odźwierni. Korzystając z tych i innych narzędzi, humaniści cyfrowi pomagają zapoczątkować nową erę współpracy, otwartej wiedzy i uczenia się w naukach humanistycznych. W 2003 roku A Companion to Digital Humanities autorstwa Susan Schreibman i jej współpracowników nadała nowe spojrzenie na pracę z nowymi technologiami i naukami humanistycznymi. Antologii przypisuje się popularyzację terminu humanistyka cyfrowa, wraz z utworzeniem Sojuszu Organizacji Humanistyki Cyfrowej w 2005 roku oraz Biura Humanistyki Cyfrowej National Endowment for the Humanities w 2006 roku, które sfinansowało kilka uznanych projektów. Od 2016 roku Alliance of Digital Humanities Organizations służy jako organizacja patronacka Europejskiego Stowarzyszenia Humanistyki Cyfrowej; Stowarzyszenie Komputerów i Nauk Humanistycznych; Kanadyjskie Towarzystwo Humanistyki Cyfrowej; centerNet, międzynarodowa sieć cyfrowych centrów humanistycznych; Australasian Association for Digital Humanities; Japońskie Stowarzyszenie Humanistyki Cyfrowej; oraz Humanistica, frankofońskie stowarzyszenie humanistyki cyfrowej. Chociaż termin humanistyka cyfrowa zyskał popularność dopiero niedawno, większość historii tej dziedziny datuje się na lata czterdzieste XX wieku i plany Roberto Busy dotyczące Index Thomisticus, ogromnego wysiłku mającego na celu zakodowanie prawie 11 milionów słów Tomasza z Akwinu na kartach perforowanych IBM. W latach pięćdziesiątych i sześćdziesiątych Busa′s Index i kilka innych projektów "obliczeń humanistycznych" opracowało korpusy (tj. korpusy tekstu) o rosnącym rozmiarze, złożoności i podatności na analizę maszynową. Od późnych lat siedemdziesiątych XX wieku w tej dziedzinie dominował ustrukturyzowany tekst elektroniczny, zwłaszcza inicjatywa Text Encoding Initiative i pierwsze archiwa multimedialne, a następnie w latach dziewięćdziesiątych XX wieku hiperteksty z obsługą Internetu, biblioteki cyfrowe i edycja zespołowa. Chociaż tekst jest rzeczywiście głównym tematem w historii humanistyki cyfrowej, nawet najwcześniejsze artykuły w Computers and the Humanities (założone w 1966 r.) wykazują zainteresowanie dźwiękiem, multimediami, przedmiotami i obrazami. Zastosowania w nauczaniu i uczeniu się są obecne w całej literaturze, wraz z omówieniami materiałów szkoleniowych, nauczania języków wspomaganych komputerowo i nauczania na odległość. Obecne są również refleksje teoretyczne na temat znaczenia informatyki, sztucznej inteligencji i nowych technologii. Inne kamienie milowe w historii tej dziedziny to założenie czasopisma Literary and Linguistic Computing w 1986 r. (Przemianowane na Digital Scholarship in the Humanities w 2015 r.), Association for Literary and Linguistic Computing w 1973 r. (Przemianowane na European Association for Digital Humanities w 2011 r.) oraz Association for Computers and the Humanities w 1978 r. Od 2003 r. dziedzina znacznie się poszerzyła pod względem rozmiaru, zakresu i metod - w rzeczywistości tak bardzo, że wielu humanistów cyfrowych opiera się w ogóle zdefiniowaniu tej dziedziny, uznając, że takie definicje z konieczności wykluczają niektóre prace i ograniczają radykalny potencjał tej dziedziny. Niektórzy autorzy proponują zdefiniowanie dziedziny zgodnie z cechami i wartościami humanistów cyfrowych, których etos ma obejmować kolegialność, otwartość (w tym otwarty dostęp), współpracę, różnorodność, eksperymentowanie, a nawet zabawę. W szczególności różnorodność okazała się wyzwaniem dla cyfrowych humanistów, którzy często polegają na instytucjonalnych zasobach pierwszego świata, zwłaszcza na technologii, i odzwierciedlają je. W odpowiedzi podjęto próby podniesienia świadomości na temat wielu lokalnych odmian humanistyki cyfrowej na całym świecie, wspierania nowych połączeń i praktykowania minimalnego projektowania, aby uczynić komputer bardziej dostępnym dla wszystkich. Inni zajęli się różnorodnością siły roboczej, a także kwestiami rasy i płci w kodzie i bazach danych - by wymienić tylko kilka z wielu krytycznych interwencji w tej dziedzinie. Mówiąc szerzej, istnieje powszechne wezwanie humanistów cyfrowych do rozpoznania i teoretyzowania znaczącej roli, jaką algorytmy, kod, dane, modele, konserwacja, oprogramowanie i retoryka wizualna odgrywają w ich pracy, zwłaszcza w sposób, który przyczynia się do krytyki kulturowej, z zachowaniem z tradycją i publiczną rolą nauk humanistycznych.

Aktualne obszary zainteresowań

W poniższych sekcjach podkreślono główne aspekty pracy z zakresu humanistyki cyfrowej. Biorąc pod uwagę zakres i potencjał tej dziedziny, nie mają one być wyczerpujące, ale raczej uwypuklać główne obszary, metody i miejsca humanistyki cyfrowej

Projekty i zarządzanie projektami

Projekt jest uważany przez niektórych za podstawową jednostkę pracy humanistyki cyfrowej: eksperymentalną, eksperymentalną, porowatą w granicach i stale rozwoju. Projekty są również miejscem współpracy, łącząc humanistów, technologów, bibliotekarzy i innych. Zarządzanie projektem Literatura dotycząca zarządzania projektami w humanistyce cyfrowej odnosi się do kwestii zakresu i koncepcji projektu, finansowania i zasobów, najlepszych praktyk dla niektórych technik (np. crowdsourcing), oceny pracy (zarówno pod kątem jej naukowego i publiczny wpływ oraz doświadczenie użytkownika interfejsów interfejsów cyfrowej humanistyki), konserwacji i trwałość. Biorąc pod uwagę różnorodność zespołów projektowych i zadań, wiele osób zastanawia się, czy potrzebne są nowe czy potrzebne są nowe sposoby rozpoznawania wkładu, (np. napisy w stylu filmowym, zamiast napisów autorskich). Obecnie istnieją różne wytyczne dotyczące oceny stypendium cyfrowego w zatrudnieniu akademickim, awansu i kadencji.

Archiwa cyfrowe

Kolekcje badawcze i dziedzictwo kulturowe Materiały źródłowe są podstawą humanistyki (cyfrowej), zarówno jako materiały fizyczne do digitalizacji, jak i obiekty cyfrowe wykorzystywane w badaniach i nauczaniu. Projekty te obejmują zarówno duże kolekcje w całej humanistyce (np. HathiTrust), jak i mniejsze kolekcje tworzone przez naukowców głównie na potrzeby ich własnych badań, ale udostępniane publicznie z korzyścią dla innych. Dzięki takim funkcjom jak wyszukiwanie, filtrowanie, zapisywanie i pobieranie, platformy te pomagają humanistom w odkrywaniu nowych materiałów. Niektóre z nich pozwalają odwiedzającym na dodawanie adnotacji, zbieranie/składanie, współtworzenie, transkrypcję lub inną interakcję z materiałami, a także na pobieranie danych lub metadanych za pomocą interfejsów programowania aplikacji. Instytucje dziedzictwa kulturowego, w tym biblioteki, archiwa i muzea, nadal odgrywają kluczową rolę w ochronie tych pierwotnych materiałów źródłowych i udostępnianiu ich. Chociaż niektóre instytucje pobierają opłaty za dostęp lub pobieranie, inne są zaangażowane w wolny i otwarty dostęp, etos wspólny z cyfrową humanistyką. Ograniczenia licencyjne, zwłaszcza prawa autorskie, pozostają barierą dla badań humanistów cyfrowych. W odpowiedzi na to, niektóre platformy opracowały interfejsy, które wykonują różne analizy materiałów (np. analizę tekstu) bez konieczności masowego ich pobierania. Poprzez uczynienie zbiorów bardziej interaktywnymi, instytucje dziedzictwa kulturowego dają również społeczeństwu większe pole do popisu w tworzeniu pamięci zbiorowej.

Przechwytywanie tekstu, kodowanie, analiza

Analiza tekstu jest od dawna istniejącym i zróżnicowanym zestawem metod w humanistyce cyfrowej. Przed analizą tekst musi zostać przechwycony ze źródeł cyfrowych lub zdigitalizowanych fizycznie, czy to poprzez rozpoznawanie (znaków na obrazach lub słów w mowie), czy transkrypcję (tekstów lub dźwięków). Technologie takie jak optyczne rozpoznawanie znaków i rozpoznawanie mowy często opiera się na rozpoznawaniu wzorców, słownikach i prawdopodobieństwach językowych i często tworzy cyfrowe teksty, które są tylko częściowo dokładne w odniesieniu do ich źródeł, ale nadal są wystarczające do analizy. Niektóre z tych tekstów cyfrowych są wzbogacane poprzez znaczniki ich struktury (np. rozdziały, mówcy w sztuce, części mowy), proces znany również jako kodowanie tekstu. Tekst cyfrowy jest często wstępnie przetwarzany na potrzeby analizy poprzez usunięcie wielkich liter i znaków interpunkcyjnych, a także stopwordów, często występujących słów, które mają niewielkie znaczenie poza kontekstem (np. "powyżej", "jutro", "jeden"). Słowa mogą być również utworzone przez usunięcie fleksji (np. liczba mnoga, koniugacja) lub ręcznie podzielone na segmenty w celu zachowania szczególnie interesujących fraz (np. zastąpienie odniesień do historii sztuki jako "historia sztuki" zamiast "sztuka" i "historia", co byłoby traktowane oddzielnie w analizie). Najprostsze formy analizy tekstu wykorzystują częstotliwości słów lub n-gramy, często dla pojedynczych słów (unigramów), ale czasami dla grup słów (bigramów, trygramów itp.). N-gramy były analizowane w czasie, przez autora lub mówcę, a także w tekstach, ich częściach i większych korpusach w celu zbadania kwestii głosu, stylu, gatunku, tematu, etymologii, autorstwa i roli kategorii społecznych, takich jak płeć , klasa i rasa - z których wszystkie można studiować niezależnie od zakodowanego tekstu lub je rozszerzyć. Ponadto istnieją badania relacji między fragmentami różnych tekstów (np. Tłumaczenia, aluzje, wersje), a także modelowanie tematyczne, które próbuje grupować słowa w tematy, częściowo w oparciu o częstotliwość współwystępowania słów w korpusie .

Geohumanistyka, GIS i mapowanie

Geohumanistyka lub humanistyka przestrzenna podchodzą do humanistyki z perspektywy przestrzennej, często opierając się przy tym na technologii. Dzięki systemom informacji geoprzestrzennej (GIS), które łączą dane geograficzne z możliwościami analizy i wizualizacji, humaniści badali relacje między pozycją, odległością, grupowaniem przestrzennym i prędkością w rzeczywistych i fikcyjnych światach. Analizy te opierają się na geokodowanych danych generowanych przez cenzorów lub, częściej w naukach humanistycznych, na dopasowywaniu nazw miejsc w innych zestawach danych do współrzędnych GIS, które zwykle reprezentują rzeczywiste lokalizacje. W przypadku fikcji pozycje można przypisać dowolnemu zestawowi współrzędnych GIS, pod warunkiem zachowania względnych odległości (np. 1-godzinny spacer). Historyczne i zapomniane nazwy miejsc są szczególnie trudne i często wymagają użycia gazetera, indeksu, który dopasowuje nazwy wariantów do miarodajnych i ich współrzędne. Obrazy, takie jak mapy historyczne, mogą być również wykorzystywane w GIS poprzez georektyfikację, w której określone punkty na obrazie (często linie brzegowe, rzeki lub duże miasta) są dopasowywane do współrzędnych GIS na odwzorowaniu mapy; wizualny wygląd obrazu jest później często wypaczany, aby pasował do nowych współrzędnych. Wizualizacje map są tworzone przez nakładanie warstw geodanych wraz z obrazami lub atrybutami miejsc (np. ekonomicznymi, politycznymi, społecznymi) w celu dokonywania porównań. Czasami do analizy lub wizualizacji dodaje się czas, aby pokazać zmiany, stworzyć modele lub prognozować trendy. Jednak czas pozostaje trudnym aspektem historycznego GIS, choćby dlatego, że zapisy historyczne są niekompletne i rejestrują czas nieprecyzyjnie (np. "1781-1782", "ok. 1540") lub niejasno (np. "okres hellenistyczny").

Sieci

Sieci służą do badania skojarzeń. W przypadku humanistyki cyfrowej skojarzenia te mogą być tak różne, jak korespondenci, postacie występujące razem w scenie, seria celów podróży czy słowa, które pojawiają się obok siebie. Te powiązania są rejestrowane jako pary węzłów (tj. ludzi, miejsc, rzeczy) i krawędzi (tj. relacji) i analizowane pod kątem wzorców powiązań, odległości i gęstości. Te analizy statystyczne mogą być uzupełnione danymi o atrybutach węzłów (np. rola, lokalizacja, kategoria) lub krawędzi (np. typ, siła, czas trwania związku). Wykresy sieciowe są rysowane przy użyciu różnych algorytmów układu, z których każdy ma inne podejście do cech wizualnych, takich jak przestrzeń wokół każdego węzła lub wyświetlanie wartości odstających niezwiązanych z resztą sieci.

Dźwięk, obraz i multimedia

Wielu humanistów cyfrowych wykorzystuje w swojej pracy dźwięki, obrazy i ruchome obrazy, obok danych tekstowych lub liczbowych, albo jako materiał do analizy. Podobnie jak w przypadku tekstu, materiały te przed analizą należy zebrać ze źródeł cyfrowych lub zdigitalizować ze źródeł analogowych. Cyfrowi humaniści przeanalizowali obrazy pod kątem odcienia, nasycenia i jasności wraz z metadanymi, takimi jak twórca, data i temat; prędkość jest również mierzona dla ruchomych obrazów. Dźwięki są analizowane pod kątem tonu i tempa, wraz z towarzyszącymi metadanymi lub tekstami. Analizy te są często osadzone w większych, multimedialnych studiach, które wykorzystują wiedzę tekstową lub krytyczną lub eksperymentują z nowymi formami mediów. Oprócz analizy multimediów niektóre prace z zakresu humanistyki cyfrowej obejmują reprezentację lub odtwarzanie miejsc historycznych za pomocą środowisk modelowania i animacji 3D oraz tworzenie środowisk rzeczywistości wirtualnej lub środowisk rzeczywistości rozszerzonej, które integrują źródła historyczne z miejscami w świecie rzeczywistym. Wiele takich projektów zapożycza się z projektowania gier i jest wykorzystywanych do nauczania przedmiotów humanistycznych, zarówno w środowisku akademickim, jak i publicznym.

Nauczać i uczyć

Pedagogika w humanistyce cyfrowej zajmuje się tym, w jaki sposób naucza się humanistyki cyfrowej oraz jak można szerzej wykorzystać nowe technologie w nauczaniu i uczeniu się. Długotrwałe debaty dotyczą tego, czy umiejętności technologiczne, takie jak programowanie, powinny być nauczane równolegle z przedmiotami humanistycznymi (czy osobno) oraz czy nacisk na umiejętności praktyczne odbywa się kosztem krytycznej refleksji i dbałości o metodologię. Wielu twierdzi, że uczniowie powinni nauczyć się korzystać z technologii, jednocześnie biorąc pod uwagę wpływ, jaki te narzędzia mają na ich naukę. Inni argumentowali, że technologie cyfrowe rodzą nowe pytania dotyczące rzekomych podziałów między światem rzeczywistym a przestrzenią online, akademicką i publiczną.

Wyższa edukacja

Humanistyka cyfrowa jest uznawana za jeden z wiodących kierunków w naukach humanistycznych i jeden z nielicznych obszarów wzrostu zatrudnienia i finansowania w naukach humanistycznych. Utrzymują się napięcia między tzw. humanistyka tradycyjna i humanistyka cyfrowa, zwłaszcza w zakresie ich metod, dyscypliny i krytyki. Chociaż różne dyscypliny humanistyki cyfrowej mają różne praktyki, mają one również wiele wspólnych metod (np. Statystyka, wizualizacja, kuracja treści). Metody te są również stosowane w naukach społecznych i innych, podważając wiele granic dyscyplin występujących w szkolnictwie wyższym (np. Programy, wydziały, szkoły). Nic dziwnego, że wiele prac z zakresu humanistyki cyfrowej odbywa się w ośrodkach, laboratoriach, inicjatywach lub bibliotekach, które istnieją poza tradycyjnymi wydziałami akademickimi lub między nimi. Humanistyka jako całość od dawna interesuje się krytyką, zwłaszcza krytyką kulturową, i jak wspomniano wcześniej, wielu kwestionowało, czy bezkrytyczne przyjęcie technologii jest właściwe w naukach humanistycznych. W odpowiedzi wielu humanistów cyfrowych wezwało teren do pełniejszego zaangażowania się w takie tematy, jak przepaść cyfrowa, nadzór, prywatność i prawa autorskie.

Komunikacja naukowa

Humanistyka cyfrowa wywarła znaczący wpływ na komunikację naukową, sposoby dzielenia się wiedzą między naukowcami, zarówno poprzez formalne publikacje, jak i nieformalne kanały, takie jak listy i konferencje. Postępy w formalnej komunikacji naukowej obejmowały rozwój nowych platform i modeli wydawniczych, takich jak czasopisma i repozytoria o otwartym dostępie, formaty interaktywne, wspólne praktyki redakcyjne ułatwione przez środowiska internetowe oraz przegląd postpublikacyjny, w ramach którego kuratorowane są uznane prace opublikowane w innych miejscach (zwykle poza tradycyjnymi monografiami). i artykułów prasowych). Nieformalnie platformy, takie jak blogi i media społecznościowe, umożliwiły humanistom łatwiejsze, szybsze i na wcześniejszych etapach dzielenie się pracą niż kiedykolwiek wcześniej oraz udział w konferencjach (niezależnie od tego, czy uczestniczą w nich, czy nie) za pośrednictwem tylnych kanałów dyskusji w mediach społecznościowych.

Biblioteki Akademickie

W szczególności biblioteki akademickie były popularnym miejscem pracy humanistyki cyfrowej, być może ze względu na ich lokalizację poza poszczególnymi wydziałami, być może także dlatego, że praca bibliotekarzy odzwierciedla, uzupełnia lub umożliwia pracę humanistów cyfrowych. Ta praca obejmuje kurację, digitalizację i konserwację pierwotnych materiałów źródłowych; prawa autorskie, otwarty dostęp i zarządzanie prawami; tworzenie narzędzi cyfrowych; orginalne badania; oraz zasięg i instrukcje, w szczególności technologie instruktażowe. Bibliotekarze lub biblioteki często działają jako partnerzy projektowi lub instytucjonalni w pracy z zakresu humanistyki cyfrowej, często jako mediatorzy między naukowcami a technologami.

Humanistyka publiczna

Niektóre cyfrowe prace humanistyczne łatwo mieszczą się w tradycji humanistyki publicznej, która zgłębia myśl humanistyczną w dialogu z publicznością. Na przykład cyfrowe projekty historii mówionej mogą dać nowy głos członkom społeczeństwa, którzy przeżyli wydarzenie. Składki na ogół pozwalają społeczeństwu uczestniczyć w nauce w sposób rzadko spotykany w historii humanistyki. Publiczny charakter humanistycznych stron internetowych zapewnia społeczeństwu większy niż w przeszłości dostęp do stypendiów. Te i inne projekty stawiają pytania o to, jak tłumaczyć literaturę naukową i tworzyć znaczące formy uczestnictwa dla społeczeństwa.

Powiązane pola

Poszczególne obszary humanistyki wyznaczyły swoje "cyfrowe" terytoria. Niektóre z tych dziedzin obejmują historię sztuki cyfrowej, historię cyfrową oraz retorykę cyfrową i studia nad kompozycją. Podczas gdy wielu uczonych z tych dziedzin również uczestniczy w szerszej społeczności humanistów cyfrowych, te bardziej szczegółowe obszary często mają swoje własne historie, konwencje i podejścia do technologii. Warto przyjrzeć się kulturom każdego z tych obszarów (oraz podejść do humanistyki cyfrowej w ramach każdej dyscypliny). Wielu komentatorów zauważyło nakładanie się humanistyki cyfrowej i innych dziedzin, takich jak medioznawstwo, które mają podobne zainteresowania i stawiają szersze pytania dotyczące relacji między technologią a kulturą. Naukowcy zajmujący się humanistyką cyfrową i naukami o mediach są zainteresowani tworzeniem i robieniem (w przeciwieństwie do samego teoretyzowania), zwłaszcza za pośrednictwem eksperymentalnych platform medialnych. Z humanistyką cyfrową związana jest dziedzina analityki kulturowej, która wykorzystuje technologię do analizy wielkoskalowych zbiorów danych kulturowych, często w postaci materiałów wizualnych udostępnianych w mediach społecznościowych. Podczas gdy analityka kulturowa i humanistyka cyfrowa mają wiele takich samych metod, często zajmują się różnymi obszarami treści, przy czym analityka kulturowa koncentruje się na obecnych i bardzo niedawnych artefaktach kulturowych, a humanistyka cyfrowa koncentruje się na bardziej historycznych (choć nie wyłącznie). W analityce kulturowej niewiele było również krytyki platform używanych do gromadzenia treści lub ich większego wpływu społecznego. Na koniec warto zwrócić uwagę na kilka podobieństw między humanistyką cyfrową a naukami społecznymi i innymi. Pomimo często przywoływanych "dwóch kultur" nauk humanistycznych i ścisłych, te dwie mają wiele wspólnych narzędzi do gromadzenia, analizy i wizualizacji danych. Czasami może być trudno dostrzec różnicę między historycznym badaniem GIS a badaniem geograficznym lub między historią ilościową a naukami politycznymi. Szersza zmiana w kierunku "e-nauki", z naciskiem na cykl życia danych badawczych (np. tworzenie, wykorzystywanie, rozpowszechnianie, przechowywanie, ponowne wykorzystywanie), wprowadza nauki do dyskusji z cyfrowymi humanistami i związanymi z nimi problemami. Jak zauważa Davidson (2008), "Nigdy nie było wielkiej epoki nauki i technologii bez odpowiedniego rozkwitu sztuki i nauk humanistycznych" (s. 707). Choć często mówi się o upadku nauk humanistycznych, humaniści nigdy wcześniej nie mieli tak szerokiego dostępu do materiałów i metod. Wyzwanie stojące przed cyfrowymi humanistami polega na tym, czy technologia może być wykorzystana do rozwinięcia nauk humanistycznych poza ich tradycyjną formę akademicką do szerszych, bardziej inkluzywnych i publicznych zajęć.



Powrót

Hakerstwo



Hacking definiuje się jako każdy dostęp do komputera, systemu komputerowego lub sieci komputerowej bez zgody prawowitego właściciela lub osoby za nie odpowiedzialnej. Według raportu British National Crime Agency Cyber Crime Assessment 2016, cyberprzestępczość stanowiła 53% wszystkich przestępstw w 2015 roku. Oczekuje się, że cyberprzestępczość będzie nadal się rozwijać i ewoluować w wysoce lukratywne i dobrze zorganizowane przedsięwzięcie. Cyberprzestępcy, sponsorowani przez państwo lub nie, zaczynają nawet przeznaczać fundusze na badania i rozwój. Innymi słowy, cyberprzestępczość stała się branżą. Przestępcy coraz częściej przenoszą się do sieci. Grupy terrorystyczne również zaczynają wykorzystywać cyberprzestępczość do finansowania swoich mandatów. Najnowszą formą cyberprzestępczości jest oprogramowanie ransomware, rodzaj złośliwego oprogramowania, które przetrzymuje pliki danych ludzi jako zakładników, dopóki nie zostanie dokonana płatność w bitcoinach. Dostawca zabezpieczeń Malwarebytes wykorzystał "garnek miodu", aby przyciągnąć atakujących i odkrył wzrost ataków z 17% w 2015 r. do 259% w 2016 r. Istnieją obawy, że w przyszłości inteligentne urządzenia domowe mogą stać się zakładnikami, a właściciele będą zmuszeni płacić opłatę za dostęp do ich świateł i urządzeń Internetu rzeczy (IoT). Oprogramowanie ransomware może również pojawiać się w inteligentnych samochodach, ciężarówkach, pociągach i samolotach - a niektórzy eksperci sugerują, że to tylko kwestia czasu, zanim ludzie zostaną pozostawieni bezbronni na poboczu drogi i nie będą mogli prowadzić swoich pojazdów, dopóki nie zapłacą okupu. Kryptowaluty, takie jak Bitcoin, umożliwiły pojawienie się oprogramowania ransomware. W rzeczywistości eksperci przewidują, że do 2040 roku więcej przestępstw popełnią maszyny niż ludzie. Pojawi się to, gdy ludzka siła robocza będzie zmierzać w kierunku większej automatyzacji. Co się stanie, gdy roboty zostaną zhakowane? Czy można ich następnie zmienić w zamachowców-samobójców? Ta sama obawa dotyczy porywania dronów i być może wykorzystywania tłumów, takich jak latające armie botów do ataku. Istnieją już drony hakujące Wi-Fi, które mogą lądować na dachu i przechwytywać Wi-Fi, bezprzewodowe klawiatury i inne dane przesyłane przez sieć. Dlatego praktykowanie bezpiecznego korzystania z komputera jest niezbędne, aby uniknąć hakowania i jego skutków. W tym wpisie omówiono hakowanie, stosowane przez nie narzędzia, jego powszechne wykorzystanie oraz implikacje.

Ataki phishingowe

Ataki phishingowe to rodzaj hakowania, którego celem jest uzyskanie poufnych informacji, takich jak nazwy użytkowników, hasła i dane bankowe, po prostu podszywając się pod podmiot godny zaufania w wiadomości e-mail lub SMS-ie. Termin pochodzi od wędkarstwa ze względu na podobieństwo używania przynęty w próbie złapania ofiary. Jest to idealny wektor ataku, zwłaszcza gdy jest wykonany prawidłowo (tj. z odpowiednimi informacjami pomocniczymi, które oszukują ofiarę). Nieobsługiwane ataki phishingowe są ogólne, więc często twierdzą, że pochodzą z banku X lub Y, firmy X lub działu informatycznego Z, ale można je łatwo zignorować. Jednak wielu nowych użytkowników sieci jest narażonych na ataki, dopóki nie nauczą się identyfikować ataków typu phishing. Za każdym razem, gdy w Internecie dochodzi do włamania do dużej bazy danych, w wyniku którego dochodzi do wycieku danych osobowych (np. danych karty kredytowej/konta bankowego), wszystkim osobom narażonym na to naruszenie danych udostępniane są kluczowe dane osobowe, które mogą być później wykorzystane przez oszustów w phishingu ataki. Na rynkach oszustw w ciemnej sieci są dostępne miliony zhakowanych danych, które wyciekły z bazy danych. Można powiedzieć, że kluczowym problemem w wielu korporacjach są obecnie odsyłacze w wiadomościach phishingowych i nie ma łatwego rozwiązania. Te e-maile phishingowe są w stanie generować losowe znaki i modyfikować ich format, aby ominąć filtry antyspamowe. Ponadto zachowanie pracowników umożliwia skuteczne oszustwa typu phishing. Jeśli nikt nie odpowie na wiadomość e-mail phishingową ani nie otworzy nielegalnego załącznika, nie będzie problemu; jednak niektórzy pracownicy nadal odpowiadają, nie rozróżniając między prawdziwymi e-mailami a oszustwami. Inne środki przeciwko phishingowi obejmują uwierzytelnianie przychodzących wiadomości e-mail. Wdrożenie ram polityki nadawcy, klucze domeny identyfikujące pocztę oraz raportowanie i zgodność uwierzytelniania wiadomości domeny może pomóc w ochronie przed spear phishingiem i innymi atakami pochodzącymi z sfałszowanych wiadomości e-mail. Współpracują one ze sobą, aby zweryfikować adres protokołu internetowego (IP) i domenę źródłowego serwera poczty e-mail; jednak wiele organizacji nie przyjęło jeszcze tych standardów. Aktywne skanowanie wszystkich wiadomości e-mail w celu wykrycia potencjalnych zagrożeń i umożliwienie blokowania reklam to inne środki, które można zastosować, ponieważ oprogramowanie ransomware jest zwykle rozpowszechniane za pośrednictwem złośliwych reklam wyświetlanych użytkownikom podczas odwiedzania witryn. Niektóre organizacje wdrożyły nawet oddzielne sieci dla pracowników surfujących po sieci. Można również wykorzystać uczenie maszynowe. Typowe podejścia do stosowania uczenia maszynowego w cyberbezpieczeństwie obejmują wykrywanie treści wiadomości e-mail i techniki profilowania sieci. Metody wykrywania nadużyć dopasowują dane testowe do profilowanych wzorców anomalii. Systemy wykrywania anomalii profilują normalne wzorce w celu wyszukiwania wartości odstających, a hybrydowe systemy wykrywania łączą techniki niewłaściwego użycia i wykrywania anomalii w celu poprawy wskaźnika wykrywania i zmniejszenia liczby fałszywych alarmów. Wykrywanie skanowania jest wdrażane w celu wykrycia prekursora ataków, co prowadzi do wcześniejszego odstraszania ataków, a sieci profilowania pomagają w aktywnej ochronie systemów poprzez narzędzia do ekstrakcji, agregacji i wizualizacji.

Ataki typu "odmowa usługi".

Rozproszone ataki typu "odmowa usługi" (DDoS) to najprostsze do wykonania ataki hakerskie i trudne do powstrzymania, ponieważ bezpłatne, proste w użyciu narzędzia, takie jak działo jonowe na niskiej orbicie i działo jonowe na wysokiej orbicie, ułatwiają zalewanie witryn przytłaczającymi ilościami fałszywego ruchu utworzonego przez niestandardowe skrypty. Wystarczy wpisać adres URL witryny i obserwować, jak te bezpłatne programy generują fałszywe pakiety, aby przeciążyć serwery witryny. Przeciętna witryna może zostać zniszczona w ciągu kilku minut. Chociaż takie narzędzia nie wystarczyłyby do obalenia internetowego giganta, inne rozproszone narzędzia DDoS zbudowane na kolekcjach zaatakowanych maszyn (botnety DDoS) mogą przeprowadzać znacznie większe zsynchronizowane (SYN) ataki typu flood DDoS. Wiele sieci opiera się obecnie na bezpieczeństwie IP, które zabezpiecza ruch w sieci od końca do końca. Zapewnia usługi podobne do HTTPS/TLS, co dodaje dodatkową warstwę bezpieczeństwa do infrastruktury sieciowej, ale nie jest niezawodne. Wykorzystując znane luki w serwerach systemu nazw domen (DNS), można ominąć zabezpieczenia IP, narażając sieć na zalanie. W Internecie są narzędzia które pomagają zidentyfikować znane podatne serwery DNS w Internecie, dzięki czemu można złośliwie skierować strumień ruchu z tych serwerów DNS do sieci firmowej. Warto zauważyć, że w przypadku ataków DDoS flood mogą występować miliony żądań na minutę, a w czasie rzeczywistym bardzo trudno jest oddzielić prawdziwe żądania od prawdziwych klientów od złośliwych żądań DDoS flood. Dopóki istnieją łatwe do wdrożenia narzędzia DDoS, a systemy bez poprawek pozostają w trybie online, ataki DDoS będą kontynuowane. Aby zrozumieć, co dzieje się podczas ataku DDoS, rozważ ataki SYN flood (znane również jako ataki typu "zagłodzenie zasobów"). Powódź SYN to atak typu "odmowa usługi" (DoS), w którym osoba atakująca wysyła do systemu docelowego serię żądań SYN w celu wykorzystania wystarczającej ilości zasobów serwera, aby system przestał odpowiadać na legalny ruch. Zwykle, gdy klient próbuje nawiązać połączenie TCP (Transmission Control Protocol) z serwerem, klient i serwer wymieniają zestaw komunikatów, które przechodzą przez następujące etapy: (a) klient żąda połączenia, wysyłając komunikat SYN do serwera, (b) serwer potwierdza to żądanie, wysyłając z powrotem do klienta potwierdzenie SYN (ACK), oraz (c) klient odpowiada potwierdzeniem i połączenie zostaje nawiązane. Nazywa się to trójstronnym uzgadnianiem TCP i jest podstawą każdego połączenia nawiązywanego za pomocą protokołu TCP. Atak SYN flood polega na tym, że nie odpowiada serwerowi oczekiwanym kodem ACK. Złośliwy klient może po prostu nie wysłać oczekiwanego ACK lub sfałszować źródłowy adres IP w SYN, powodując, że serwer wyśle SYN-ACK na fałszywy adres IP, który nie wyśle ACK, ponieważ "wie", że nigdy nie wysłał SYN. Serwer będzie czekał na potwierdzenie przez jakiś czas, ponieważ zwykłe przeciążenie sieci może być również przyczyną braku potwierdzenia, ale podczas ataku coraz większa liczba na wpół otwartych połączeń będzie wiązać zasoby na serwerze, dopóki nowe połączenia nie będą mogły zostać nawiązane. wykonane, co skutkuje odmową usługi dla legalnego ruchu. Niektóre systemy mogą również działać nieprawidłowo lub nawet ulec awarii, jeśli inne funkcje systemu operacyjnego zostaną w ten sposób pozbawione zasobów. Trwała odmowa usługi, znana również luźno jako phlashing, to atak, który uszkadza system tak bardzo, że wymaga wymiany lub ponownej instalacji sprzętu. W przeciwieństwie do ataku DDoS, permanent . Atak typu "odmowa usługi" wykorzystuje luki w zabezpieczeniach, które umożliwiają zdalną administrację interfejsami zarządzania sprzętu ofiary, takim jak routery, drukarki lub inny sprzęt sieciowy. DDoS ma miejsce, gdy wiele systemów zalewa przepustowość lub zasoby docelowego systemu, zwykle jeden lub więcej serwerów WWW. Systemy te są atakowane przez osoby atakujące przy użyciu różnych metod. Złośliwe oprogramowanie może przenosić mechanizmy ataków DDoS; jednym z bardziej znanych przykładów był MyDoom. System może również zostać zaatakowany przez trojana, co umożliwi atakującemu pobranie agenta zombie. Atakujący mogą również włamać się do systemów za pomocą zautomatyzowanych narzędzi, które wykorzystują luki w programach nasłuchujących połączeń ze zdalnych hostów. Ten scenariusz dotyczy przede wszystkim systemów pełniących rolę serwerów w sieci. Stacheldraht to przykład narzędzia DDoS, które wykorzystuje strukturę warstwową, w której atakujący używa programu klienckiego do łączenia się z programami obsługi, które są skompromitowanymi systemami, które wydają polecenia agentom zombie, co z kolei ułatwia atak DDoS. Agenty są atakowane przez moduły obsługi przez atakującego, przy użyciu zautomatyzowanych procedur w celu wykorzystania luk w programach, które akceptują połączenia zdalne działające na docelowych hostach zdalnych. Każdy opiekun może kontrolować do tysiąca agentów. Te kolekcje hakerów systemów są znane jako botnety. Narzędzia DDoS, takie jak stacheldraht, nadal wykorzystują klasyczne metody ataków DoS skoncentrowane na fałszowaniu i wzmacnianiu adresów IP, takie jak ataki smurf i ataki fraggle (są one również znane jako ataki wykorzystujące przepustowość). Nowsze narzędzia mogą wykorzystywać serwery DNS do celów DoS. Główne zalety ataku DDoS dla atakującego polegają na tym, że wiele maszyn może generować większy ruch związany z atakami niż jedna maszyna, wiele maszyn atakujących trudniej jest wyłączyć niż jedną maszynę atakującą, a zachowanie każdej maszyny atakującej może być bardziej ukryte, co sprawia, że trudniejsze do wyśledzenia i zamknięcia. Te zalety atakującego stanowią wyzwanie dla mechanizmów obronnych. Na przykład zakup większej przepustowości przychodzącej niż bieżąca liczba ataków może nie pomóc, ponieważ osoba atakująca może po prostu dodać więcej maszyn atakujących. Metody filtrowania, takie jak filtrowanie ruchu przychodzącego, mogą uniemożliwić atakującemu w sieci źródłowej przeprowadzenie ataku tego rodzaju przy użyciu sfałszowanych adresów źródłowych, które nie są zgodne z regułami filtrowania ruchu przychodzącego. Nie chroni jednak przed atakami typu flooding, które pochodzą z prawidłowych prefiksów (adresów IP). Wszystkich dostawców łączności internetowej wzywa się do wdrożenia filtrowania w celu uniemożliwienia atakującym używania sfałszowanych adresów źródłowych, które nie znajdują się w zakresie legalnie reklamowanych prefiksów. Innymi słowy, jeśli dostawca usług internetowych agreguje ogłoszenia o trasach dla wielu sieci podrzędnych, należy zastosować ścisłe filtrowanie ruchu w celu zablokowania ruchu, który rzekomo pochodzi spoza tych zagregowanych ogłoszeń. Dodatkową korzyścią wynikającą z wdrożenia tego typu filtrowania jest to, że umożliwia on łatwe odnalezienie twórcy do jego prawdziwego źródła, ponieważ osoba atakująca musiałaby użyć prawidłowego i legalnie osiągalnego adresu źródłowego. Firmy muszą stale aktualizować swoje zabezpieczenia przeciwpowodziowe DDoS, ponieważ niektóre podejścia, które działały zaledwie kilka lat temu, mogą być teraz bezużyteczne. Na przykład w ostatnich latach powszechnym sposobem obrony przed tymi atakami była próba zidentyfikowania skoków ruchu w czasie rzeczywistym, a następnie użycie techniki zwanej "czarną dziurą", która działała we współpracy z dostawcą Internetu witryny w celu przekierowania przychodzącego fałszywego ruchu do "czarnej dziury". Jednakże, nowsze ataki DDoS znacznie szybciej zmieniają swój profil, więc coraz trudniej jest po prostu zidentyfikować, które żądania pakietów są nikczemne. Dlatego firmy powinny natychmiast spróbować poradzić sobie z ruchem DDoS na obrzeżach swojej sieci. Mogą korzystać z rozwiązania w chmurze, aby w przypadku ataku typu flood na dużą skalę dysponować wystarczającą przepustowością do absorpcji ataku. Wystarczająca przepustowość pozwala przestrzeni oddychać, radzić sobie i reagować. Firmy mogą również wdrażać systemy zapobiegania atakom DDoS, takie jak Google Project Shield lub usługi, takie jak Cloudflare. Na przykład Google Shield to zestaw narzędzi dla aktywistów i organizacji non-profit, w tym narzędzia do unikania cenzury internetowej i opresyjnych reżimów. Główny nacisk położono na ataki DDoS, rodzaj brutalnej akcji, która może z łatwością zniszczyć małą witrynę, nie pozostawiając żadnych wskazówek co do winowajców. DDoS stanowi ciągły problem dla drobnych aktywistów w sieci, ale Google Project Shield oferuje bezpłatne usługi ograniczania ataków DDoS stronom obsługującym media, wybory i treści związane z prawami człowieka. Narzędzie jest oparte na usłudze Google PageSpeed, narzędziu front-end, które oferuje programistom szybsze ładowanie. Witryny hostowane przez Project Shield znajdowałyby się za infrastrukturą PageSpeed, umożliwiając Google łączenie zasobów, gdyby jakakolwiek witryna padła ofiarą ataku. Jeśli atak nie byłby wystarczająco silny, aby zniszczyć wszystkie strony PageSpeed, nie byłby w stanie wyłączyć żadnej z nich. Jest podobny do istniejących usług DDoS, takich jak Cloudflare, chociaż niedawno uruchomiona usługa PageSpeed działa z mniejszej bazy witryn. Atak smerf to jeden ze szczególnych wariantów ataku typu flooding DDoS, który opiera się na źle skonfigurowanych urządzeniach sieciowych w celu umożliwienia wysyłania pakietów do wszystkich hostów komputerów w określonej sieci za pośrednictwem adresu rozgłoszeniowego sieci, a nie określonej maszyny. Sieć służy wtedy jako wzmacniacz smerfa. W takim ataku sprawcy wysyłają dużą liczbę pakietów IP z sfałszowanym adresem źródłowym, aby wyglądał jak adres ofiary. Aby zwalczać ataki DoS w Internecie, usługi takie jak Smurf Amplifier Registry dały dostawcom usług sieciowych możliwość identyfikować błędnie skonfigurowane sieci i podejmować odpowiednie działania, takie jak filtrowanie. Ponadto niektórzy dostawcy usług internetowych oferują tak zwany "szeroki kanał", który zapewnia klientom pewnego rodzaju bufor lub margines bezpieczeństwa, aby przetrwać atak DDoS. Jednak szeroki kanał i usługi filtrowania są skuteczne tylko wtedy, gdy reguły filtrowania są aktualizowane w celu zwalczania najnowszych technik DDoS. Ataki DDoS były współczesną formą oporu. Przypomina to tradycyjne protesty uliczne, z tą różnicą, że teraz są to protesty internetowe. Teraz jednak hakerzy zarabiają pieniądze, używając Bitcoin do żądania okupu.

Hakowanie IoT

Niepokojącym trendem w atakach DDoS było wykorzystanie urządzeń IoT, takich jak kamery internetowe, które zostały naruszone. Jeden z największych ataków DoS w ostatnich latach miał miejsce w 2016 roku na stronę należącą do znanego badacza bezpieczeństwa Briana Krebsa. Witryna ta została wyłączona przez zainfekowane urządzenie, a dostawca usług internetowych musiał go "odciąć", aby chronić innych klientów. Niektórzy opowiadali się za trzymaniem rzeczy w głupocie, jeśli chodzi o IoT. Podstawową praktyczną zasadą bezpieczeństwa jest to, że im więcej urządzeń ma kontakt z Internetem, tym większe jest ryzyko włamania. Sama skala wdrażania tych urządzeń wbudowanych o ograniczonej funkcjonalności w gospodarstwach domowych i miejscach publicznych może prowadzić do unikalnych ataków. Niektórzy martwią się również efektem domina, w wyniku którego jeśli jedno urządzenie stanie się "własnością", może łatwo rozprzestrzenić się na pozostałą część klastra. Kwestie prywatności wynikają z mechanizmów zbierania danych, które mogą prowadzić do profilowania użytkowników i identyfikacji osób w nieprzewidzianych scenariuszach przypadków użycia. Dlatego podczas wdrażania urządzeń IoT należy zachować ostrożność w odniesieniu do ich cyklu życia, mechanizmów gromadzenia danych i ogólnych protokołów bezpieczeństwa. Głównym problemem związanym z urządzeniami IoT jest to, że ze względu na implementację domyślnych haseł, które mogą być znane hakerom, wiele urządzeń ma fabrycznie zainstalowane niezmienne hasła. Tylko kilku producentów IoT rozważa konkretne formy algorytmów kryptograficznych i trybów potrzebnych dla urządzeń IoT. Wdrażając urządzenia gospodarstwa domowego podłączone do Internetu, konsumenci powinni mieć świadomość, że na tych urządzeniach może nie działać bardzo dobre oprogramowanie zabezpieczające, zwłaszcza że wiele z tych podłączonych urządzeń ma ograniczoną pojemność pamięci, ograniczoną żywotność baterii i ograniczone procesory. Tradycyjna "ciężka" kryptografia jest trudna do wdrożenia na typowym czujniku, stąd wdrażanie wielu niezabezpieczonych zdalnie podłączonych urządzeń. W urządzeniach takich jak te, im mocniejsze są czujniki i "procesor" wewnątrz urządzenia, tym są one droższe; dlatego bezpieczeństwo może być luksusem dla wielu producentów sprzętu AGD. Istnieją dowody na to, że wiele konsumenckich urządzeń IoT zaniedbało kompleksowy aspekt bezpieczeństwa. Głównym tego powodem jest to, że wiele urządzeń wbudowanych nie ma wystarczającej mocy obliczeniowej, aby wdrożyć wszystkie niezbędne odpowiednie warstwy bezpieczeństwa i funkcje. Istnieje również heterogeniczność urządzeń oraz brak branżowych lub de facto standardów podłączania tych urządzeń do Internetu.

Hakowanie robotów

Bezpieczeństwo to jeden z obszarów, w którym spodziewane jest pojawienie się kolejnych robotów. W rzeczywistości roboty do wykrywania włamań zostały już opracowane przez wiele firm, w tym iRobot i Robotext. W większości składają się one z mniejszych robotów mobilnych z kamerami i wykrywaniem ruchu, które poruszają się po budynku w poszukiwaniu intruza. Firmą, która zebrała najwięcej nagłówków w tej dziedzinie, jest Knightscope z siedzibą w Kalifornii. Ich "podobny do Daleka" robot K5 został zaprojektowany do wykrywania nietypowych zachowań, takich jak ktoś przechodzący przez budynek w nocy, i zgłaszania się do zdalnego centrum bezpieczeństwa. K5 wykorzystuje nasze kamery o wysokiej rozdzielczości; czujniki; kamera do rozpoznawania tablic rejestracyjnych; cztery mikrofony; czujnik pogodowy do pomiaru ciśnienia barometrycznego, poziomów dwutlenku węgla i temperatury; sprzęt nawigacyjny; i silniki elektryczne - wszystko w obudowie w kształcie kopuły z dużym akumulatorem i komputerem. K5 używa Wi-Fi do komunikowania się z innymi K5 i ludźmi, którzy mogą zdalnie monitorować jego kamery, mikrofony i inne źródła danych. To tylko jeden przykład nowoczesnego robota z różnymi czujnikami i kamerami. Istnieje ryzyko, że takie roboty mogą zostać zhakowane; w związku z tym należy podjąć dodatkowe środki, takie jak wdrożenie dodatkowego uwierzytelniania bezpieczeństwa - być może rozpoznawanie twarzy właściciela podczas otwierania paneli. Koszty mogą być wyższe niż w przypadku tradycyjnych systemów, a wiele rozwiązań wiąże się również z opłatami miesięcznymi. Ponadto istnieje ryzyko naruszenia prywatności, zwłaszcza w przypadku robota, który ma pełną swobodę poruszania się po domu, dlatego należy zadbać o bezpieczne przechowywanie nagrań z monitoringu. Głównym problemem jest jednak zapobieganie zdalnym włamaniom; w związku z tym właściciele muszą zapewnić aktualność oprogramowania układowego i urządzenia obsługującego robota oraz stosowanie długich, złożonych haseł i innych metod uwierzytelniania wieloskładnikowego. Jedno z bardziej znanych badań na temat hakowania robotów był na robocie telechirurgicznym o nazwie Raven II, który został opracowany na Uniwersytecie Waszyngtońskim. Raven II ma dwa ramiona chirurgiczne, którymi chirurg steruje za pomocą najnowocześniejszej konsoli sterującej, która obejmuje wideo i dotykowe sprzężenie zwrotne. Robot komunikuje się z konsolą sterującą za pomocą standardowego protokołu komunikacyjnego do zdalnej chirurgii, znanego jako interoperacyjny protokół telechirurgiczny, za pośrednictwem sieci publicznych, które są potencjalnie dostępne dla każdego. Zespół badawczy pokazał, jak można zmienić polecenia wysyłane przez operatora do robota, usuwając je, opóźniając lub zmieniając ich kolejność, powodując, że ruch robota staje się nierówny i trudny do kontrolowania. Modyfikując stopień obrotu, mogli również przeprowadzić atak DoS na robota. Motywacją do budowy rygorystycznych i bezpiecznych robotów może być możliwość, że wszyscy zaangażowani w ich projektowanie mogą zostać pociągnięci do odpowiedzialności, jeśli zostanie wykryta straszna słabość, która doprowadzi do osobistego cierpienia lub strat finansowych. Istnieje również obawa, że hakerzy mogą kontrolować urządzenia gospodarstwa domowego w różnych scenariuszach, takich jak zabawa z zainfekowanymi kamerami internetowymi i wyłączanie mikrofal w domowych alarmach. Aby zwiększyć bezpieczeństwo, każde urządzenie podłączone do sieci powinno być chronione hasłem długim, złożonym hasłem, a nie domyślnym hasłem gotowym do użycia. Podobnie jak w przypadku komputerów osobistych i tabletów komputerowych, urządzenia należy aktualizować natychmiast po wydaniu aktualizacji. Wszystkie urządzenia, które nie muszą być podłączone do Internetu, powinny zostać odłączone - może się to wydawać oczywiste, ale niektóre osoby umożliwiają zdalną łączność "od razu po wyjęciu z pudełka", nawet jeśli nie mają zamiaru łączyć się z urządzeniem, gdy są poza domem. Producenci powinni również publikować aktualizacje zabezpieczeń po wykryciu luk w zabezpieczeniach, ale czasami po prostu nie ma dla nich zachęty, aby to zrobić. W związku z tym może być konieczne wywieranie nacisku na producentów, aby wdrażali poprawki znanych luk w zabezpieczeniach.

Hakowanie samochodów

Ponieważ w niedalekiej przyszłości elektronika i związany z nią kod zostaną zintegrowane z nowoczesnymi pojazdami, pojazdy będą wymagały ochrony podobnej do tej stosowanej w (a) smartfonach, (b) tabletach i (c) tradycyjnych komputerach. Niepokojące są różne niebezpieczne scenariusze, w których hakerzy mogą kontrolować pojazdy: (a) pobieranie nieuczciwych aplikacji, (b) wyłączanie zapłonu pojazdu lub (c) pomijanie układów hamulcowych. Podobnie jak w początkach Internetu, producenci samochodów nie przywiązywali dużej wagi do bezpieczeństwa. Naukowcy wykazali w kontrolowanych eksperymentach, że pojazdami można sterować za pomocą systemów telematycznych na duże odległości oraz że złośliwe oprogramowanie można z powodzeniem osadzać za pośrednictwem połączeń bezprzewodowych. Ogólnie rzecz biorąc, nowoczesne inteligentne samochody stają się bardziej podatne na ataki elektroniczne, które mogą być bardziej skuteczne niż poprzednie ataki samochodowe typu brute-force. Niedawno ujawniono, że w Internecie można kupić urządzenie bezprzewodowe o wartości 15 funtów, które wzmacnia bezprzewodowy system wejściowy nowoczesnego samochodu, dzięki czemu sygnał dociera z urządzenia złodzieja do kluczyków właściciela w odległości do 100 metrów, umożliwiając złodziejowi dostęp do samochodu i możliwość odjechania w kilka sekund. Wreszcie, ryzyko związane z wdrażaniem technologii w inteligentnych samochodach, w przeciwieństwie do innych platform, to potencjalne rozproszenie uwagi i zły projekt lub awarie, które mogą przyczynić się do wypadków. Eksperci ds. technologii spoza lotnictwa i produktów medycznych zwykle polegają na rozwiązywaniu problemów w miarę ich pojawiania się, więc źle skonfigurowana usługa w szybko poruszającym się inteligentnym samochodzie może mieć niebezpieczne, a nawet śmiertelne konsekwencje. Wiele czynników może jednak doprowadzić do zmiany. Również w tym przypadku motywacją do budowania rygorystycznych i bezpiecznych systemów może być możliwość pociągnięcia osób zaangażowanych w projektowanie do odpowiedzialności, jeśli wada spowodowała lub nawet przyczyniła się do kolizji lub śmierci. Pojazdy ewoluowały, aby zawierać złożoną sieć aż 100 niezależnych komputerów, zwanych elektronicznymi jednostkami sterującymi (ECU). ECU wykonują różne funkcje, takie jak pomiar tlenu obecnego w spalinach i regulacja mieszanki paliwowo-tlenowej, poprawiając wydajność i redukując zanieczyszczenia. Stopniowo te ECU zostały zintegrowane z prawie każdym aspektem funkcjonowania pojazdu, w tym z układem kierowniczym, tempomatem, uruchamianiem poduszek powietrznych i hamowaniem. Na przykład Mercedes Benz klasy S wymaga ponad 20 milionów linii kodu i ma prawie tyle samo ECU, co nowy Airbus A380 (nie licząc pokładowego systemu rozrywki). Pojazdy mogą wkrótce wymagać od 200 do 300 milionów wierszy kodu oprogramowania. Ta statystyka pokazuje wrażliwą naturę pojazdu XXI wieku. Te jednostki ECU nie tylko łączą się ze sobą, ale mogą teraz również łączyć się z Internetem, narażając komputery pojazdu na te same cyfrowe zagrożenia, które są szeroko znane z innych urządzeń sieciowych: trojany, wirusy, ataki DoS i inne. Nowe pojazdy często mają wiele trybów łączności, takich jak sieci telefonii komórkowej i Internet za pośrednictwem systemów, w tym OnStar, Ford Sync i innych; łączność bezprzewodowa, taka jak Bluetooth; bezprzewodowy dostęp krótkiego zasięgu dla breloków; i czujniki ciśnienia w oponach. Niektóre obsługują radio satelitarne, a także mają wejścia na płyty DVD, CD, iPady i urządzenia USB. Jedno z wczesnych badań hakerskich zostało przeprowadzone przez Center for Automotive Embedded Systems Security, zespół z Waszyngtonu, który był w stanie wprowadzić szeroką gamę systemów (np. zamki, tablica przyrządów, radio i jego wyświetlacz) pod kontrolą zewnętrzną. Atakujący wysyłali wiadomości, inicjowali irytujące dźwięki, a nawet pozostawiali kierowcę bez możliwości kontrolowania głośności radia. Zaatakowali również zestaw wskaźników / centrum informacyjne kierowcy, wyświetlając bezczelne komunikaty i zmienili odczyty wskaźnika poziomu paliwa i prędkościomierza oraz podświetlenie panelu. Kolejne hacki przejęły moduł sterujący silnika, co doprowadziło do niekontrolowanych obrotów silnika, błędów odczytu i całkowitego wyłączenia silnika. Niemal uniwersalna magistrala sieciowa obszaru kontrolera w pojazdach umożliwia takie naruszenia. Wszystkie nowoczesne pojazdy posiadają pokładowe złącze diagnostyczne, które umożliwia mechanikom diagnozowanie usterek i uzyskiwanie informacji na temat osiągów pojazdu, aw niektórych przypadkach zmian, takich jak rozrząd silnika. Staje się to głównym punktem dostępu dla hakerów, ponieważ wszystko można zmienić za pomocą tego portu. Ważne aspekty, takie jak kontrola prędkości, układ kierowniczy i hamulce, znajdują się w oddzielnej sieci pojazdów, a obie sieci szkieletowe pojazdów są ze sobą połączone, więc naruszenie jednego z nich może spowodować spustoszenie w drugim. Obecnie nadal jest to system trudny do złamania, ale w miarę udostępniania w Internecie coraz większej liczby exploitów pojawiają się obawy. Sprzęt telefonu komórkowego pojazdu zapewniający połączenie z systemem komputera pokładowego jest również narażony na instalowanie złośliwego oprogramowania, które może pozwolić złodziejowi na zdalne odblokowanie samochodu i jego kradzież. Od 2017 r. głównym zmartwieniem społeczności bez kierowców jest wczesny wypadek drogowy pojazdu autonomicznego lub połączonego. Kiedy po raz pierwszy wprowadzono układy przeciwblokujące, negatywny rozgłos i słaba edukacja konsumentów opóźniły przyjęcie na rynek masowy. Podobnie, gdy wprowadzono elektroniczne systemy kontroli stabilności, konsumenci nie do końca rozumieli, jak korzystać z tej technologii. Jednak na drogach systemy te zapewniły wyraźną, wymierną redukcję liczby ofiar śmiertelnych. Gdy konsumenci zrozumieli, jak działają te systemy, nastąpiło powszechne przyjęcie układów przeciwblokujących i bardziej efektywne wykorzystanie elektronicznej kontroli stabilności. Samochody bez kierowcy będą również nieuchronnie generować duże ilości danych. Takie dane będą przydatne w wielu przyszłych zastosowaniach, takich jak crowdsourcing optymalnych tras lub osobiste usługi oparte na lokalizacji, co również prowadzi do obaw o prywatność. Firma ubezpieczeniowa, producent samochodów, dealer samochodowy, a nawet lokalne organy ścigania mogą mieć jeszcze jeden sposób śledzenia ruchów osób. Hakerzy mogą atakować te dane dotyczące mobilności osobistej w celu przechwytywania danych, modyfikowania zapisów, inicjowania ataków na systemy i/lub śledzenia poszczególnych pojazdów. Ponadto można zaobserwować ataki DoS na pojazdy. Kluczem do zapobiegania tym formom ataków na prywatność jest usuwanie informacji identyfikujących i ukrywanie danych. Tam, gdzie to możliwe, należy stosować sprzęt szyfrujący i odporny na manipulacje oraz egzekwować politykę prywatności zdefiniowaną przez użytkownika. Sukces samochodów autonomicznych zależy częściowo od rozwiązania konfliktów dotyczących prywatności wśród interesariuszy, którzy będą podejmować decyzje dotyczące sposobu gromadzenia, archiwizowania i rozpowszechniania informacji. Na przykład, co ma powstrzymać rządy przed szpiegowaniem swoich obywateli lub zagraniczne rządy i grupy terrorystyczne śledzące osoby za pośrednictwem swoich pojazdów? Hacki potwierdzające słuszność koncepcji pokazały, jak podsłuchiwać rozmowy pojazdu za pośrednictwem wbudowanego zestawu głośnomówiącego Bluetooth. Niektóre wczesne prototypy zaczynają komunikować się z siecią, chmurą i innymi pojazdami. Niektórzy szacują, że wkrótce inteligentne samochody domyślnie będą prawdopodobnie prowadzić dziennik aktywności w celu serwisowania i debugowania. Bezpieczeństwo pojazdów, podobnie jak w innych sektorach, może być jednym z obszarów, w których można poczynić oszczędności. Ze względu na takie czynniki, jak pośpiech na rynku i większość dotychczasowych hacków głównie teoretycznych, producenci nie poświęcili bezpieczeństwu zbyt wiele uwagi, mimo że bezpieczeństwo systemu operacyjnego pojazdu jest z nimi związane (tj. Nie można zainstalować programu antywirusowego McAfee ani Norton). Dlatego wskazane jest, aby konsumenci zapoznali się z różnymi funkcjami, takimi jak funkcja zdalnego wyłączania, w tym kto i co może spowodować wyłączenie samochodu przez ten system. Konsumentom zaleca się również ostrożność podczas instalowania akcesoriów elektronicznych innych firm, ponieważ mogą one nie być tak rygorystycznie zaprojektowane, jak oryginalne funkcje producenta. Kluczowymi elementami przyszłości będą sieci komórkowe, sieci ad hoc (car-to-car), pojazdy do/z czujników drogowych oraz łączność satelitarna. W przyszłości inteligentne samochody prawdopodobnie będą miały łączność sieciową, umożliwiając im otrzymywanie aktualizacji oprogramowania układowego/oprogramowania oraz synchronizację muzyki i danych GPS przez sieć lokalną. To tylko mały krok, aby większość danych telemetrycznych powiązanych z tym pojazdem została również przesłana, aby umożliwić miastu optymalizację zarządzania ruchem. Dlatego ważne będzie aktualizowanie urządzeń komunikacyjnych, a także samochodów bez kierowcy, do najnowszego systemu operacyjnego. Obecnie kradzież pojazdów poprzez hakowanie nie jest powszechna ze względu na złożoność i potrzebne zaawansowane narzędzia; jednak może się to zmienić w nadchodzących dniach. Dlatego producenci pojazdów i instalatorzy telematyki muszą zidentyfikować wrażliwych punktów wejścia i wstawić zapory ogniowe, aby ograniczyć dostęp do zintegrowanych systemów, takich jak komunikacja mobilna i pokładowy port diagnostyczny. Oprogramowanie wymuszające okup. Ataki ransomware szybko stają się coraz bardziej powszechne i stanowią coraz większe zagrożenie dla użytkowników domowych, firm, a także wielkoskalowych przemysłowych systemów kontroli/kontroli nadzorczej i systemów gromadzenia danych. Jak wspomniano wcześniej, ostatnie cyberprzestępstwa były związane ze wzrostem ceny kryptowaluty Bitcoin. Korzystanie z anonimowej metody płatności umożliwia przestępcom infiltrację dysków twardych firmy i osoby prywatne i przetrzymują okup w ich plikach do czasu wysłania płatności w bitcoinach. W przypadku oprogramowania ransomware hakerzy grożą wyłączeniem witryny lub zablokowaniem plików, jeśli okup nie zostanie zapłacony. Niektóre wczesne wersje ransomware cryptolocker miały słabe punkty i pojawiły się poprawki, aby przezwyciężyć słabe szyfrowanie i odblokowanie plików; jednak nowsze wersje wydają się być nieprzeniknione - to znaczy, gdy pliki są zablokowane, nie można ich odblokować - jak sugerują niepotwierdzone dowody online. W idealnym świecie nikt nie zapłaciłby okupu przestępcom. Zapłacenie okupu nie tylko ich wzbogaca, ale może również zachęcić ich do opracowania bardziej wyrafinowanego oprogramowania ransomware i atakowania większej liczby ofiar. Nie ma również gwarancji, że zapłacenie okupu spowoduje odblokowanie plików, jak to miało miejsce w wielu przypadkach. Zapłata okupu sprowadza się do wartości utraconych plików: jeśli zostaną uznane za warte okupu, osoba lub firma, której to dotyczy, po prostu zapłaci. Często okup jest znacznie tańszy niż rzeczywiste koszty utraty dostępu do pliku. Po rozpoczęciu ataku dostępne są ograniczone możliwości ze względu na szybkie nadpisywanie plików, co jest również głównym wskaźnikiem obecności oprogramowania ransomware. Narzędzia do monitorowania aktywności mogą potencjalnie wykrywać charakterystyczne wzorce, które to wskazują i wyłączać system lub całą sieć, aby zapobiec rozprzestrzenianiu się wirusa. Później do odzyskiwania niezaszyfrowanych plików można zastosować techniki analizy dysków. Główną strategią zapewniającą nieskuteczność oprogramowania ransomware jest posiadanie odpowiedniego planu tworzenia kopii zapasowych. Pliki, których kopie zapasowe są tworzone w trybie offline, można zastąpić zaszyfrowanymi plikami i nigdy nie trzeba płacić okupu. Zaleca się serializację kopii zapasowych i przechowywanie ich w innym miejscu niż dyski sieciowe, ponieważ oprogramowanie ransomware może infekować udostępnione i wymienne nośniki. Inne strategie obejmują uwierzytelnianie przychodzących wiadomości e-mail, ponieważ większość infekcji wynika z otwierania załączników ransomware. Wdrożenie ram polityki nadawcy, klucze domeny identyfikujące pocztę oraz raportowanie i zgodność uwierzytelniania wiadomości domeny może pomóc w ochronie przed spear phishingiem i innymi atakami pochodzącymi z sfałszowanych wiadomości e-mail. Działają one razem, aby zweryfikować adres IP i domenę źródłowego serwera poczty e-mail. Ponadto można wdrożyć zapory ogniowe, aktywne skanowanie załączników i filtrowanie stron internetowych, a także systemy wykrywania włamań i oprogramowanie chroniące przed złośliwym oprogramowaniem. Pomocne są również najlepsze praktyki dotyczące terminowego instalowania poprawek w systemach. Ograniczanie uprawnień użytkownika jest ważne, ponieważ złośliwe oprogramowanie jest uruchamiane z takimi samymi uprawnieniami, jakie posiada ofiara. Powszechnym sposobem, w jaki oprogramowanie ransomware zdobywa przyczółek na komputerach, jest klikanie przez użytkowników załączników lub linków, które mogą wyglądać na legalne, ale w rzeczywistości instalują destrukcyjne oprogramowanie. Oprócz zapór ogniowych, oprogramowania antywirusowego i systemów wykrywania włamań, edukowanie użytkowników o zagrożeniach związanych z klikaniem takich łączy może pomóc w zapobieganiu takim atakom. Aby edukować swoich pracowników, niektóre zespoły ds. bezpieczeństwa wysyłają do swoich pracowników e-maile phishingowe zawierające fałszywe złośliwe oprogramowanie, które po aktywacji po prostu prowadzi pracowników do witryny informującej ich o popełnionym błędzie i informującej o niebezpieczeństwach związanych z tym, co zrobili.

Końcowe przemyślenia

W bezpieczeństwie komputerowym bycie paranoikiem jest uważane za pozytywną cechę. Ostatecznie radą dla konsumentów jest to, aby nikomu nie ufać. Zaszyfruj wszystkie dane w telefonie. Nie ufaj internetowym usługom w chmurze, takim jak Dropbox, ani dostawcom poczty e-mail, takim jak Hotmail, Gmail lub Yahoo. Użyj Pretty Good Privacy do szyfrowania wszystkich wiadomości e-mail. Nigdy nie ufaj publicznym hotspotom Wi-Fi ani nie korzystaj z witryn z torrentami lub nielegalnych witryn do pobierania.



Powrót

Hashtag



Hashtag to znak funta lub krzyżyka (#), po którym następuje słowo lub fraza, które są używane na wielu platformach mediów społecznościowych do opisywania postów, umożliwiając ich organizowanie i wyszukiwanie przez użytkowników platformy. Dodatkowo hashtagi pełnią funkcje metakomunikacyjne, które można wykorzystać do rozszerzenia treści wpisu. Na przykład hashtagi mogą być wykorzystywane przez użytkowników platformy do przekazywania emocji związanych z tematem postu; zastanowić się nad nastrojem lub stanem plakatu; oznaczyć post jako odniesienie i rozszerzenie dużego zbioru treści społecznościowych, takich jak dobrze znany mem internetowy, odniesienie do kultury popularnej lub "wewnętrzny żart" społeczności fanów; dostarczać krytyki lub komentarzy; przekazać ironię; zidentyfikować przynależność społeczną; i uczestniczyć we wspólnych działaniach społecznych, takich jak oglądanie telewizji i uczestnictwo w wydarzeniach, takich jak ślub. Hashtagi są powszechnie stosowane w kampaniach uświadamiających i aktach aktywizmu internetowego. Ten wpis zawiera przegląd początków i ewolucji hashtagów, omawia metakomunikacyjne zastosowania hashtagów oraz podaje przykłady kilku szeroko rozpoznawalnych i popularnych hashtagów oraz kampanii hashtagowych.

Przegląd hashtagów

Hashtagi to rodzaj metadanych (danych o danych), które są zawarte w postach w mediach społecznościowych. Podczas gdy umieszczanie metadanych w postach w mediach społecznościowych jest powszechną praktyką jako metoda zarządzania informacjami, hashtagging różni się od konwencjonalnych metadanych, ponieważ hashtagi działają w celu wspierania interakcji społecznych i relacji międzyludzkich online. Są oparte na współpracy i generatywne, ponieważ pozwalają na budowanie społeczności i uczestnictwo w życiu społecznym. Ich użycie polega na współpracy, ponieważ ułatwiają rozmowy między użytkownikami, którzy dodają adnotacje do swoich postów za pomocą wspólnego hashtagu. Ich użycie jest generatywne, ponieważ pomagają budować i wspierać wymiary tworzenia znaczeń w cyfrowych przestrzeniach społecznościowych, takie jak praktyka stosowania hashtagu Follow Friday w celu promowania innowacyjnych lub interesujących kont, które warto obserwować. Hashtagi zostały po raz pierwszy zaimplementowane na platformie mikroblogowej Twitter jako system klasyfikacji, aby zachęcić do rozpowszechniania pomysłów i tematów oraz ułatwić funkcję treści zyskujących popularność. Użytkownicy mogli dodawać adnotacje do swoich postów za pomocą hashtagów, a funkcja wyszukiwania na Twitterze umożliwiała wyszukiwanie i agregowanie tych postów według unikalnego hashtagu. Użytkownicy mogą następnie wyszukiwać interesujące ich tematy lub innych użytkowników, których posty chcieliby zaangażować. Platforma Twitter agreguje hashtagi jako metodę określania, które hashtagi są popularne, a które pojawiają się lub "trendują" w danym momencie. Podsumowując, możliwość wyszukiwania hashtagów przez użytkownika i przeglądania gotowej listy popularnych i zyskujących popularność hashtagów sprzyja rozprzestrzenianiu się i konwersacji. Funkcja hashtaggingu była szczególnie przydatna dla użytkowników platform mikroblogowych, takich jak Twitter, które ograniczały długość publikowanych treści, ponieważ pozwalały użytkownikom łączyć ich posty z rozmowami zbiorowymi lub praktykami społeczności lub identyfikować wspólne pokrewieństwa z innymi użytkownikami. Szereg platform mediów społecznościowych obsługuje proces hashtagowania, w tym Twitter, Facebook, Instagram, Tumblr, Pinterest i YouTube

Hashtagi jako metakomunikacja

W miarę jak użytkownicy mediów społecznościowych dostosowywali praktykę oznaczania hashtagami swoich postów, ewoluowało wykorzystanie i funkcja społecznościowa hashtagów. Oprócz wspierania rozprzestrzeniania się, wyszukiwania, dyskusji, praktyk społeczności i koligacji grupowej, użytkownicy mediów społecznościowych dostosowali funkcję hashtagów jako znaczników metakomunikacyjnych. W badaniu z 2014 roku Alice R. Daer, Rebecca F. Hoffman i Seth Goodman zidentyfikowali pięć funkcji retorycznych hashtagów metakomunikacyjnych:

1. Podkreślanie lub zwracanie uwagi na coś, do czego odnosi się post
2. Krytyka w celu wydania osądu na temat tematu postu
3. Identyfikacja, jak w refleksji, nastroju lub charakterystyki autora
4. Iteracja, aby połączyć post z istniejącym memem internetowym lub humorem kulturowym
5. Zbieranie się w celu zorganizowania społeczności oporu lub podnoszenia świadomości, często wykorzystywane w aktywizmie internetowym i ruchach społecznych w Internecie

Podczas gdy początkowym celem hashtagu była etykieta organizacyjna ułatwiająca wyszukiwanie, agregowanie i konwersację użytkowników, użytkownicy dostosowali hashtag do pełnienia funkcji metakomunikacji. Te metakomunikacyjne hashtagi, zamiast służyć do organizowania i klasyfikowania postów, dodają do posta funkcję refleksyjną lub aktywistyczną. Znaczniki odblaskowe mogą służyć do niuansowania treści oryginalnego posta, reprezentując osobiste odczucia autora dotyczące posta, takie jak powszechnie używany hashtag #sorrynotsorry, który może przekazać sarkazm autora wobec lub krytykę konwencji społecznych. Hashtagi aktywistów mogą stworzyć punkt zborny dla innych, aby znaleźć posty, dla których użytkownicy chcieliby podnieść świadomość społeczną. Hashtagi mogą pomóc plakatom połączyć swoje posty z popularnym memem lub podzielić się swoimi uczuciami z innymi, którzy oglądają ten sam program telewizyjny lub uczestniczą w tym samym weselu. Metakomunikacyjne znaczenie hashtagu zależy od semiotycznego odczytania hashtagu przez docelowych odbiorców. Im jaśniejsze znaczenie hashtagu, tym większe prawdopodobieństwo, że zostanie on powszechnie przyjęty.

Przykłady hashtagów i ich zastosowań

W tej sekcji opisano pięć przykładów hashtagów. Dwa to przykłady internetowego aktywizmu, dwa przykłady generatywnego tworzenia znaczeń i budowania społeczności, a jeden to przykład tagu, który komentuje nastrój lub cechy autora.

Aktywizm internetowy

Dwa przykłady hashtagów wykorzystywanych do wspierania aktywizmu internetowego, (1) #YesAllWomen i (2) #BringBackOurGirls, pojawiły się, gdy aktywistki starały się zwiększyć świadomość problemów kobiet.

#YesAllWomen i #NotAllMen

Zabójstwa na Isla Vista w maju 2014 r. w pobliżu kampusu Uniwersytetu Kalifornijskiego w Santa Barbara były katalizatorem wielu postów na blogach i krótkich artykułów dziennikarskich opisujących wszechobecność mizoginii i nękania, jakich doświadczają kobiety. Chociaż kobiety i mężczyźni zginęli w strzelaninie, strzelec pozostawił długi i wysoce mizoginistyczny manifest na temat motywów ataków. Hashtag #NotAllMen powstał rzekomo w celu skomplikowania publicznego dyskursu mężczyzn, którzy odrzucili wszechobecną narrację. Po części, jako reakcja na #NotAllMen, #YesAll-Women pojawiło się, gdy kobiety masowo zajęły się mediami społecznościowymi, aby podzielić się swoimi doświadczeniami z mizoginią.

#BringBackOur-Girls

W kwietniu 2014 roku Boko Haram porwało ponad 200 nigeryjskich uczennic. Ibrahim Abdullahi (@Abu_Aaib) opublikował tweeta stosując hashtag #bringbackourgirls. Inni aktywiści internetowi i użytkownicy Twittera podjęli ten hashtag, aby podnieść świadomość mediów i wywołać reakcję społeczności międzynarodowej. Przede wszystkim oddolny przykład aktywizmu internetowego, #BringBackOur-Girls jest godny uwagi ze względu na udział Pierwszej Damy Michelle Obamy, której zdjęcie zostało opublikowane na jej oficjalnym koncie Pierwszej Damy na Twitterze z odręcznym napisem #BringBackOurGirls.

Generatywne tworzenie znaczeń i budowanie społeczności

Dwa przykłady hashtagów wykorzystywanych do wspierania zbiorowego tworzenia znaczeń i budowania społeczności to #tbt i #ff. Tagi te mają trwałą historię użytkowania na platformach społecznościowych. #tbt służy do uczestniczenia w publicznej nostalgii i wspierania dyskusji użytkowników na temat wspólnej historii i pamięci zbiorowej. #ff jest używany przez użytkowników mediów społecznościowych do podnoszenia rangi kont, które autor uważa za warte obserwowania.

#tbt

#tbt lub #TBT to hashtag dla Throwback Thursday i jest używany na platformach mediów społecznościowych, gdy uczestnicy dzielą się ze swoimi obserwatorami zdjęciem z przeszłości, zwykle takim, które ma znaczenie dla plakatu, na przykład zdjęciem z dzieciństwa. Plakaty udostępniają swoje zdjęcia #tbt, a obserwujący hashtag mogą brać udział w dyskusjach, które odzwierciedlają doświadczenia uczestników z wydarzeniami na obrazie lub wyrażają uznanie dla przedstawionego czasu lub wydarzeń. Pierwotnie #tbt było zbiorową praktyką, która miała miejsce tylko w czwartki, ale od tego czasu jego użycie ewoluowało. Podczas gdy hashtag jest nadal zachowywany na nostalgicznych postach ze zdjęciami w ramach praktyki społeczności, publikowanie samych zdjęć nie jest już ograniczone do jednego dnia tygodnia, a plakaty udostępniają nostalgiczne zdjęcia w dowolnym momencie.

#ff

#ff lub #FF to hashtag dla Follow Fridays i jest używany na platformach mediów społecznościowych, gdy plakaty udostępniają uchwyty obserwowanych kont w mediach społecznościowych jako osobiste rekomendacje treści, które uważają za wartościowe lub wysokiej jakości. Follow Fridays ułatwia rozpowszechnianie nowych treści i zwiększa liczbę subskrybentów kont autorów.

Uwagi

Przykładem hashtagów służących do wyrażania cech plakatu lub komentowania jego aktualnego nastroju jest #sorrynotsorry, czyli tag emotywny służący do wyrażania sarkazmu i braku poczucia odpowiedzialności lub poczucia winy za działania plakata. Posty te mają często charakter humorystyczny, ale służą również jako komentarz społeczny i krytyka normatywnych zachowań i oczekiwań. Przykładem może być plakat wskazujący, że przypadkowo zjadł cały kufel lodów, a następnie oznaczający swój post tagiem #przepraszamnieprzepraszam, aby wskazać, że nie żałuje tego, co może być postrzegane jako nieodpowiedzialna decyzja dietetyczna. Plakat może użyć słowa #przepraszamnieprzepraszam, aby zastanowić się nad czymś, co powiedział lub zrobił, co zgodnie z powszechną uprzejmością zasługuje na przeprosiny, na przykład plakat informujący, że wziął ostatniego pączka w pokoju socjalnym.



Powrót

Hiperłącze



Jedną z wielu znaczących zalet Internetu jest jego zdolność do umożliwienia jednej witrynie bezpośredniego łączenia się z inną witryną, stroną internetową, plikiem lub dokumentem za pośrednictwem hiperłączy. Ten wpis najpierw konceptualizuje hiperłącza na dwa sposoby i wprowadza koncepcję sieci hiperłączy. Następnie omówiono czynniki wpływające na wybór hiperłączy i teorie sieci, które zostały wykorzystane do badania hiperłączy. Wreszcie, w oparciu o pojawiające się badania hiperłączy, sugeruje kilka obszarów przyszłych badań. Postęp w technologiach internetowych zmotywował badaczy nauk społecznych z różnych dziedzin, w tym komunikacji, nauk politycznych, informatyki, socjologii i geografii, do badania struktur i implikacji społecznych hiperłączy. Używając terminologii sieciowej, hiperłącze jest ukierunkowanym łączem między dwoma podmiotami, a węzłami są zwykle strony internetowe reprezentujące szeroki wachlarz podmiotów, w tym osoby prywatne (np. Politycy i dziennikarze), organizacje (np. organizacje informacyjne, firmy i organizacje non-profit) ) i krajów. Hiperłącza i badania sieci hiperłączy stanowią wyłaniający się obszar badań interesujący naukowców z wielu dyscyplin. Chociaż naukowcy zbadali przyczyny i dominujące wzorce sieci hiperłączy, wiele badań pozostaje do przeprowadzenia, aby zrozumieć wyniki hiperłączy i sieci hiperłączy usytuowanych w szerszym kontekście instytucjonalnym.

Konceptualizacja hiperłączy

Hiperłącze może reprezentować dwa typy relacji między połączonymi podmiotami: (1) relacje przepływu i (2) relacje reprezentacji. Po pierwsze, hiperłącze może wskazywać na przepływ informacji z jednej strony internetowej do innej. Na przykład, gdy dziennikarz umieszcza hiperłącze w swoich tweetach lub artykułach online, to hiperłącze kieruje użytkowników do szukania dodatkowych informacji z innego źródła. Jako takie praktyki hiperłączy wskazują na podstawowe wartości dziennikarskie, takie jak przejrzystość i wiarygodność. Oprócz artykułów z wiadomościami hiperłącza są często używane na blogach, aby pomóc odbiorcom w poruszaniu się po nowych informacjach. Po drugie, według Michelle Shumate i Noshir Contractor, hiperłącze oznacza reprezentatywną relację między połączonymi podmiotami. Poprzez hiperłącza aktor próbuje nawiązać powiązanie z innym aktorem i przekazuje takie powiązanie stronie trzeciej lub ogółowi społeczeństwa. Konceptualizacja hiperłączy jako relacji reprezentacyjnych sugeruje, że hiperłącze zawiera poparcie aktora i uznanie drugiego aktora. Otrzymanie dużej liczby hiperłączy wskazuje na autorytet, reputację, status, wpływ społeczny, popularność i legitymację aktora. Po części liczba hiperłączy otrzymywanych przez witrynę określa jej pozycję w wynikach wyszukiwania. Na przykład w kontekście hiperłączy między organizacjami pozarządowymi (NGO), organizacje pozarządowe, które otrzymują najwięcej hiperłączy, są liderami w kwestiach społecznych lub ruchach społecznych. Poprzez reprezentacyjne hiperłącza organizacje pozarządowe strategicznie wyrażają swoje przynależności i ustanawiają symboliczne sojusze z podobnie myślącymi podmiotami, tworząc ograniczoną sieć problemów społecznych.

Sieci hiperłączy

Całość hiperłączy w zbiorze witryn tworzy sieć hiperłączy, w której węzłami są strony internetowe, a powiązania charakteryzują obecność (lub brak) i kierunek hiperłączy między nimi. Istnieje kilka cech hiperłączy i sieci hiperłączy. Po pierwsze, hiperłącza nie wiążą się z dodatkowymi powiązaniami hiperłączy dla odbiorcy wiadomości. Po drugie, rozkład na poziomie (tj. Liczba hiperłączy, które aktorzy otrzymują od innych aktorów w sieci) w sieci hiperłączy jest bardzo wypaczony. Innymi słowy, niewielka liczba aktorów przyciąga dużą liczbę hiperłączy, a liczba aktorów, którzy otrzymują bardzo mało hiperłączy, stanowi większość w sieci. Nazywa się to również przywiązaniem preferencyjnym lub zjawiskiem "bogaci stają się bogatsi". Hiperłącza to celowy i strategiczny wybór komunikacji. Na przykład sieci hiperłączy organizacji pozarządowych reprezentują działania zbiorowe online i ich wkład w dobra publiczne. Hiperłącza z organizacji biznesowych do organizacji non-profit wskazują na chęć organizacji biznesowej do zarządzania kwestiami społecznymi i budowania społecznej odpowiedzialności biznesu online. Na arenie politycznej politycy strategicznie zarządzają hiperłączami na swoich blogach, aby odzwierciedlić ich przynależność polityczną i ideologię. Hiperłącza między zestawem blogów politycznych, dziennikarskich i obywatelskich tworzą internetową blogosferę i odzwierciedlają publiczne dyskusje. Jednak hiperłącza mogą wiązać się również z pewnymi negatywnymi konsekwencjami. Na przykład hiperłącza wydają się rozszerzać podział zasobów offline na sferę online, tak że hiperłącza zwykle koncentrują się na podmiotach z krajów bardziej rozwiniętych oraz osobach i organizacjach dysponujących większymi zasobami finansowymi i społecznymi. Hiperłącza i sieci hiperłączy to dynamiczne i otwarte systemy, które wchodzą w interakcję ze swoim środowiskiem zewnętrznym. Dwa rodzaje czynników wpływają na wybory aktora dotyczące hiperłączy: (1) czynniki egzogeniczne i (2) czynniki endogenne. Czynniki egzogeniczne zwykle koncentrują się na różnych atrybutach aktora i ich związkach z zachowaniami związanymi z hiperłączami. Niektóre atrybuty aktora obejmują przynależność do partii politycznej, zasoby ekonomiczne, wiek, język, misję organizacyjną i położenie geograficzne. Czynniki endogeniczne podkreślają strukturalne zakorzenienie hiperłączy, które powtarzają się w sieci hiperłączy w charakterystyczny sposób. Sugeruje to, że wybór hiperłączy jest uzależniony od istniejących wyborów hiperłączy w sieci. Stwierdzono, że niektóre właściwości strukturalne są dominujące w sieciach hiperłączy, w tym wzajemność, przechodniość i cykliczność. Wzajemność opisuje sytuację, w której aktor A tworzy hiperłącza do aktora B, a aktor B również hiperłącza do aktora A. Przechodniość ma miejsce, gdy aktor A zawiera hiperłącza do aktora B, aktor B hiperłącza do aktora C, a wreszcie aktor A również hiperłącza do aktora C. Cykliczność odnosi się do obecność ścieżki od Aktora A do Aktora B, Aktora B do Aktora C i wreszcie Aktora C z powrotem do Aktora A, kończąc ukierunkowany cykl.

Teorie dotyczące hiperłączy i sieci hiperłączy

Badania nad hiperlinkami i sieciami hiperłączy odbywały się w ramach kilku teoretycznych ram sieci, w tym teorii zależności od zasobów, przywiązania preferencyjnego, teorii homofilii, teorii działań zbiorowych, teorii ekologii społeczności i teorii socjoewolucyjnej. Teoria zależności od zasobów sugeruje, że zarządzanie złożonością środowiskową i ich zależnością niektórzy aktorzy, aktorzy ustanawiają strategiczne powiązania z kluczowymi aktorami, którzy kontrolują krytyczne zasoby zewnętrzne. Oznacza to, że aktorzy zwykle prowadzą hiperłącza do innych aktorów, którzy mają wystarczające zasoby, takie jak widoczność w mediach informacyjnych i zasoby ekonomiczne. Przywiązanie preferencyjne stwierdza, że aktorzy wolą hiperłącza do stron internetowych, które już otrzymują dużą liczbę hiperłączy ze względu na postrzegany duży wpływ społeczny i legitymację. Teoria homofilii głosi, że aktorzy aktywnie wyszukują i łączą się z podobnymi osobami na podstawie ich statusu (np. wykształcenie, rasa, płeć i typ organizacyjny) oraz podobieństwa wartości (np. większe zaufanie. Mówiąc dokładniej, istnieją trzy mechanizmy homofilii, które mogą wpływać na zachowania hiperłączy: (1) homofilia oparta na atrybutach, (2) homofilia oparta na geografii i (3) homofilia instytucjonalna. Homofilia oparta na atrybutach sugeruje, że aktorzy prowadzą hiperłącza do innych aktorów na podstawie ogólnych cech, że dwaj aktorzy są podobni. Homofilia oparta na geografii wskazuje, że aktorzy osadzeni w tej samej lokalizacji geograficznej są kształtowani przez podobne środowiska społeczno-ekonomiczne i kulturowe, a zatem są bardziej podobni i częściej mają hiperłącza. Wreszcie homofilia instytucjonalna opiera się na informacjach o relacjach aktorów i wspólnych powiązaniach instytucjonalnych, które zwiększają prawdopodobieństwo ich posiadania. Zgodnie z teorią działań zbiorowych hiperłącza umożliwiają podmiotom łączenie się z podobnie myślącymi podmiotami w celu zwiększenia widoczności celów sieci. Dzieje się tak dlatego, że sieć hiperłączy spełnia dwa kryteria, które według Mancura Olsona definiują dobra publiczne: (1) solidarność dostaw i (2) niemożność wykluczenia. Teoria działań zbiorowych jest zwykle wykorzystywana do badania sieci hiperłączy między organizacjami pozarządowymi i ruchami społecznymi. Teoria ekologii społeczności głosi, że aktorzy konkurują o ograniczone zasoby z innymi populacjami aktorów we wspólnej przestrzeni zasobów środowiskowych. Hiperłącza ułatwiają tworzenie komensalistycznych więzi z aktorami z tej samej populacji i więzi symbiotycznych z aktorami z różnych populacji, a tym samym pomagają aktorom uzyskać legitymizację i utrzymać przetrwanie. Ostatnią teorią, której badacze używają do badania hiperłączy i sieci hiperłączy, jest teoria społeczno-ewolucyjna lub struktura retencji zmienności i selekcji, która sugeruje, że aktorzy często zmieniają (tj. rozwiązanie istniejącego związku (tj. retencja). Zarówno czynniki egzogenne, jak i endogenne kształtują zmienność, wybór i zachowanie wyborów hiperłączy.

Kierunki badań hiperłączy

W ostatnich latach w badaniach hiperłączy wyłoniło się kilka nowych kierunków. Jednym z takich nowych zagadnień jest ewolucja sieci hiperłączy w czasie. Przykłady podłużnych badań hiperłączy obejmują badanie Shumate z 2012 r. dotyczące ewolucji sieci organizacji pozarządowych zajmujących się HIV/AIDS w ciągu 1 roku oraz badanie Matthew Webera z 2012 r. dotyczące ewolucji sieci hiperłączy w społeczności mediów informacyjnych w latach 1999-2006. Podłużny charakter tych badań pozwala badaczom bardziej adekwatnie uchwycić wpływ czynników egzogennych i endogennych na zmiany strukturalne hiperłączy. Po drugie, korzystając z wieloteoretycznych, wielopoziomowych ram zalecanych przez Shumate i Contractor, badacze są zainteresowani zastosowaniem wielu teorii sieci do badania struktur i wzorców sieci hiperłączy z różnych perspektyw teoretycznych i na wielu poziomach sieci.

Przyszłe kierunki badań hiperłączy

Chociaż badania nad hiperlinkami poczyniły znaczne postępy w ostatnich latach, istnieje kilka obiecujących obszarów dla przyszłych badań nad hiperlinkami i sieciami hiperłączy. Po pierwsze, badania nie skupiały się jeszcze na wpływie nacisków instytucjonalnych na poziomie makro na hiperłącza i sieci hiperłączy. Hiperłącza jako zinstytucjonalizowane dobra publiczne sugerują, że hiperłącza i sieci hiperłączy należy rozumieć z makropoziomu środowiska instytucjonalnego, w którym są usytuowane i osadzone. Perspektywy czynników egzogenicznych i endogenicznych zakładają milczące założenie, że aktorzy w różnych środowiskach instytucjonalnych używają tych samych heurystyk przy wyborze hiperłączy do innych aktorów. Obiecującym obszarem przyszłych badań jest badanie porównawcze mechanizmów hiperłączy wśród podobnych grup aktorów w różnych środowiskach instytucjonalnych. Po drugie, chociaż bogaty zbiór badań hiperłączy zbadał struktury i wzorce hiperłączy i sieci hiperłączy, potrzebne są przyszłe badania nad wynikami hiperłączy i sieci hiperłączy, w szczególności ich negatywnymi skutkami i niezamierzonymi negatywnymi konsekwencjami. Na przykład badacze mogą zbadać społeczne implikacje niektórych właściwości strukturalnych w sieciach hiperłączy, takich jak przywiązanie preferencyjne i homofilia. Ponadto przyszłe badania muszą energicznie włączać bardziej zróżnicowane metody do badania hiperłączy i sieci hiperłączy. Od czasu debiutu badań nad hiperłączami naukowcy używają robotów indeksujących do badania struktur i wzorców hiperłączy i sieci hiperłączy. Popularne roboty indeksujące do zbierania danych hiperłączy to Issue Crawler, LexiURL, SocSciBot i VOSON. Aby zbadać wyniki hiperłączy i sieci hiperłączy, przyszłe badania muszą wykorzystywać metody mieszane, w tym wywiady i eksperymenty. Na przykład za pomocą eksperymentów badacze mogą zbadać, w jaki sposób odbiorcy postrzegają afordancje hiperłączy. Wreszcie, przyszłe badania mają na celu zbadanie sieci wielowymiarowych lub tego, w jaki sposób sieci hiperłączy wchodzą w interakcje z innymi typami sieci, takimi jak sieci współpracy off-line, sieci semantyczne online i sieci mediów społecznościowych (np. ). Badanie wielowymiarowych sieci pozwala naukowcom uzyskać pełniejszy obraz tego, w jaki sposób aktorzy dokonują strategicznych wyborów komunikacyjnych online i offline. Ma również potencjał, aby pogłębić naszą wiedzę na temat zintegrowanych efektów medialnych lub sposobu, w jaki aktorzy dokonują strategicznych wyborów dotyczących hiperłączy w oparciu o podobieństwa lub wskazówki dotyczące posiadania zasobów w innych systemach medialnych (np. Media informacyjne lub media społecznościowe).



Powrót

Hipertekstowy język znaczników



Hypertext Markup Language (HTML) jest standardowym językiem do tworzenia stron internetowych i aplikacji, a zatem jest jedną z podstawowych technologii sieci WWW. Hiperteksty to łącza łączące strony internetowe. Termin znaczniki wywodzi się z tradycyjnej praktyki "oznaczania" marginesów papierowego rękopisu instrukcjami drukarskimi. Każda z miliardów stron internetowych na świecie jest napisana w jakiejś wersji HTML. W ten sposób wszystkie przeglądarki internetowe interpretują tekst, obrazy, filmy i materiały audio, aby wyświetlić je zgodnie z przeznaczeniem. Kiedy dokumenty są wysyłane na stronę internetową, HTML nadaje im strukturę semantyczną, co nadaje im wygląd. Może osadzać programy, takie jak Java, aby tworzyć styl i zawartość stron internetowych. Oprócz stron internetowych HTML jest używany na dyskach CD-ROM, e-bookach i komputerach stacjonarnych. Aplikacje HTML to programy Windows, których kodem źródłowym jest HTML i są popularne wśród administratorów systemów. Ten wpis wprowadza język HTML i omawia jego aktualne wersje oraz zastosowania.

Historia HTML

Struktury HTML stron internetowych i kaskadowe arkusze stylów (lub CSS, język przeznaczony do prezentacji dokumentów) są nakładane, aby zmienić ich wygląd. CSS oddziela zawartość dokumentu od jego wyglądu i jest niezbędny do projektowania kolorów, układu i czcionek stron internetowych oraz umożliwia ich różny wygląd na różnych urządzeniach lub ekranach. Początki HTML sięgają czasów Tima Bernersa-Lee, "ojca World Wide". W 1980 r. Berners-Lee, wówczas wykonawca w laboratorium fizyki cząstek elementarnych CERN, zaproponował prototyp ENQUIRE, systemu umożliwiającego naukowcom z CERN używanie i udostępnianie dokumentów. W 1989 roku zaproponował internetowy system hipertekstowy. Tworzenie HTML czerpało w dużej mierze z wewnętrznej aplikacji CERN, standardowego uogólnionego języka znaczników (SGML), standardu uzgodnionego na szczeblu międzynarodowym. HTML został zaproponowany jako prostsza wersja SGML. Miał on ułatwić elektroniczną wymianę dokumentów i pojawił się właśnie wtedy, gdy narodził się hipertekst, zaczęto używać nazw domen i powstała sieć: Był to język publikowania w Internecie. Wiele z jego atrakcyjności wynikało z jego prostoty i łatwości użytkowania (jest również bezpłatny). Kiedy w 1994 r. wygasły wczesne wersje robocze Bernersa-Lee, Internet Engineering Task Force utworzyła grupę roboczą ds. HTML, która powierzyła Danowi Connelly′emu opracowanie standardu HTML 2.0 (opublikowanego jako RFC 1866), na którym miałyby się opierać wszystkie przyszłe modele. Wraz z pojawieniem się w latach 90. wielu przeglądarek, takich jak Mosaic, Netscape i Internet Explorer, popularność HTML gwałtownie wzrosła, chociaż groziło to fragmentacją w środku "wojn przeglądarek". Dostawcy zjednoczyli się wokół zestawu standardów HTML. Kiedy Grupa Robocza została rozwiązana w 1995 roku, Konsorcjum World Wide Web utworzyło HTML Editorial Review Board, aby pomóc w procesie standaryzacji. Kolejne wersje pojawiały się przez następne dwie dekady, w tym HTML 3.0 w 1995 r., HTML 4.0 w 1999 r., HTML 5.0 w 2012 r. i HTML 5.1 w 2016 r. HTML 5 stał się niezwykle szeroko stosowany na całym świecie.

Ciągły rozwój HTML

HTML tworzy projekt i zawartość stron internetowych przy użyciu różnych znaczników i atrybutów, przejętych z SGML. Pary tagów początkowych i końcowych (np. < p >) otaczają elementy, które określają nagłówki, akapity, łącza, styl i metainformacje, między innymi . Przeglądarki nie wyświetlają znaczników HTML, ale wykorzystują je do renderowania zawartości strony. Tagi są zawarte w nawiasach stylistycznych mniejszych niż (<) i większych niż (>); pomiędzy nimi znajduje się zamknięta zawartość znacznika . W miarę jak HTML przechodził kolejne wersje, liczba elementów rosła. Wszystkie dokumenty HTML zaczynają się od < HTML >< HEAD >(zawartość dokumentu)< BODY > i kończą się na < /BODY >< /HTML >. Istnieją setki tagów, które określają czcionki i rozmiary tekstu, tabele, kolory i obrazy oraz określają hiperłącza. Jednostki HTML obejmują ikony i symbole, operatory matematyczne, strzałki, kształty geometryczne i wiele innych. Krytycy obciążyli ten tradycyjny HTML wymaga znacznej ilości czasu i kodowania do tworzenia stron internetowych, ma problemy ze zgodnością, błędy są kosztowne, ma ograniczone możliwości tworzenia estetycznych stron internetowych i tworzy tylko strony statyczne, a nie dynamiczne. Jednak dynamiczny HTML (lub DHTML), wprowadzony w 1997 r., umożliwia tworzenie interaktywnych i dynamicznych stron internetowych, umożliwiając autorom łatwe dodawanie efektów, takich jak przyciski przewijania i menu rozwijane, a użytkownikom dodawanie danych. W rezultacie ta sama strona internetowa może wyglądać inaczej w zależności od lokalizacji geograficznej użytkownika, pory dnia, profilu czytelnika i poprzednich odwiedzonych stron. Rozszerzalny hipertekstowy język znaczników (lub XHTML) to aplikacja rozszerzalnego języka znaczników szeroko promowana przez World Wide Web Consortium. Został zaprojektowany, aby uczynić HTML bardziej interoperacyjnym z innymi formatami danych i wprowadził bardziej rygorystyczną obsługę błędów. Ma pewne różnice w składni od HTML, nieco inaczej przetwarza JavaScript i stosuje CSS w inny sposób. XHTML ewoluował przez kilka iteracji, począwszy od XHTML 1.0 w 1998 r. do XHTML 5.0 w 2014 r. Kolejne wersje pozwalają na coraz bardziej zróżnicowane i bardziej wyrafinowane aplikacje, w tym aplikacje mobilne, nowe interfejsy programowania aplikacji, treści multimedialne i skalowalną grafikę wektorową.



Powrót

HTTP (Protokół przesyłania hipertekstu)



Protokół przesyłania hipertekstu (HTTP), termin ukuty przez Teda Nelsona, jest głównym sposobem przesyłania danych (tekstu, grafiki, muzyki i wideo) przez Internet. Hipertekst odnosi się do dokumentów z łączami, które łączą różne urządzenia lub węzły w Internecie; dokumentami hipertekstowymi można manipulować za pomocą hipertekstowego języka znaczników (HTML). HTTP to zestaw standardów, według których urządzenia, serwery i przeglądarki udostępniają sobie wzajemnie hiperteksty. Tak więc, jeśli strony internetowe są tworzone w HTML, ich informacje są udostępniane przez HTTP. Mówiąc dokładniej, protokół HTTP określa, w jaki sposób wiadomości są formatowane i przesyłane oraz jakie działania powinny podejmować serwery sieciowe i przeglądarki w odpowiedzi na różne polecenia. HTTP był zaprojektowane w celu ułatwienia interakcji między serwerami, przeglądarkami i innymi urządzeniami (np. mobilnymi) oraz zminimalizowania czasu odpowiedzi. W tym wpisie przedstawiono protokół HTTP i zbadano jego rozwój w czasie.

Specyfika http

HTTP to warstwa aplikacji Internetu, której funkcjonowanie opiera się na warstwie transportowej, takiej jak Transmission Control Protocol. Zasoby udostępniane przez protokół HTTP są identyfikowane w sieci za pomocą jednolitych lokalizatorów zasobów. Wczesne adresy Uniform Resource Locator zawierały na początku HTTP, ale ta praktyka została porzucona, ponieważ stał się domyślnym sposobem komunikacji. HTTP działa jako protokół żądanie-odpowiedź w klasycznym modelu obliczeniowym klient-serwer. Klientami są zwykle przeglądarki, a serwery to serwery sieciowe. Na przykład przeglądarka internetowa działająca jako klient może przesłać żądanie do serwera, który następnie odpowiada. Każda przeglądarka zawiera oprogramowanie, które czeka na żądania HTTP, przetwarza je po ich otrzymaniu, a następnie wysyła odpowiedź. Sesja HTTP to sekwencja transakcji sieciowych żądanie-odpowiedź. Przeglądarki często zawierają pamięć podręczną HTTP, która przechowuje odpowiedzi w celu skrócenia czasu odpowiedzi. Żądania i odpowiedzi zwykle zawierają jeden lub więcej wierszy informacji nagłówka, które zawierają adres e-mail osoby składającej żądanie, dane autoryzacyjne, nazwę oprogramowania klienckiego, datę ostatniej modyfikacji dokumentu, typ wysyłanego dokumentu, długość i typ dokumentu oraz sposób skompresowania dokumentu. Gdy wystąpią błędy użytkownika lub strony internetowej, awarie przeglądarki lub serwera albo usterki internetowe, protokół HTTP próbuje zidentyfikować problem i wysyła komunikat o błędzie do przeglądarki.

Historia http

Historia HTTP rozpoczęła się, gdy został zaproponowany przez Tima Bernersa-Lee, "ojca World Wide Web", który był współautorem pierwszej wersji w 1989 roku w laboratorium jądrowym CERN. Początkowo mógł tylko żądać strony z serwera. Pierwsza udokumentowana wersja pojawiła się w 1991 roku, HTTP/0.9. W 1995 roku Dave Raggett, lider grupy roboczej HTTP, rozszerzył protokół na kilka sposobów, w tym o więcej metainformacji, co doprowadziło do powstania drugiej wersji, HTTP/1.0, w 1996 roku. Został on szybko przyjęty na rozwijającym się rynku przeglądarek, w tym Netscape i Mosaic. Z biegiem czasu protokół HTTP przeszedł kilka aktualizacji i wyjaśnień, w tym dotyczących składni i routingu, semantyki, żądań warunkowych, buforowania i uwierzytelniania. Najnowsza wersja, HTTP/1.1, została wydana w 1997 roku i używa różnych metod żądań (np. GET, POST, PUT i HEAD) w celu wskazania pożądanych działań. W przeciwieństwie do HTTP/1.0, w którym potrzebne było osobne połączenie (sytuacja nazywana "bezstanową"), w HTTP/1.1 połączenie może być wielokrotnie używane ("połączenie trwałe"). Wersja 1.1 umożliwia również dekompresję plików HTML przez przeglądarki klienckie i wiele nazw domen współdzielących ten sam adres IP. HTTP/1.1 poprawia wydajność, ponownie wykorzystując wcześniejszy komunikat odpowiedzi w celu spełnienia bieżącego żądania. Bardziej bezpieczna wersja, Hypertext Transfer Protocol Secure, stworzona przez firmę Netscape w 1994 r., szyfruje przesyłane i odbierane informacje i jest szeroko stosowana na przykład na stronach internetowych, które akceptują płatności, aby zapobiec włamaniom hakerów. Bezpieczny protokół przesyłania hipertekstu zapewnia uwierzytelnianie strony internetowej i powiązanego serwera WWW, z którym się komunikuje. Staje się coraz bardziej popularny jako sposób na zachowanie prywatności użytkownika i przeglądania stron internetowych. W 2015 roku Internet Engineering Task Force opublikował RFC 7540, proponując protokół HTTP/2.0, który stał się zatwierdzonym standardem, ale nie został jeszcze powszechnie przyjęty. Zachowuje kompatybilność wsteczną z HTTP 1.1, ale oferuje dodatkowe ulepszenia wydajności. Projekt Hypertext Transfer Protocol - Next Generation, wyznaczony przez World Wide Web Consortium, pojawił się jako próba zastąpienia HTTP. Hypertext Transfer Protocol - Next Generation wysyła wszystkie swoje wiadomości i dane za pomocą "warstwy sesji", która dzieli połączenie na różne kanały; w ten sposób umożliwia wysyłanie wielu różnych żądań asynchronicznych za pośrednictwem jednego połączenia. Dodaje również funkcje potrzebne do zastosowań komercyjnych oraz ułatwia bezpieczeństwo i uwierzytelnianie. Podobnie, HTTP-MPLEX jest schematem kompresji nagłówka i odpowiedzi dla HTTP zaprojektowanym do kompresji tradycyjnych żądań HTTP w celu oszczędzania przepustowości i multipleksowania wielu odpowiedzi do pojedynczego ciągłego strumienia danych w celu przyspieszenia odpowiedzi.



Powrót


[ 147 ]