Dziecięca pornografia a Internet



Niektóre osoby korzystają z technologii internetowych w celu ułatwiania lub popełniania działań przestępczych. Przestępcze zachowania seksualne w Internecie obejmują oglądanie nielegalnej pornografii, nagabywanie seksualne nieletnich, prostytucję i nieprzyzwoite obnażanie się. Większość wykrytych przestępców seksualnych online jest skazanych za pobieranie lub posiadanie pornografii dziecięcej, a oglądanie pornografii dziecięcej jest najczęściej zgłaszaną formą wykorzystywania seksualnego dzieci. Chociaż powszechnie wiadomo, że pornografia dziecięca istniała wcześniej w Internecie, Internet ułatwił jej rozpowszechnianie i ułatwił dostęp. W 2015 r. Fundacja Internet Watch odnotowała 417% wzrost liczby zgłoszeń obrazów i filmów wideo związanych z wykorzystywaniem seksualnym dzieci w ciągu ostatnich 2 lat. Fundacja Internet Watch oszacowała w tym raporcie, że 68 092 adresy URL i 448 internetowych grup dyskusyjnych zawierały pornografię dziecięcą, a typowy obraz przedstawiał dziewczynę w wieku poniżej 10 lat. Witryny z obrazami (78%) i cyberlockery (10%) były najczęściej używanymi usługami rozpowszechniania pornografii dziecięcej. Duża ankieta online przeprowadzona wśród mężczyzn przez Beate Dombert i współpracowników wykazała, że 1,7% mężczyzn zgłasza wykorzystywanie pornografii dziecięcej, podczas gdy 0,8% zgłasza przestępstwa seksualne wobec dzieci, które obejmowały kontakt fizyczny (tj. Kontaktowe przestępstwa seksualne), a 0,7% zgłasza zarówno wykorzystywanie pornografii dziecięcej i kontaktować się z przestępstwami seksualnymi wobec dzieci. Badania wykazały, że zdecydowana większość przestępstw związanych z pornografią dziecięcą dotyczy Internetu. W dalszej części tego wpisu omówiono cechy przestępców pornografii dziecięcej online oraz ryzyko, jakie stwarzają popełniając przestępstwa na tle seksualnym.

Charakterystyka przestępców pornografii dziecięcej

Podobnie jak w przypadku innych przestępców seksualnych, przestępcy pornografii dziecięcej są heterogeniczni. Ważne jest, aby odróżnić przestępców, którzy popełniają wyłącznie przestępstwa związane z pornografią dziecięcą, od przestępców, którzy dopuszczają się zarówno przestępstw związanych z pornografią dziecięcą, jak i przestępstw seksualnych związanych z kontaktem (przestępcy mieszani). W 2011 r. Michael Seto i współpracownicy poinformowali, że około jeden na ośmiu przestępców pornografii dziecięcej (13%) ma w przeszłości kontakt z przestępstwami seksualnymi; liczba ta wzrasta do 55% w oparciu o raport własny. Rozróżnienie między sprawcami wyłącznej pornografii dziecięcej a sprawcami mieszanymi jest ważne, ponieważ grupy te różnią się dwoma najważniejszymi czynnikami ryzyka zachowań związanych z przestępstwami seksualnymi: (1) przestępczością seksualną i (2) ogólną przestępczością. Metaanaliza 2015 autorstwa Kelly Babchishin i współpracowników, oparta na badaniach 30, porównała przestępców wyłącznych z pornografii dziecięcej, kontaktowych przestępców seksualnych przeciwko dzieciom (SOC) i mieszanych przestępców. Użytkownicy wyłączni z pornografii dziecięcej częściej mieli zidentyfikowane zainteresowania seksualne dziećmi w porównaniu z SOC. Mieszani przestępcy najprawdopodobniej byli pedofilami, nawet bardziej niż użytkownicy wyłączni z pornografii dziecięcej, którzy zostali już zidentyfikowani ze względu na ich wysoki poziom zainteresowań pedofilskich. Jeśli chodzi o cechy antyspołeczne, użytkownicy wyłączni z pornografii dziecięcej uzyskiwali znacznie niższe wyniki niż SOC i mieszani przestępcy pod względem miar tendencji antyspołecznych, wrogości, historii kryminalnej, nadużywania substancji i bezrobocia. W przeciwieństwie do tego, użytkownicy wyłączni z pornografii dziecięcej uzyskali wyższe wyniki pod względem zmiennych psychologicznych, które można zaklasyfikować jako wewnętrzne bariery w popełnieniu przestępstwa seksualnego (np. większa empatia ofiary, mniej zniekształceń poznawczych) niż zarówno przestępcy SOC, jak i mieszani. W porównaniu z SOC użytkownicy wyłączni z pornografii dziecięcej rzadziej mieli dostęp do dzieci, a częściej mieli (lub szukali) dostępu do Internetu. Metaanaliza z 2015 r. wykazała również pewne znaczące różnice w zmiennych relacji: na przykład osoby z SOC częściej miały oderwane podejście do związków romantycznych, ale rzadziej miały problemy z zaabsorbowaniem seksualnym i samoregulacją seksualną w porównaniu z użytkownikami wyłącznej pornografii dziecięcej . Oprócz tego, że SOC ma wyższe wskaźniki ciężkiej choroby psychicznej (np. schizofrenii) niż pornografia dziecięca - wyłączni użytkownicy, obie grupy okazały się stosunkowo podobne w swoich profilach psychologicznych. SOC miał jednak konsekwentnie większe trudności z dzieciństwa (np. Nieprzystosowanie w dzieciństwie) i doświadczenia związane z nadużyciami w porównaniu z pornografią dziecięcą - wyłączni użytkownicy. Stwierdzono, że mieszani przestępcy mają większe prawdopodobieństwo seksu o niskim zaangażowaniu (np. częstych partnerów seksualnych), większe problemy z regulacją seksualną i trudności w dzieciństwie niż użytkownicy wyłącznej pornografii dziecięcej. Było stosunkowo niewiele różnic w zmiennych relacji między sprawcami mieszanymi a SOC, z wyjątkiem tego, że sprawcy mieszani częściej zgłaszali większe deficyty intymności niż SOC. Krótko mówiąc, istniejąca literatura sugeruje kluczowe różnice między pornografią dziecięcą - wyłącznymi przestępcami, mieszanymi przestępcami i SOC. Przestępcy wyłączni z pornografii dziecięcej mają zwykle niższe wskaźniki tendencji antyspołecznych i dostępu do dzieci. Ponadto, w porównaniu z mieszanymi przestępcami i SOC, mają większą empatię ofiary i większą samokontrolę. Pomimo motywacji do popełniania przestępstw seksualnych wobec dzieci, przestępcy wyłączni z pornografii dziecięcej mają większe bariery w popełnianiu przestępstw niż przestępcy mieszani i SOC.

Ryzyko, że sprawcy pornografii dziecięcej popełnią kontakt na tle seksualnym

Prawdopodobieństwo, że zidentyfikowani przestępcy pornografii dziecięcej popełnią przestępstwa na tle seksualnym, jest przedmiotem troski osób zarządzających nimi i nadzorujących je. W badaniu 2011 przeprowadzonym przez Seto i współpracowników, na podstawie dziewięciu próbek (n = 2630), 5% przestępców pornografii dziecięcej popełniło nowe przestępstwo seksualne po średnim 3-letnim okresie obserwacji (od 1,5 do 6 lat), 2% miało popełniło przestępstwo na tle seksualnym, a 3% popełniło nowe przestępstwo związane z pornografią dziecięcą. Ta metaanaliza nie przeanalizowała jednak oddzielnie współczynnika recydywy wśród przestępców mieszanych i przestępców z wyłączną pornografią dziecięcą. Inne badania wykazały znacznie wyższe wskaźniki recydywy w latach 5 dla mieszanych przestępców niż dla przestępców wyłącznych z pornografii dziecięcej. W przypadku zdecydowanej większości przestępców, którzy dopuszczają się wyłącznie pornografii dziecięcej, badania naukowe sugerują, że pornografia dziecięca nie jest bramą do kontaktu z przestępstwami seksualnymi wobec dzieci.

Czynniki ryzyka

Pomimo stosunkowo niskiego (zidentyfikowanego) ryzyka przyszłych przestępstw seksualnych związanych z pornografią dziecięcą, przestępcy pornografii dziecięcej różnią się pod względem prawdopodobieństwa popełnienia przestępstwa seksualnego związanego z kontaktem, a czynniki ryzyka zostały zidentyfikowane w celu uszeregowania sprawców pornografii dziecięcej w kolejności pod względem ryzyka ponownego popełnienia przestępstwa. Biorąc pod uwagę znaczenie tendencji antyspołecznych w wyjaśnianiu przestępstw seksualnych, być może nie jest zaskakujące, że główne czynniki ryzyka, które przewidują krzyżowanie się z przestępstwami seksualnymi i uporczywymi przestępstwami związanymi z pornografią dziecięcą, są związane z tendencjami antyspołecznymi (np. wcześniejszymi przestępstwami z użyciem przemocy), domeną seksualną ( nietypowe zainteresowania seksualne, więcej treści dla chłopców niż dziewcząt) oraz dostęp do ofiar i Internetu. Oczekuje się, że przestępcy pornografii dziecięcej najbardziej narażeni na przestępstwa krzyżowe będą mieli wysoki poziom pedofilii, wysoki poziom ogólnej przestępczości, większy dostęp do dzieci i niewiele barier psychologicznych utrudniających popełnienie przestępstwa seksualnego. Odwrotnie, oczekuje się, że przestępcy pornografii dziecięcej będą narażeni na niskie ryzyko przestępstw na tle seksualnym, jeśli uzyskają niski wynik w zakresie ogólnej przestępczości, mają ograniczony dostęp do dzieci i mają bariery psychologiczne w popełnianiu przestępstw na tle seksualnym.

Narzędzia oceny ryzyka

Ocena ryzyka zazwyczaj obejmuje identyfikację wielu czynników ryzyka i czynników ochronnych, a następnie połączenie ich w ogólną ocenę. W przypadku przestępców mieszanych dostępne skale ryzyka mogą być stosowane bez modyfikacji. W przypadku użytkowników korzystających wyłącznie z pornografii dziecięcej, którzy nie popełniają przestępstw seksualnych, korzystanie z istniejących narzędzi oceny ryzyka nie jest właściwe, ponieważ skale te nie zostały jeszcze zweryfikowane w tej populacji. W związku z tym możliwe jest, że skale ryzyka nie przewidują recydywy w tej populacji przestępców. Na przykład Helen Wakeling i współpracownicy poinformowali w 2011, że skale ryzyka były w stanie uszeregować przestępców pornografii dziecięcej pod względem ryzyka (tj. Dobra dyskryminacja); jednak oczekiwane wskaźniki recydywy dostarczone przez narzędzie były zbyt wysokie dla użytkowników pornografii dziecięcej (tj. słaba kalibracja). W 2015 r. Seto i Angela Eke opublikowali pierwsze narzędzie do oceny ryzyka aktuarialnego zaprojektowane specjalnie dla przestępców zajmujących się pornografią dziecięcą.

Narzędzie ryzyka przestępcy pornografii dziecięcej

(CPORT) to siedmiopunktowa aktuarialna skala ryzyka zaprojektowana do oceny ryzyka przestępstw seksualnych wśród mężczyzn z co najmniej jednym oficjalnym przestępstwem związanym z pornografią dziecięcą.

Elementy narzędzia ryzyka przestępcy pornografii dziecięcej (CPORT)

1. Przestępca w wieku 35 lat lub młodszy w wykroczeniu indeksowym
2. Jakakolwiek wcześniejsza historia kryminalna
3. Jakakolwiek historia kontaktowych przestępstw seksualnych
4. Każda awaria zwolnienia warunkowego
5. Wskazanie zainteresowań seksualnych w pornografii dziecięcej lub dzieciach
6. Treści chłopięce > dziewczęce w pornografii dziecięcej
7. Treści chłopięce > dziewczęce w innych przedstawieniach dziecięcych

CPORT przewidział recydywę seksualną (pole pod krzywą [AUC] = 0,74, 95% CI [0,63, 0,84]), kontaktową recydywę seksualną (AUC = 0,74, 95% CI [.55, .94]) , oraz jakikolwiek recydywizm (AUC = 0,66, 95% CI = [.59, .73]) po 5-letnim okresie obserwacji. Przewidywał również recydywę w podgrupie przestępców z wyłączną pornografią dziecięcą (32% ich próby; AUC 0,69, 95% CI [0,54, 0,83]), ale prognoza nie była tak dobra jak w przypadku mieszanych przestępców (18% ich próby: AUC = 0,80, 95% CI [0,63, 0,96]). CPORT nie był lepszy niż szansa na przewidzenie recydywy wśród przestępców z wyłączną pornografią dziecięcą, którzy nie mieli innej historii kryminalnej (połowa ich próby; AUC = 0,63, 95% CI [.41, .86]). CPORT wymaga również informacji o zawartości zbiorów pornograficznych, które nie zawsze mogą być łatwo dostępne lub kompletne. Dalsza walidacja miar ryzyka, szczególnie dynamicznych (tj. przypuszczalnie zmiennych) miar ryzyka, które mogłyby kierować planowaniem leczenia i nadzoru, nadal stanowi ważny wkład badawczy. Niemniej jednak dostępne badania dostarczają wielu pomocnych spostrzeżeń. Po pierwsze, profesjonaliści zainteresowani przeprowadzeniem oceny ryzyka mieszanych przestępców mogą bez modyfikacji korzystać z CPORT lub dostępnych narzędzi ryzyka. Normy przedstawione w podręczniku narzędzia oceny ryzyka (tj. oczekiwane współczynniki recydywizmu) nie powinny być uwzględniane w ocenie ryzyka, dopóki badania walidacyjne nie zweryfikują, czy oczekiwane współczynniki recydywizmu odpowiadają obserwowanym współczynnikom. W przypadku przestępców wyłącznych z pornografii dziecięcej dostępne narzędzia do oceny ryzyka są ograniczone; chociaż istniejące skale ryzyka lub zmodyfikowane narzędzia ryzyka można wykorzystać do uszeregowania przestępców wykluczających pornografię dziecięcą pod względem ryzyka ponownego popełnienia przestępstwa, wskaźniki recydywy przewidywane przez te narzędzia są zbyt wysokie w przypadku pornografii dziecięcej - przestępców z wyłącznością.



Powrót

Dzieci, młodzież i Internet



Od czasu komercjalizacji Internetu w latach 90. nowe technologie medialne stają się coraz bardziej integralną częścią życia amerykańskiej młodzieży. Ten wpis analizuje, w jaki sposób Internet wpływa na dzieci i młodzież w trzech kluczowych obszarach: (1) kształtowanie umiejętności i nauka akademicka, (2) relacje społeczne i randki oraz (3) problemy z bezpieczeństwem, z jakimi borykają się w Internecie.

Rzut oka na fakty

W 2015 r. 91% amerykańskich nastolatków w wieku od 13 do 17 lat korzystało z Internetu, z czego 9 na 10 prawie codziennie, a ponad połowa kilka razy dziennie. Nowe pokolenie młodych Amerykanów zostało nazwane "cyfrowymi tubylcami", ponieważ używają smartfonów, komputerów, tabletów i konsol do gier i spędzają większość swojego życia w wirtualnym świecie, łącząc się ze znajomymi bardziej online niż osobiście. Młodzi ludzie różnią się pod względem tego, gdzie mają dostęp do Internetu i czy mają w domu szerokopasmowy dostęp do Internetu. Aktualne badanie populacji z 2013 r. wykazało, że 33% dzieci w gospodarstwach domowych o rocznych dochodach poniżej 15 000 USD miało dostęp do komputera w domu, w porównaniu z 71% w gospodarstwach domowych o rocznych dochodach powyżej 75 000 USD. Dzieci z najsłabiej wykształconymi rodzicami rzadziej miały dostęp do Internetu w domu (39%) w porównaniu z dziećmi z najsłabiej wykształconymi rodzicami (70%). Więcej dzieci rasy białej i azjatyckiej deklarowało korzystanie z Internetu w domu (ponad 60%) niż ich rówieśnicy rasy czarnej i latynoskiej (mniej niż 50%). Dzieci ubogie i pochodzące z mniejszości częściej korzystają z Internetu w miejscach publicznych, takich jak szkoły i biblioteki, niż w domu. Podobnie, istnieją znaczne różnice w umiejętnościach cyfrowych młodzieży i dlaczego korzystają z Internetu. Niektórzy spędzają większość czasu na portalach społecznościowych, inni na grach i rozrywce, a jeszcze inni na nauce lub wyszukiwaniu informacji. Umiejętności internetowe i nauka Jak bardzo umiejętności internetowe młodzieży wpływają na ich wyniki w nauce i sukces w pracy? Na to pytanie nie udzielono jeszcze pełnej odpowiedzi. Literatura badawcza pokazuje mieszankę ustaleń dotyczących związku między korzystaniem z Internetu a osiągnięciami akademickimi. Badania, które wykazały pozytywny związek między korzystaniem z Internetu a podstawowymi wskaźnikami akademickimi, zwykle wykazały, że związek ten jest statystycznie nieistotny lub skromny. Na przykład badanie panelowe dynamiki d dochodów z 1997 r. sugerowało, że dzieci, które korzystały z komputerów przez 1 do 8 godzin tygodniowo, miały wyższe zdolności poznawcze niż dzieci, które w ogóle nie korzystały z komputera i dzieci, które korzystały z komputera dłużej niż 8 godzin tygodniowo. Niedawne międzynarodowe badanie przeprowadzone w 32 krajach wykazało podobny związek między osiągnięciami w nauce a korzystaniem z Internetu: uczniowie, którzy nigdy nie korzystali z Internetu w szkole, wykazywali się niższymi wynikami niż ci, którzy korzystali z niego okazjonalnie; Najgorsze wyniki uzyskali jednak ci, którzy korzystali z Internetu kilka razy w tygodniu. Ogólnie rzecz biorąc, studenci, którzy są identyfikowani jako intensywni użytkownicy online, częściej wykazują niższe wyniki w nauce. Na zajęciach szkolnych poświęcają znacznie mniej czasu. Nawet jeśli używają Internetu do odrabiania lekcji, potrzebują więcej czasu niż ich rówieśnicy, aby odrobić pracę domową. Sugeruje to, że Internet może odwracać uwagę uczniów od efektywnego uczenia się i zmniejszać produktywność podczas odrabiania prac domowych. Co równie ważne, panuje powszechna obawa, że dzieci, które spędzają zbyt dużo czasu w Internecie, częściej angażują się w zachowania przestępcze, mają problemy zdrowotne i są aspołeczne. Poza nierównościami w dostępie do Internetu i ilością czasu spędzanego w sieci, które były głównymi tematami wcześniejszych badań, uczeni zajęli się ostatnio badaniem jakości i rodzaju działań nastolatków w Internecie. Kluczową kwestią jest to, w jaki sposób czynniki, takie jak status społeczno-ekonomiczny, płeć i rasa, wpływają na jakość i skuteczność korzystania z Internetu. Wyniki badań sugerują, że dzieci mieszkające z rodzinami lepiej wykształconymi i o wyższych dochodach częściej korzystają z Internetu w celach poszerzania wiedzy i poszukiwania informacji (np. odwiedzanie stron internetowych w celu przeglądania encyklopedii, wiadomości i informacji o zdrowiu) w porównaniu z ich rówieśnikami żyjącymi z gorzej wykształconymi rodzicami i w rodzinach o niższych dochodach. Na przykład niedawne badanie uczniów szkół średnich wykazało, że uczniowie wychowani w dzielnicach uprzywilejowanych ekonomicznie są o co najmniej rok przed uczniami z mniej uprzywilejowanych dzielnic pod względem wyszukiwania informacji online i umiejętności rozumienia. Głównym czynnikiem, który odpowiada za tę przepaść społeczno-ekonomiczną, jest rodzicielstwo. Bez wskazówek rodziców lub opiekunów dzieci często angażują się w nieudane lub bezcelowe surfowanie po Internecie i dlatego czują się sfrustrowane. Istnieją również różnice między płciami w umiejętnościach internetowych młodzieży, ale różnice są umiarkowane. Niektóre badania nie wykazują znaczącego wpływu płci na umiejętności korzystania z Internetu, podczas gdy inne sugerują, że nastoletnie dziewczęta wykazują niższą samoocenę umiejętności internetowych niż chłopcy. Internetowe aplikacje edukacyjne często zawierają gry podobne do gier, które mają na celu przyciągnięcie uwagi uczniów i zwiększenie ich motywacji do nauki. Ale przy braku nadzoru rodzicielskiego i wskazówek te podobne do gier działania mogą nie działać skutecznie. Na przykład dzieci mogą znaleźć sposób na pominięcie części uczenia się i wylosowanie odpowiedzi, aby powrócić do gry. Wyjaśnia to również, dlaczego dzieci z rodzin ubogich i gorzej wykształconych często korzystają z Internetu w celach pozaedukacyjnych i rekreacyjnych. Ich rodzice mogą nie mieć czasu, aby siedzieć w domu i siedzieć z dziećmi, gdy dzieci korzystają z Internetu. Niektórzy naukowcy i decydenci uważają, że technologia informacyjna jest zasadniczą częścią reformy edukacyjnej. Twierdzą, że włączenie sieciowej technologii cyfrowej do programów nauczania (np. wprowadzenie mediów społecznościowych w klasach, kursy online, uczenie się na odległość) przynosi korzyści uczniom osiągającym gorsze wyniki, którzy nie uczą się dobrze w tradycyjnych warunkach szkolnych. W ciągu ostatnich dwóch dekad, dzięki wysiłkom decydentów, filantropów i przedsiębiorców, przeznaczono dużą ilość środków na unowocześnienie przestarzałej infrastruktury internetowej w szkołach i zapewnienie dostępu online do klas. W latach 1996-2000 tak zwana przepaść w dostępie cyfrowym między szkołami w Stanach Zjednoczonych znacznie się zmniejszyła. Do 2005 r. prawie 100% szkół publicznych w Stanach Zjednoczonych posiadało pewien stopień dostępu do Internetu. Jednak coraz więcej wyników badań sugeruje, że uczniowie odnoszą większe korzyści z korzystania z Internetu w domu niż w szkole, a status społeczno-ekonomiczny rodziny ma większy wpływ niż inne cechy socjodemograficzne (np. płeć, rasa i pochodzenie etniczne) na kształtowanie zachowań dzieci w Internecie. W rzeczywistości tylko ograniczone dowody z badań eksperymentalnych i jakościowych pokazują, że uczniowie, którzy mają trudności w uczeniu się, oraz ci ze środowisk znajdujących się w niekorzystnej sytuacji społeczno-ekonomicznej produktywnie wykorzystują technologię cyfrową w klasie, aby poprawić swoje wyniki w nauce. Większość badań wskazuje natomiast na utrzymującą się lukę cyfrową, nawet jeśli szkoły mają dostęp do komputerów i szybkiego Internetu. Według tych badań szkoły bez wystarczającego wsparcia finansowego często nie są w stanie pozwolić sobie na techników komputerowych, którzy będą wspierać sale lekcyjne w sieci. Brakuje im również wysoko wykwalifikowanych i doświadczonych komputerowo nauczycieli, którzy potrafią odpowiednio włączyć technologię do programu nauczania. Szkoły służące biednym, mniejszościom i uczniom osiągającym gorsze wyniki zwykle wykorzystują technologię cyfrową głównie do celów naprawczych. Uczniowie w niekorzystnej sytuacji często skupiają się na ćwiczeniach i ćwiczeniach, aby poprawić swoje oceny w szkole, zamiast rozwijać swoje umiejętności obsługi komputera lub umiejętności korzystania z Internetu. Ogólnie rzecz biorąc, efektywne wykorzystanie cyfrowej technologii sieciowej do celów edukacyjnych w szkole jest nadal dość ograniczone. Obecnie duży odsetek nauczycieli szkolnych i praktyków edukacyjnych jest skłonnych nie włączać technologii sieciowej online do swojego nauczania z powodów takich jak brak praktycznych umiejętności cyfrowych, brak wsparcia instytucjonalnego i/lub opór kulturowy w konwencjonalnej szkole ustawienia. Dzieci i młodzież, które nie uczą się przydatnych umiejętności internetowych w szkole i mają ograniczone doświadczenie w korzystaniu z Internetu w domu, zazwyczaj znajdują się w gorszej sytuacji, gdy rozpoczynają naukę w college′u lub na uniwersytecie. Korzystanie z Internetu jest niezbędne w większości szkolnictwa wyższego do wykonywania różnych zadań akademickich, takich jak rejestracja na kursy, pobieranie materiałów dydaktycznych, wysyłanie e-maili do profesorów i wyszukiwanie informacji. Chociaż do wykonania tych zadań niezbędna jest pewna ilość umiejętności internetowych, zwykle przyjmuje się, że studenci nabyli te umiejętności przed ukończeniem szkoły średniej.

Relacje społeczne i randki

Internet pod wieloma względami zmienił relacje społeczne i randkowe doświadczenia nastolatków. Po pierwsze, powszechny dostęp online umożliwia nastolatkom interakcję z przyjaciółmi, znajdowanie randek, a nawet szukanie okazji do spotkań seksualnych przez 24 godziny na dobę. Jest to znacznie większy dostęp niż ten, na który pozwalają fizyczne interakcje twarzą w twarz ze względu na ograniczenia społeczne i czasowe. Po drugie, Internet zapewnia młodym ludziom odizolowanym społecznie lub marginalizowanym kulturowo przestrzeń do łączenia się z innymi i poznawania nowych przyjaciół. Po trzecie, Internet pozwala młodym ludziom na obejście kontroli rodzicielskiej i nadzoru nauczyciela nad ich przyjaźniami i zachowaniami randkowymi. Wreszcie Internet zapewnia "prywatną przestrzeń", w której młodzi ludzie zarządzają autoprezentacją i swoimi sieciami społecznościowymi. Młodzież, dla której bardzo ważny jest samorozwój i osobista definicja, może tworzyć i redefiniować swoją samoidentyfikację w cyfrowym świecie. Ważnym pytaniem badawczym dla socjologów jest to, czy korzystanie z Internetu osłabia, czy wzmacnia relacje społeczne poza siecią. Chociaż wiele osób uważa, że internauci spędzają znacznie mniej czasu na interakcji z ludźmi offline, ostatnie badania wykazały, że korzystanie z Internetu nie wiąże się ze spadkiem interakcji społecznych ani więzi interpersonalnych w świecie offline. Wyjątkiem są liczni użytkownicy online, którzy zastępują interakcje z innymi online czasem spędzonym z członkami rodziny i przyjaciółmi. Naukowcy odkryli, że nastolatki często korzystają z mediów społecznościowych lub komunikatorów, ponieważ korzystają z nich ich obecni znajomi lub członkowie rodziny. Korzystanie z cyfrowych urządzeń sieciowych (np. iPhone′ów) lub serwisów społecznościowych również może być "symboliczne" w tym sensie, że młodzież używa ich po prostu z powodu presji rówieśników i/lub dlatego, że "ich klika ich używa". Podobnie jak w świecie off-line, w cyfrowym świecie młodzi ludzie mają tendencję do spotykania się i znajdowania przyjaciół z podobnym wykształceniem, klasą, rasą i kulturą. Sugeruje to, że Internet ma tendencję do wzmacniania już istniejących wzorców społecznych i sieci przyjaźni, zamiast je zastępować. Według Pew Internet & American Life Project, Facebook pozostał najbardziej znanym i najczęściej używanym serwisem społecznościowym w 2015 roku, z 71% nastolatków w wieku od 13 do 17 lat, a następnie Instagram (52%) i Snapchat (41%). . Mniej niż 40% nastolatków korzysta z innych serwisów społecznościowych, takich jak Twitter, Google+, Vine i Tumblr. Wybór serwisów społecznościowych różni się zazwyczaj w zależności od statusu społeczno-ekonomicznego. Nastolatkowie z gospodarstw domowych o średnich i wyższych dochodach częściej korzystają z Instagrama i Snapchata niż ich odpowiednicy o niższych dochodach, którzy częściej korzystają z Facebooka. Badania wykazały również, że odsetek nastolatków korzystających z serwisów społecznościowych dramatycznie wzrasta w wieku od 12 do 13 lat, skacząc z 45% wśród 12-latków do 82% wśród 13-latków. Dorastający chłopcy zwykle spędzają znacznie więcej czasu na grach online niż dorastające dziewczęta, które częściej niż chłopcy korzystają z Internetu w sieciach społecznościowych w celu wzmocnienia istniejących już relacji. Dziewczęta częściej odbiegają od tradycyjnych norm płciowych i oczekiwań płciowych w cyfrowym świecie niż chłopcy. Przestrzeń wirtualna pozwala dziewczętom ćwiczyć różne role płciowe i tożsamości przed wypróbowaniem ich w świecie off-line, gdzie oczekuje się od nich przestrzegania tradycyjnych norm płciowych. Co więcej, niektóre dziewczęta ćwiczą przejmowanie większej inicjatywy w tworzeniu związków heteroseksualnych, do czego zniechęcają tradycyjne, panujące zasady romansu. Zakres, w jakim Internet wpływa na zachowania randkowe i romantyczne relacje nastolatków, przyciągnął wiele uwagi naukowców i opinii publicznej. Podobnie jak dorośli, młodzi ludzie mogą spotykać innych i szukać potencjalnych partnerów randkowych online. Ale ich powiązania z potencjalnymi partnerami przez Internet różnią się od tych, które mają dorośli. Zamiast portali randkowych, które są ograniczone ze względu na wiek, nastolatki często docierają do potencjalnych partnerów randkowych za pośrednictwem portali społecznościowych (najpopularniejszy jest Facebook) oraz gier online dla wielu graczy. Być może ze względu na ograniczenia wiekowe witryn randkowych, nastolatki rzadziej niż dorośli nawiązują romantyczny związek z Internetu. Wyniki projektu Pew Internet & American Life Project wskazują, że tylko 35% nastolatków w wieku od 13 do 17 lat kiedykolwiek umawiało się na randki, jest w związku lub jest obecnie zaangażowanych w romantyczny związek rozpoczęty w Internecie. Podczas gdy młodzi ludzie mogą używać serwisów społecznościowych do budowania romantycznych relacji - za pomocą różnych metod, takich jak czatowanie, komentowanie postów, żartowanie i flirtowanie - większość nastolatków woli spotykać się z osobami, które już znały lub spotkały w świecie offline. Ogólnie rzecz biorąc, korzystanie z serwisów internetowych może pomóc młodym ludziom nawiązać kontakt z potencjalnymi romantycznymi partnerami, ale nastolatki, które znajdują randki przez Internet, są stosunkowo mniej zadowolone ze swoich romantycznych lub seksualnych relacji niż te, które spotykają kogoś off-line i poznają go przez dłuższy czas.

Problemy i zagrożenia

Podczas korzystania z Internetu młodzi ludzie napotykają szereg problemów związanych z bezpieczeństwem. Dużo uwagi publicznej poświęcono ekspozycji młodszych użytkowników online na materiały o charakterze jednoznacznie seksualnym i zawierające przemoc. Dzisiejsi młodzi ludzie są znacznie bardziej skłonni do konfrontacji z takimi materiałami niż poprzednie pokolenia. Sklepy wideo w erze przed internetem oddzielały filmy dla dorosłych i nie dla dorosłych i zniechęcały młodych ludzi do wchodzenia do strefy dla dorosłych. Dzisiaj młodzi ludzie mogą z łatwością oglądać pornografię w Internecie bez wiedzy rodziców czy nauczycieli. Chociaż trudno jest oszacować, ile dzieci lub nastolatków odwiedziło witryny o charakterze jednoznacznie seksualnym w świecie wirtualnym (częściowo dlatego, że większość ludzi czuje się nieswojo, by to przyznać), jasne jest, że liczba młodych użytkowników online, którzy widzieli nago lub prawie nago materiałów rośnie, nawet wśród dzieci. Wczesne badania przeprowadzone w 1999 roku na podstawie ankiety Youth Internet Safety Telephone Survey wykazały, że około jedna czwarta młodych Amerykanów widziała w Internecie zdjęcia o charakterze seksualnym. W 2001 r. Pew Internet & American Life Project wykrył, że 19% nastoletnich chłopców w wieku od 12 do 17 lat skłamało na temat swojego wieku, aby uzyskać dostęp do strony internetowej - z największym prawdopodobieństwem dostępu do materiałów pornograficznych, w porównaniu z 11% nastoletnich dziewcząt. Nastolatki z wieloletnim doświadczeniem online częściej kłamią na temat swojego wieku, aby uzyskać dostęp do strony internetowej, niż nowi użytkownicy. Według ankiety przeprowadzonej przez University of New Hampshire′s Crimes against Children Research w 2005 r. 40% młodych ludzi w wieku od 10 do 17 lat przyznało, że widziało w Internecie treści o charakterze jednoznacznie seksualnym, a jedna trzecia z nich przyznała się do celowego oglądania pornografii. Środek. Laptopy i komputery stacjonarne nie są już jedynymi urządzeniami używanymi do oglądania pornografii. Według doniesień medialnych młodzi ludzie często używają telefonów komórkowych do wysyłania lub odbierania materiałów z podtekstem seksualnym lub do uzyskiwania dostępu do stron pornograficznych. Pew Internet & American Life Project z 2009 r. poinformował, że jeden na sześciu nastolatków w wieku od 12 do 18 lat oglądał lub otrzymywał przez telefon komórkowy obrazy lub filmy o charakterze jednoznacznie seksualnym. Prawdopodobieństwo otrzymania za pośrednictwem tekstu niejawnych słów lub obrazów o charakterze seksualnym stale wzrasta wraz z wiekiem, przy czym tylko 4% 12-latków otrzymuje takie materiały w porównaniu z 20% 16-latków i 30% 17-latków. Niektóre nastolatki, zwłaszcza dziewczęta, postrzegają seksting (przesyłanie nagich lub prawie nagich zdjęć lub filmów wideo ze sobą lub z kimś, kogo znają) jako sposób na zdobycie popularności, rozwinięcie lub utrzymanie romantycznego związku, a nawet rozpocząć seks. Co więcej, dziewczęta znacznie częściej niż chłopcy są zmuszani do wysyłania zdjęć, filmów lub opisów swoich ciał o charakterze seksualnym. Dostęp do Internetu za pomocą smartfonów pozwala młodym ludziom uniknąć kontroli rodzicielskiej. Podczas gdy większość rodziców (61%) sprawdziła strony internetowe, które ich dzieci odwiedzają w pewnym momencie, tylko 39% rodziców stosuje strategie blokowania, filtrowania lub monitorowania w celu kontrolowania aktywności dzieci w Internecie, a tylko 16% używa kontroli rodzicielskiej do ograniczania lub śledzenia korzystania ich dzieci ze smartfonów. Niektórzy badacze sugerują, że rodzice powinni odgrywać bardziej aktywną rolę w monitorowaniu zachowań swoich dzieci w Internecie, ponieważ prawie 8 na 10 młodych osób, które odwiedzają witryny o charakterze jednoznacznie seksualnym lub w przeciwnym razie niepożądane strony internetowe robią to w domu, podczas gdy pozostałe 2 na 10 robią to w szkole lub podczas wizyty w domu znajomego . Korzystanie z Internetu w celu uzyskania dostępu do materiałów o charakterze jednoznacznie seksualnym lub w inny sposób niepożądanych może mieć istotny wpływ na młodych ludzi, na przykład poprzez wpływanie na ich postawy wobec płci i stereotypów seksualnych lub dopuszczalność seksu przedmałżeńskiego lub innych zachowań seksualnych. Nastolatkowie, którzy odwiedzają strony pornograficzne, zwłaszcza te zawierające sceny brutalne lub brutalne, częściej uprawiają seks w młodszym wieku i naśladują to, co widzieli. Podczas gdy chłopcy częściej niż dziewczęta odwiedzają strony pornograficzne, dziewczęta, które odwiedzają strony tego samego typu lub angażują się w czynności seksualne w Internecie, doświadczają poważniejszych negatywnych skutków niż chłopcy. Oprócz odwiedzania witryn o charakterze jednoznacznie seksualnym lub w inny sposób niepożądanych, nadużycia cyfrowe, takie jak cyberprzemoc (tj. celowe korzystanie z Internetu i urządzeń komunikacji mobilnej w celu wyrządzenia szkody) oraz używanie języka dyskryminującego - stały się szybko narastającym i powszechnym problemem społecznym wśród dzieci i młodzieży. Obecnie około 3 na 10 nastolatków spotkało się z cyberprzemocą lub jakimś rodzajem nękania w Internecie. Badania sugerują, że doświadczenia związane z nękaniem i wiktymizacją online zwiększają się, gdy młodzież i dzieci odwiedzają witryny sieci społecznościowych, i są one częstsze wśród osób, które nękają innych i publikują poufne informacje w Internecie. Ponad 70% ofiar twierdzi, że cyberprzemoc pochodzi od osób, które znają w prawdziwym świecie. Dziewczęta częściej niż chłopcy doświadczają cyberprzemocy. Podczas gdy liczba młodych ludzi, którzy zwracają się o pomoc do członków rodziny, gdy doświadczają nadużyć cyfrowych, znacznie wzrosła z biegiem czasu, około 60% młodych ludzi nadal nie szuka pomocy. Powszechne jest również używanie dyskryminującego języka w serwisach społecznościowych. Chociaż znaczna większość młodych ludzi uważa, że używanie dyskryminującego języka w Internecie jest niewłaściwe, ponad połowa nastolatków twierdzi, że widziała lub słyszała osoby używające słów lub obrazów dyskryminujących w Internecie, a wśród dziewcząt odsetek ten jest jeszcze wyższy niż wśród dziewcząt. chłopcy. Warto zauważyć, że młodzi ludzie rzadziej proszą kogoś o zaprzestanie używania raniącego języka lub obelg w Internecie niż w rozmowach twarzą w twarz. Wielu uważa, że ich rówieśnicy, którzy używają dyskryminującego języka w Internecie, "nie mają tego na myśli", po prostu starają się być zabawni lub fajni i nie mają zamiaru krzywdzić innych ludzi. Dlatego większość dorastających internautów uważa używanie obraźliwego języka za niestosowne, ale "w porządku". Nadal nie jest jasne, w jakim stopniu nadużycia cyfrowe, w tym cybernękanie, używanie dyskryminującego języka w Internecie i molestowanie seksualne za pośrednictwem Internetu, wpływają na edukacyjne, psychologiczne i społeczne wyniki młodzieży. Reprezentatywne w skali kraju dane na temat tych przestępstw nie są dostępne, a przypadki nadużyć cyfrowych są zwykle zaniżone w oficjalnych statystykach. Pomimo braku wiarygodnych źródeł danych, istnieją dobre powody, aby dzieci i młodzież ostrożnie podchodziły do ilości i rodzaju informacji dotyczących ich samych oraz ich miejsca pobytu, którymi dzielą się z innymi w sieci cyfrowej. Równie ważni, młodsi użytkownicy online, których rodzice nie mieli omawiane z nimi kwestie bezpieczeństwa w Internecie są mniej świadome potencjalnych zagrożeń z Internetu. Rodzice, nauczyciele szkolni i wychowawcy mogą odgrywać bardziej aktywną rolę w pomaganiu młodym ludziom w unikaniu zagrożeń i niebezpieczeństw związanych z Internetem. W szczególności, ponieważ większość dzieci i młodzieży korzysta z Internetu w domu, rodzice i opiekunowie powinni uważnie monitorować aktywność swoich dzieci w Internecie, np. siedząc obok nich, gdy ich dzieci i młodzież korzystają z Internetu, omawiając swoje doświadczenia w sieci i używając specjalnego oprogramowania do odfiltrować niechciane materiały.


Powrót

Dark Web



Ciemna sieć (nazywana również ciemną siecią, ukrytą siecią lub ukrytym Internetem) składa się ze stron internetowych, które używają narzędzi zapewniających anonimowość, zwykle Tor lub I2P, w celu ukrycia adresów IP (protokołu internetowego) swoich serwerów, tak aby ich fizyczna lokalizacja nie może zostać określony. Ten wpis definiuje ciemną sieć i omawia, czym różni się ona od czystej sieci, jak jest używana, mity na temat ciemnej sieci i przyszłość ciemnej sieci. Dostęp do stron internetowych w ciemnej lub ukrytej sieci można uzyskać tylko za pośrednictwem narzędzi zapewniających anonimowość, takich jak Tor i I2P, a także nie są one dostępne do indeksowania przez standardowe wyszukiwarki, takie jak Google. Ukryte usługi Tor mają adresy URL kończące się na .onion, odnoszące się do techniki routingu, która - z wieloma warstwami szyfrowania przypominającymi cebulę - umożliwia anonimową komunikację w sieciach komputerowych. Ciemna sieć powiększyła się i zyskała na znaczeniu kulturowym w 2010 roku, zwłaszcza po uruchomieniu w 2011 roku pierwszego anonimowego rynku internetowego opartego na Torze i Bitcoin, Silk Road.

Dark Web kontra Clear Web

Ciemna sieć wykorzystuje publiczny Internet, który powstał jako zdecentralizowany kanał komunikacyjny opracowany w Stanach Zjednoczonych. wojskowy (ARPANET, po raz pierwszy zaproponowany w 1967 r.). Jego interfejs użytkownika (World Wide Web) został wynaleziony w 1989 roku jako zdecentralizowane środowisko dzielenia się wiedzą i tworzone przez użytkowników, opracowane przez badacza z CERN, Tima Bernersa-Lee. Publicznie dostępny Internet zyskał popularność społeczną w latach 90. XX wieku, tworząc z czasem dla użytkownika kompromis między regulacjami i nadzorem a wolnością i anonimowością. Napięcie między regulacjami a wolnością zaowocowało co najmniej dwoma sposobami uzyskiwania dostępu do treści online i korzystania z nich: (1) przezroczysta sieć i (2) ciemna sieć. Przezroczysta sieć, znana również jako sieć powierzchniowa, jest przyjaznym dla użytkownika środowiskiem, z którego większość składa się z treści tworzonych przez użytkowników w środowiskach wyselekcjonowanych komercyjnie. Treść w sieci powierzchniowej może być indeksowana przez wyszukiwarki, takie jak Google. Natomiast ciemna sieć to zaszyfrowane środowisko oferujące większą prywatność za cenę mniej przyjaznego dla użytkownika doświadczenia. W czystej sieci żądania użytkowników (połączenia) są przekazywane bezpośrednio do dostawcy usług internetowych (ISP), a stamtąd do żądanego miejsca docelowego najkrótszą możliwą drogą.Jednak to nieszyfrowane połączenie umożliwia nadzór sieci lub analizę ruchu, co ułatwiło biznes modele, które opracowują treści, oprogramowanie i platformy w celu dostarczania bezpłatnych usług, z których ludzie będą korzystać w zamian za dostęp do informacji identyfikujących. Ze względu na niezaszyfrowany charakter czystej sieci można gromadzić cyfrowe ślady możliwych do zidentyfikowania działań użytkowników, takich jak zachowania związane z przeglądaniem. Użytkownicy są również proszeni o podanie danych osobowych podczas rejestracji w usłudze. Informacje dostarczane przez użytkowników i zebrane na podstawie ich zachowań w Internecie mogą być następnie wykorzystywane przez firmę do kierowania reklam lub do celów badawczych, na przykład gdy Facebook manipulował kanałami informacyjnymi użytkowników, aby pokazać im bardziej pozytywne lub bardziej negatywne treści emocjonalne w ramach badania dotyczącego zaraza emocjonalna. Informacje te mogą być również sprzedawane w celach reklamowych i marketingowych lub przekazywane organom ścigania w celu wzmocnienia nadzoru lub oskarżenie. W związku z tym korzystanie z przejrzystego środowiska sieciowego wiąże się z kompromisem dla użytkowników, w którym korzystanie z bezpłatnych usług powoduje utratę prywatności i indywidualny brak kontroli nad sposobem wykorzystywania danych osobowych. Nadzór prowadzony jest z wykorzystaniem danych generowanych przez obywateli korzystających z czystej sieci. Rządy wykorzystują te dane do zrozumienia swoich obywateli, policja do identyfikowania nielegalnych działań, pracownicy służby zdrowia do przewidywania kolejnego wybuchu choroby, a przedsiębiorstwa komercyjne do lepszego zrozumienia konsumentów i rozwijania nowych rynków. Dzięki rewelacjom byłego amerykańskiego Wykonawcy Agencji Bezpieczeństwa Narodowego, Edwardowi Snowdenowi, opinia publiczna stała się bardziej świadoma kompromisu między użytecznością a inwigilacją, jaki pociąga za sobą korzystanie z czystej sieci. Rośnie świadomość, że działania w czystej sieci mogą skutkować utratą prywatności, co może mieć długotrwały charakter reperkusji społecznych i zawodowych oraz może zwrócić na siebie uwagę organów regulacyjnych oraz osób, które mogą mieć złe zamiary, w tym oszustów, hakerów i trolli. Tor jako narzędzie anonimowości oferuje potencjalne rozwiązanie współczesnego dylematu wszechobecnej inwigilacji cyfrowej. Trasa cebulowa została opracowana przez USA Laboratorium Badawcze Marynarki Wojennej w połowie lat 90. w celu ochrony komunikacji rządowej, a zwłaszcza wywiadowczej, przed inwigilacją. Program Tor, oparty na routingu cebulowym, został uruchomiony w 2002 roku. Tor był pierwotnie akronimem The Onion Router, ale obecnie jest używany jako własne słowo: Tor oznacza "bramę" lub "drzwi" w języku niemieckim. Tor umożliwia prywatną komunikację i anonimowego przeglądania Internetu i omija cenzurę stron internetowych opartą na lokalizacji poprzez anonimizację adresów IP użytkowników. Aby to osiągnąć, przeglądarka Tor kieruje ruch internetowy przez sieć wolontariuszy, składającą się w momencie publikacji z ponad 7000 przekaźników, aby ukryć dokładną lokalizację użytkownika i uniemożliwić atakującym łączenie partnerów komunikacyjnych. Można więc zauważyć, że ciemna sieć, do której dostęp uzyskuje się głównie za pośrednictwem Tora, jest anonimową, a zatem "ukrytą" lokalizacją dla użytkowników Internetu. Ciemna sieć i jasne środowiska sieciowe są ze sobą powiązane. Tor może być używany do przeglądania dowolnej strony internetowej w czystej sieci, a istnieje wiele witryn pomostowych łączących przejrzystą i ciemną zawartość sieci. Chociaż Tor może być używany do uzyskiwania dostępu do czystej sieci, powoduje to mniej wydajne wrażenia użytkownika ze względu na zmniejszoną użyteczność interfejsu, brak możliwości wyszukiwania informacji przechowywanych na routerze cebulowym oraz zmniejszoną prędkość ładowania. Pod wieloma względami doświadczenie korzystania z ciemnej sieci jest podobne do wcześniejszych lat przeglądania sieci w latach 90. przed erą Google. Aby znaleźć treści w ciemnej sieci, użytkownik zwykle musi znać bezpośredni adres URL żądanej witryny. Jednak kilka indeksów jest dostępnych zarówno w czystej, jak i ciemnej sieci, aby kierować potencjalnym użytkownikiem ciemnej sieci, a niektóre wyszukiwarki w ciemnej sieci są teraz dostępne, w tym Grams, który indeksuje listy z rynków ciemnej sieci.

Wykorzystanie ciemnej sieci

Chociaż ciemna sieć w takim rozumieniu istnieje od połowy lat 90. XX wieku, ta ukryta, zaszyfrowana lokalizacja dla działań internetowych została po raz pierwszy zwrócona uwagi świata przez Silk Road, rynek nielegalnych narkotyków, w 2011 roku. jego wielu następców działa jak rynki w stylu eBay lub Amazon, ponieważ obsługują wielu sprzedawców i gromadzą oraz wyświetlają oceny i komentarze opinii klientów. Rynki te, znane jako kryptorynki, działają jako strona trzecia lub broker, wstrzymując płatności do czasu otrzymania przez klientów przesyłek i ich zadowolenia oraz orzekając w przypadku sporu. Uczestnicy dokonują transakcji anonimowo nie tylko za pośrednictwem swojej lokalizacji w darknecie, ale także za pomocą kryptowalut, takich jak Bitcoiny do zapłaty. Polityczne i prawne reakcje na ciemną sieć zostały częściowo ukształtowane przez rozwój rynków kryptowalut i ułatwianie przez nie światowego nielegalnego handlu narkotykami. Handel narkotykami jest jednak tylko jednym z wielu działań, które mają miejsce w ciemnej sieci, co można najlepiej zrozumieć na podstawie rodzajów dostępnych treści, a nie odrębnego charakteru usług. Rodzaje treści dostępnych w ciemnej sieci można podzielić na pięć typów. Pierwszy typ ma głównie wartość rozrywkową i może zawierać treści, które są ściśle regulowane w czystej sieci, takie jak pornografia. Innym stylem treści są materiały samoreferencyjne dotyczące korzystania z Tora, konfigurowania usług ukrytych lub korzystania z szyfrowania w celu zapewnienia technicznej anonimowości, wraz z wytycznymi dotyczącymi konwencji i praktyk dotyczących anonimowości społecznej. Jak opisano wcześniej, trzeci rodzaj treści obejmuje rynki i przedsięwzięcia komercyjne, które specjalizują się w towarach nielegalnych lub ściśle regulowanych, takich jak rynki kryptowalut ułatwiające sprzedaż narkotyków, broni i innych towarów cyfrowych, takich jak skradzione dane kart kredytowych i fałszywe dokumenty tożsamości. Czwarty obszar treści, który nie wyklucza się wzajemnie z innymi obszarami, jest związany z witrynami oszukańczymi i phishingowymi, oszustwami i usługami oszustw. Piąta kategoria treści Dark Web obejmuje usługi, w których użytkownicy sami określają cele i treść komunikacji lub zastosowania Tora, takie jak anonimowe programy pocztowe, usługi czatu, sieci społecznościowe, otwarte fora tematyczne i udostępnianie plików peer-to-peer. Chociaż treści te mogą odzwierciedlać treści opisane wcześniej, oferują również przestrzeń wolną od zagrożenia inwigilacją, ingerencją polityczną i cenzurą. Grupy aktywistów mogą wykorzystywać ciemną sieć do publikowania lub udostępniania treści, których publikowanie w czystej sieci byłoby dla nich niebezpieczne. Korzystanie z oprogramowania anonimizującego, takiego jak Tor, w celu anonimowego uzyskiwania dostępu do przejrzystych stron internetowych, które są zakazane lub chronione zaporą ogniową w niektórych krajach, również ułatwia dostęp do informacji i wolność słowa.

Mity o Darknecie

Kiedy ciemna sieć wkracza do publicznej wyobraźni, dzieje się to często przez filtry głównych kanałów medialnych, które w dużej mierze przedstawiają ciemną sieć jako dużą i mroczną przystań nielegalnej działalności. Najważniejszym z mitów, które powstały na temat ciemnej sieci, jest to, że jest ona kilka razy większa niż czysta sieć. Ewolucja tego mitu wiąże się z pomieszaniem terminów dark web i deep web. Głęboka sieć odnosi się przede wszystkim do treści internetowych, które nie mogą być indeksowane przez wyszukiwarki, ale dostęp do nich niekoniecznie wymaga oprogramowania anonimizującego. Treści te mogą być ukryte za płatnymi witrynami lub firmowymi lub akademickimi bazami danych i obejmują witryny niepowiązane z innymi witrynami, prywatne witryny i fora oraz duże ilości treści witryn sieci społecznościowych, takich jak zawartość prywatnych grup na Facebooku. Treści ciemnej sieci można rozumieć jako bardzo mały podzbiór głębokich treści internetowych, wyróżniających się tym, że są celowo ukryte i wymagają dostępu do oprogramowania anonimizującego. Chociaż szacuje się, że w czystej lub powierzchniowej sieci istnieją miliardy witryn, liczbę ciemnych witryn szacuje się na mniej niż 30 000, co prowadzi do opisywania ciemnej sieci jako "bardziej jak ciemny zakątek" (Cox, 2015, np. ). Artykuł Wired autorstwa Josepha Coxa zauważa również, że związek między ciemną siecią a nikczemną działalnością ignoruje fakt, że większość rodzajów treści dostępnych w ciemnej sieci jest również dostępna w czystej sieci. Na przykład, chociaż dark web słynie z ułatwiania społeczności handlarzy pornografią dziecięcą, Fundacja Internet Watch znalazła ponad 30 000 adresów URL zawierających obrazy pornografii dziecięcej, z których tylko 51 było hostowanych w ciemnej sieci. Przekonanie, że ciemna sieć jest nieprzenikniona przez organy ścigania, zostało również zdyskredytowane przez rosnącą liczbę aresztowań uczestników i liderów kryptomarketów narkotykowych oraz ciemnych kręgów pedofilskich. Tradycyjne techniki policyjne, w tym tajne operacje, również mogą odnieść sukces w środowiskach cyfrowych.

Przyszłość ciemnej sieci

Szeroko zakrojony nadzór cyfrowy zakorzenił się w życiu większości obywateli świata, a wiele rządów naciska na szerszy dostęp do tych ogromnych ilości osobistych danych cyfrowych. W miarę jak konsekwencje wszechobecnej cyfrowej inwigilacji stają się coraz bardziej widoczne, coraz więcej osób może zdecydować się na korzystanie z Tora i ciemnej sieci, aby korzystać z wolności słowa i uzyskać dostęp do prywatności, którą poprzednie pokolenia uważały za coś oczywistego. Chociaż jest oczywiste, że wiele rodzajów przestępstw rozwija się w anonimowym środowisku, które jest możliwe dzięki Torowi i ciemnej sieci, jego wartość jako platformy komunikacji bez nadmiernej ingerencji państwa może wzrosnąć w takich przyszłych światach wysokiego nadzoru i erozji prywatności.



Powrót

Deklaracja Niepodległości Cyberprzestrzeni



W tym wpisie omówiono historię, kontekst, skutki i spuściznę Deklaracji niepodległości cyberprzestrzeni Johna Perry′ego Barlowa. Deklaracja ukazała się na początku lutego 1996 roku i od tego czasu była udostępniana, przedrukowywana i cytowana niemal bez przerwy. Opisuje i promuje w szczególności ideał World Wide Web, a bardziej ogólnie Internetu, jako miejsca z własną kulturą i niepisanymi kodami. Według jej autora deklaracja została spisana w pośpiechu na imprezie zorganizowanej przez gospodarzy tegorocznego Światowego Forum Ekonomicznego w Davos w Szwajcarii. Pierwotnie zamówiony w celu ewentualnego włączenia do książki powstałej w wyniku tego spotkania, zamiast tego został natychmiast przekształcony w e-mail, który, jak twierdzi autor, wysłał do około 600 osób. Tekst szybko rozprzestrzenił się wirusowo, stając się szeroko znany niemal natychmiast. Oryginalny e-mail Barlowa, zawierający zarówno samą deklarację, jak i preambułę wyjaśniającą, który został opublikowany na stronie internetowej Electronic Frontier Foundation. Jest to krótki dokument, liczący 845 słów, napisany w sposób, który sam Barlow określa jako "charakterystyczny dla siebie i przerażający." Początkowe wersety deklaracji dobrze oddają jej ogólny ton i przesłanie:

Rządy świata uprzemysłowionego, zmęczone olbrzymy z krwi i kości, pochodzę z Cyberprzestrzeni, nowego domu Umysłu. W imieniu przyszłości proszę was, przeszłości, abyście zostawili nas w spokoju. Nie jesteś wśród nas mile widziany. Nie masz suwerenności tam, gdzie się gromadzimy. (Barlow, 1978)

Zasadniczo deklaracja jest napisana jako rewolucyjny dokument, manifest wyrażający zestaw wartości i praktyk dla raczkującej popularnej sieci, która w tamtym czasie przeżywała gwałtowny wzrost wykorzystania i skali. Tytuł czerpie z dwóch źródeł literackich, które również wzmacniają zarówno ideę rewolucji politycznej, jak i ztechnologizowanej przyszłości. Po pierwsze, od tytułu do wyraźnych odniesień do wczesnych amerykańskich myślicieli politycznych, deklaracja przypomina amerykańską deklarację z 1776 r. Deklaracja Niepodległości , założycielski dokument polityczny republiki, który formalnie zapewnił zerwanie z Wielką Brytanią. Po drugie, używając terminu cyberprzestrzeń, odnosi się do cyberpunkowej powieści Williama Gibsona z 1984 r. Neuromancer , która wprowadziła termin i koncepcję rozległej, wzajemnie połączonej sieci komputerowej, która działała w rzeczywistości równoległej i bardziej żywej niż świat fizyczny.

John Perry Barlow

Autor deklaracji, Barlow (Stany Zjednoczone, 1947-2018), jest znany ze swojej wszechobecności we wczesnych dniach komercyjnego Internetu i sieci World Wide Web, z retorycznej i osobistej ekstrawagancji, a także ze swojego doświadczenia zarówno jako autor tekstów dla grupa rockowa The Grateful Dead i pracujący hodowca bydła w Wyoming. W 1990 roku, wraz z Mitchem Kaporem z Lotus Development Corporation i Johnem Gilmore′em z Sun Microsystems, Barlow był członkiem-założycielem Electronic Frontier Foundation, grupy, która wcześnie i trwale zyskała rozgłos, opowiadając się za wolnością słowa i prawami obywatelskimi w Internecie, poprzez procesy sądowe, a także jako lobbing. W latach 90. Barlow był także stałym pisarzem dla wówczas nowego magazynu poświęconego kulturze cyfrowej Wired , okazjonalnie felietonistą technologicznym w New York Times oraz współpracownikiem Communications of the Association for Computing Machinery . Barlow został współpracownikiem Berkman Center for Internet and Society na Harvard Law School w 1998 roku, a później został emerytowanym kolegą. Barlow był także współzałożycielem Freedom of the Press Foundation w 2012 roku, której celem jest finansowanie i wspieranie dziennikarstwa interesu publicznego. Barlow został wprowadzony do Internetowej Galerii Sław w 2013 roku.

Kontekst: amerykańska ustawa o reformie telekomunikacji

Deklaracja pojawiła się stosunkowo wcześnie w epoce popularnego, czyli rekreacyjnego, osobistego, nieinstytucjonalnego korzystania z Internetu. Era ta została zapoczątkowana rozwojem standardu technicznego World Wide Web, który można przeglądać (1990), graficznych przeglądarek internetowych, takich jak Mosaic (1993) oraz usunięciem wszelkich barier dla komercyjnej działalności szkieletu Internetu, kiedy Stany Zjednoczone National Science Foundation oficjalnie zaprzestała finansowania i obsługi szkieletu Internetu jako NSFNET (1995). Zanim Barlow skomponował deklarację, korzystanie z Internetu przez konsumentów zaczęło się szeroko i szybko rozprzestrzeniać, ale nadal docierało do zaledwie około 14% Amerykanów. Deklaracja powstała w dniu podpisania przez Stany Zjednoczone Ustawy o Telekomunikacji (1996), popularnie zwanej Ustawą o Reformie Telekomunikacji. Wśród wielu innych kwestii technicznych i regulacyjnych poruszonych w tym akcie, tytuł V ustawodawstwa po raz pierwszy próbował uregulować nieprzyzwoitość i nieprzyzwoitość w Internecie: tytuł ten stał się znany jako Communications Decency Act (CDA) i wywołał natychmiastowy gniew obywateli libertarianie, zwolennicy wolności słowa oraz pierwsi i wpływowi użytkownicy Internetu, w tym Barlow. Deklaracja jest bezpośrednią odpowiedzią na TRA, twierdząc, że prawo "odrzuca waszą własną konstytucję i obraża marzenia różnych ojców założycieli Stanów Zjednoczonych". Barlow, pisząc w imieniu "przyszłości", stara się umieścić to, co nazywa cyberprzestrzenią, poza sferą regulacji: "Cyberprzestrzeń składa się z transakcji, relacji i samej myśli. . . . Twoje prawne koncepcje własności, wyrażenia, tożsamości, przemieszczania i kontekstu nie mają do nas zastosowania. Opierają się na materii, a tutaj nie ma materii". Powtarzające się w deklaracji odniesienia do wolności wypowiedzi i cenzury odnoszą się do przepisów CDA regulujących treści online.

Efekty i dziedzictwo

Z okazji 20. rocznicy deklaracji wiele mediów, w tym Wired i The Economist, rozważyło jej roszczenia z perspektywy czasu. Dokument uznano za wystarczająco ważny, a jego autor wystarczająco godny uwagi, aby uzasadnić dalsze badania dwie dekady po tym, jak po raz pierwszy rozesłano go jako e-mail. Prawdopodobnie deklaracja przyczyniła się do rozkwitu popularnego poczucia siebie jako "cyberprzestrzeni" pod wieloma względami zasadniczo różnej od tego, co stało się znane jako "IRL" ("w prawdziwym życiu"). Sam Barlow twierdzi, że zanim do popularnego Internetu dołączył termin cyberprzestrzeń, nie był on uważany za jakąkolwiek przestrzeń. Jak i czy rozszerzyć jurysdykcję prawną na wszystko, od prawa podatkowego związanego z transgranicznymi zakupami online, po przepisy związane z groźbami lub mową nienawiści, lub jakie konsekwencje społeczne powinny rozciągać się od zachowań internetowych do świata rzeczywistego, nadal toczy się debata w kategoriach przypominających Deklaracja. Kluczowe przepisy dotyczące "nieprzyzwoitości" zgodnie z definicją zawartą w CDA zostały bardzo szybko obalone w serii spraw sądowych w 1996 i 1997 r., potwierdzając, że Amerykanie mają prawo do wolności słowa rozszerzone na komunikację online.



Powrót

DEEP WEB



Termin "głęboka sieć" jest często używany w odniesieniu do stron internetowych .onion z usługami ukrytymi zbudowanych na bazie ciemnej sieci Tor. Jednak w swoim pierwotnym znaczeniu odnosi się po prostu do treści internetowych, które są niedostępne za pośrednictwem tradycyjnych wyszukiwarek. Dziś terminy deep web i dark web są mgliste, a firmy technologiczne, socjologowie, dziennikarze zajmujący się technologią i wikipedyści próbują rozdzielić nakładające się i mylące definicje. Leksykograf Jane Solomon poinformowała w połowie 2015 r., że głęboka sieć tak często pojawiała się zamiast ciemnej sieci lub w połączeniu z ciemną siecią, że zaczęła żyć własnym życiem. Jednym z powszechnych nieporozumień na temat ciemnej sieci i głębokiej sieci jest to, że te dwa terminy są wymienne. W tym wpisie omówiono historię terminu "głęboka sieć", jak doszło do powiązania go z "ciemną siecią" oraz przyczyny fascynacji "głęboką siecią" w jej często rozumianym znaczeniu.

Historia

Głębokie wyszukiwanie w sieci.

Deep Web w kontekście wyszukiwania został wymyślony w 2000 roku przez technologa i badacza wyszukiwarek internetowych Michaela Bergmana. Bergman projektował następną generację algorytmu wyszukiwania w Internecie, który wykraczałby poza zakres tradycyjnej technologii przeszukiwania sieci. Podzielił sieć na dwie części: części indeksowane przez tradycyjne wyszukiwarki nazwał siecią powierzchniową, podczas gdy jego nowe pomysły dotyczyły eksploracji głębokiej sieci. W białej księdze zatytułowanej The Deep Web: Surfacing Hidden Value Bergman (2001) wyjaśnia, w jaki sposób można przeszukiwać głęboką sieć za pomocą takich metod, jak przekazywanie zapytań do formularzy wyszukiwania w celu uzyskania dynamicznych wyników, przeszukiwanie korporacyjnych intranetów lub uzyskiwanie dostępu do prywatnych treści za loginem i paywalls i inne typy witryn, takie jak ogłoszenia drobne, witryny handlu elektronicznego, tablice ogłoszeń i fora. Bergman użył później analogii z górą lodową, aby zilustrować, jak "głęboka" była ta treść i jak ogromna większość informacji znajdowała się "pod powierzchnią". W międzyczasie algorytmy PageRank Google i jego następcy były stale ulepszane, a szczegóły strzeżone jako jedna z najcenniejszych własności intelektualnej giganta technologicznego w tej komercyjnie konkurencyjnej przestrzeni. W 2015 roku Agencja Zaawansowanych Projektów Badawczych w Obronie ogłosiła partnerstwo z Narodową Agencją Aeronautyki i Przestrzeni Kosmicznej w celu opracowania wyszukiwarki "Memex", która posunie się jeszcze dalej - indeksuje materiały naukowe, semantyczne znaczenie treści multimedialnych, a nawet wcześniejsze wersje stron internetowych potencjalnie hostowanych przez archive.org w celu stworzenia coraz potężniejszej technologii wyszukiwania. "NASA indeksuje ‚głęboką sieć', żeby pokazać ludzkości to, czego Google nie zrobi" - głosił nagłówek jednego z serwisów informacyjnych. Chociaż pierwotnie termin deep web odnosił się do treści internetowych, których wyszukiwarki nie mogą indeksować, od 2017 roku większość dyskusji na temat głębokiej sieci nie dotyczyła technologii wyszukiwania.

Głębia …i ciemna sieć?

W 2009 roku dziennikarz Guardiana, Andy Beckett, opublikował artykuł badawczy zatytułowany "Ciemna strona Internetu", poruszający zbieżność cyberprzestępczości, piractwa, nowych technologii sieciowych i głębokiego wyszukiwania w sieci. W artykule policjanci i specjaliści ds. bezpieczeństwa wyjaśnili, w jaki sposób gangi przestępcze wykorzystują nowe technologie, aby umożliwić spamowanie, dystrybucję wirusów i rozpowszechnianie pornografii dziecięcej. Beckett zbadał Freenet, darknet typu peer-to-peer i oprogramowanie podobne do sieci, które pozwala na wolną od cenzury i kryptograficznie bezpieczną komunikację:

Podczas gdy "darknet" to sieć internetowa, taka jak Freenet, która jest ukryta przed osobami niebędącymi użytkownikami, z całym potencjałem transgresyjnych zachowań, które implikują, większość "głębokiej sieci", choć brzmi to przerażająco, składa się z niczym nie wyróżniających się danych konsumenckich i badawczych czyli poza zasięgiem wyszukiwarek.
Bergman udzielił wywiadu w ramach tego samego artykułu, potwierdzając, że Freenet rzeczywiście był częścią "głębokiej sieci" w kontekście wyszukiwania, nie wiedząc, jaki wpływ ten artykuł będzie miał na nadchodzące lata.

Tor, Bitcoin i Jedwabny Szlak

Routing cebulowy był rodzajem zaawansowanej technologii szyfrowania i zaciemniania sieci, opracowanej po raz pierwszy przez Laboratorium Badawcze Marynarki Wojennej Stanów Zjednoczonych w połowie lat 90. Tor, pierwotnie skrót od "The Onion Router", był niejasnym i niczym nie wyróżniającym się eksperymentalnym elementem technologii, który przeszedł pod kontrolę Electronic Frontier Foundation w 2004 roku i pozostał cichy aż do 2010 roku. W 2008 roku osoba znana pod pseudonimem Satoshi Nakamoto opublikowała artykuł "Bitcoin: Elektroniczny system gotówkowy typu peer-to-peer". Ta "kryptowalutowa" cyfrowa gotówka i najnowsza wersja przeglądarki Tor zyskały wielu zwolenników wśród libertarian i anarchistów znających się na technologii. W 2011 roku Adrian Chen z Gawkera zaszokował społeczność internetową swoim artykułem o Silk Road, "The Underground Website Where You Can Buy Any Drug Imaginable". Natknął się na w pełni samoregulujący się podziemny ekosystem narkotyków i skradzionych danych, które wykorzystywały niemal niemożliwą do wykrycia walutę Bitcoin i technologię prywatności Tor, które najwyraźniej rozwinęły się z dnia na dzień. Niektórym wydawało się, że stworzono wolnościową anarchokapitalistyczną enklawę, pozwalającą na niezawodną, wolną od przemocy wymianę zabronionych przez państwo towarów i usług. Nie była to jednak narracja podkreślana w mediach. Nagłówek brytyjskiego Daily Mail z 2013 roku ostrzegał przed "niepokojącym światem głębokiej sieci, w którym zabójcy na zlecenie i handlarze narkotyków prowadzą swój handel w Internecie". Po długotrwałym dochodzeniu i ostatecznym zamknięciu Silk Road dziennikarze i blogerzy z całego świata ustawili się w kolejce, aby informować o tak zwanych zagrożeniach związanych z głęboką siecią, terminem przyjętym teraz również przez niektórych członków społeczności ciemnej sieci.

Ostatnie lata

Język

Obecnie termin deep web jest słabo rozumiany i komunikowany. Leksykograf Bryan Garner nazywa terminy, które są wysoce niejednoznaczne i zagmatwane, "terminami skunksowymi" i zaleca ich unikanie, aby ułatwić zrozumienie. Podobne współczesne przykłady obejmują niedawną zmianę znaczeń słów dosłownie i dziesiątkować. Aby zwalczyć to zamieszanie, serwisy z wiadomościami technicznymi, takie jak kanał internetowy Vice′s Motherboard, od końca 2014 r. stosują przewodniki stylistyczne, zapewniając pierwszeństwo terminu ciemna sieć nad terminem głęboka sieć przy przekazywaniu wiadomości o Torze i usługach ukrytych. Pomimo tego zastrzeżenia, ciągłe używanie terminu głęboka sieć w społeczności Tora i poza nią oznacza, że tylko niewielka część mediów rutynowo dokonuje tego rozróżnienia. Aby zilustrować, jak zawiodły te wysiłki na rzecz zróżnicowania, wystarczy spojrzeć na film dokumentalny Deep Web z 2015 r., który początkowo zawierał pierwotną definicję głębokiej sieci, odnoszącą się do niej jako treści internetowej nieindeksowanej przez wyszukiwarki, ale następnie skupiającej się na opowieść o Jedwabnym Szlaku. Wpływ ciemnej sieci Prawdziwa ciemna sieć na Torze zawiera dużą ilość niesmacznych i nielegalnych materiałów, a dla nieznajomego rzeczywista cyberprzestępczość może być nie do odróżnienia od fabrykacji. W połączeniu z medialną, a nawet histerią polityczną, trudno o wiarygodne informacje na temat tego obszaru. Strony zrzutowe, takie jak te używane przez WikiLeaks, a później przez główne serwisy informacyjne, zostały utworzone, aby umożliwić wysoce anonimowe przesyłanie poufnych dokumentów przez demaskatorów. Witryny te zawierają również zgłoszenia przedstawiające "doxing" lub złośliwe dane osobowe zrzuty, a także niektóre strony z "zemstą pornograficzną", często kierowane do Tora z powodu rosnących ograniczeń prawnych dotyczących takiej działalności. Uważa się, że domniemani hakerzy stojący za wyciekiem iCloud zdjęć celebrytów w 2014 roku wykorzystali tajną infrastrukturę komunikacyjną w celu handlu swoimi treściami. Wreszcie, niezrozumienie hakerów, ich umiejętności i nieporozumień dotyczących bezpieczeństwa komputerowego jest tematem samym w sobie. Koncepcje takie jak te wspierają ideę, że za pośrednictwem tego wektora można znaleźć wszelkiego rodzaju ukryte informacje. Ciemna sieć jest kojarzona z niektórymi z najgorszych treści, jakie Internet ma do zaoferowania. Najbardziej znana jest historia wideo The Destruction of Daisy, które przedstawia gwałt i tortury na niemowlęciu, a później zostało sprzedane za pośrednictwem ciemnej sieci. (Od początku 2017 roku Peterowi Scully′emu, który rzekomo sprzedał wideo, postawiono zarzuty karne obejmujące wiele przypadków domniemanych tortur i wykorzystywania seksualnego dzieci). rzeczywiste zoofile wydają się oswojone w porównaniu. Podczas gdy większość ludzi, którzy słyszą o tych wydarzeniach, wzdraga się, znaczna mniejszość jest zafascynowana.

Legendy

Sceptyczna witryna Rational Wiki omawia niektóre z miejskich legend o tym, co jest dostępne w głębokiej sieci, w tym o tym, że są zabójcy do wynajęcia, płatni w Bitcoinach, i że można "natknąć się" na transmisję morderstwa na żywo w "czerwonym pokoju". Warto jednak zauważyć, że zagmatwane nieporozumienia kojarzą się niemal wyłącznie z terminem deep web, a rzadko z terminem dark web lub darknet.

Badanie

Ze względu na krótkotrwały charakter wielu ukrytych usług Tora, słabe zasoby informacyjne i ograniczone możliwości wyszukiwania, pojawiło się zjawisko nieustrukturyzowanej eksploracji, szczególnie wśród nastolatków i młodszych ludzi. Najbardziej przerażające i niepokojące opowieści krążą wśród rówieśników w formie "creepypast" - krótkich, być może prawdziwych horrorów - i tworzą nierozwiązane psychologiczne napięcie między wiarą w te idee a dwuznacznością ich istnienia. zostało spełnione przez wielu oportunistycznych YouTuberów, z których najbardziej znanym był Dale Gill, znany również jako Takedownman. YouTuberzy zapewniają "wycieczki" w formie pokazu slajdów po dziwnych witrynach Tora, które zostały im polecone, i zgłaszają je w sensacyjnym fashion, celowo wstrzymując linki do stron i nie przeprowadzając żadnych badań. W przeciwieństwie do dwuznacznych "creepypast", YouTuberzy zapewniają mieszankę ezoterycznych recenzji witryn i porad technicznych dla młodych odbiorców YouTube zafascynowanych koncepcją głębokiej sieci. Popularność takich treści sprawiła, że termin "deep web video" stał się synonimem przerażającego wideo. Temat eksploracji jest silnie powiązany z deep webem w ogóle. Losowe klikanie witryny indeksu, takiej jak jedna z ukrytych wiki - znalezienie witryny jednego dnia, której już nie ma - powoduje, że wiele ukrytych usług przenika efemeryczność i wpływa na stosunek ludzi do ich trwałości. Dzisiejsze dzieci i młodzież "odważą się" nawzajem wejść do głębokiej sieci, w podobny sposób, w jaki poprzednie pokolenia odważyłyby się nawzajem rozbić obóz w nawiedzonym lesie lub zapukać do drzwi domu, w którym mieszka wiedźma. To prawda, że młodsze pokolenie składa się z tzw. cyfrowych tubylców i ma bardziej intuicyjne rozumienie niektórych technologii, ale nie oznacza to, że rozumie ono zaawansowane technologie szyfrowania i ogólnie cyberprzestępczość lepiej niż starsi członkowie społeczeństwa.

Wpływy psychospołeczne

Psychologowie komunikacji medialnej, Mary Beth Oliver i Arthur Raney, badali, w jaki sposób jednostki mogą wyszukiwać negatywne treści w Internecie w celu zaspokojenia potrzeb oczyszczających i oczyszczających, dokonywania porównań społecznych w dół, utrzymywania złego nastroju i uczenia się informacji, które mogą ostatecznie pomóc w radzeniu sobie z negatywnymi emocjami. lub nieszczęśliwe okoliczności. Bridget Rubenking i Annie Lang w podobny sposób badają atrakcyjność "obrzydliwych" treści i dlaczego ludzie szukają ich ze względu na ich wciągającą i emocjonalną atrakcyjność - techniki często stosowane w reklamach. Takie wyjaśnienia zapewniają przynajmniej częściową racjonalizację rynku przerażających treści, prawdziwych i innych, w Internecie. Wydaje się, że legendy głębokiej sieci miały wzmacniający wpływ na to wcześniej istniejące zjawisko.



Powrót

Diaspory i Internet



Nadejście rewolucji informatycznej (IT) w drugiej połowie XX wieku wpłynęło na sposób komunikowania się i integracji kultur diasporycznych. W związku z tym ważne jest zwrócenie uwagi na rolę technologii informatycznych w badaniu diaspor, a także na rolę społeczności imigranckich w zróżnicowanym kulturowym korzystaniu z Internetu. Cyfrowy wpływ Internetu na diaspory przybiera różne formy. Po pierwsze, rozszerza możliwości transnarodowej komunikacji diaspora-ojczyzna, a także powiązań diaspory ze społeczeństwem sieciowym i wielostanowiskowym narodem. Pojawienie się IT spowodowało również powstanie transgranicznych diasporycznych sfer publicznych. Co za tym idzie, wzrosło wykorzystanie Internetu do wpływania na przebieg dyskursów i praktyk politycznych w kraju, a wraz z tym coraz bardziej rozpowszechnione stały się wirtualne formy nacjonalizmu na odległość. Jednocześnie technologia informacyjna doprowadziła do ustanowienia nowych reżimów inwigilacji w celu gromadzenia, analizowania i interpretowania danych dotyczących lokalnych, narodowych i eksterytorialnych działań diaspor. Wreszcie, Internet został przyjęty jako motor wzrostu firm z diaspory i obecnie zapewnia stały dochód dla rosnącej liczby przedsiębiorców z diaspory. Po pierwsze, ten wpis definiuje pojęcia diaspory i diaspory cyfrowej. Następnie przedstawia przegląd tego, w jaki sposób dostępność Internetu wpływa zarówno pozytywnie, jak i negatywnie na społeczności diaspory.

Diaspory


Definicja tego, co stanowi diasporę, jest nadal przedmiotem dyskusji, ponieważ niektórzy uczeni stosują ścisły zestaw kryteriów, podczas gdy inni postrzegają to w kategoriach imigracji i przesiedleń w jednym lub kilku krajach przyjmujących. Niektórzy badacze ograniczają jego zastosowanie do wybranej grupy imigrantów, takich jak Żydzi i Ormianie, podczas gdy inni bez wyjątku stosują go do wszystkich imigrantów. W tym ostatnim sformułowaniu rozproszenie ma pierwszeństwo przed okolicznościami wyjazdu i formami inkorporacji. Na potrzeby tego wpisu pojęcie diaspory będzie używane zamiennie z imigrantami (tj. jednostką, która opuściła swoją ojczyznę i przesiedliła się do innego kraju). W tym świetle "diaspora cyfrowa" odnosi się do działań imigrantów w Internecie, które łączą ich z ojczyzną i innymi rodakami w diasporze, niezależnie od tego, gdzie mieszkają. Nie mogąc objąć wszystkich aspektów relacji diaspor z Internetem, preferowane są formy wykorzystania tego medium, które wzmacniają diasporę kulturową i demograficzną jako odrębną społeczność internetową, określają jej praktyki kulturowe, ułatwiają jej społeczną reprodukcję, chronią jej granice społeczne i wzmacnia ponadnarodowe powiązania rodzinne, społeczne, asocjacyjne, organizacyjne i instytucjonalne.

Diaspora cyfrowa

Nazwanie przedmiotu badań pozwala na wyznaczenie społecznych parametrów działań cyfrowych podejmowanych przez aktorów diaspory. Jednak te działania cyberprzestrzenne, które stanowią centra jego wdrażania, obejmują zarówno korzystanie z Internetu przez diaspory, jak i korzystanie z Internetu przez podmioty społeczeństwa obywatelskiego w celu dotarcia do diaspory: obejmuje to również nadzór rządu, agencje społeczne, organizacje obywatelskie , a także całą populację, która pielęgnuje cyfrowe interakcje z diasporami w różnych celach (policja i nadzór sąsiedzki, ubezpieczenia, praktyka medyczna, osiągnięcia edukacyjne lub instytucje religijne). W życiu codziennym diaspory cyfrowe mają tożsamość lokalną, narodową i ponadnarodową, którą wyrażają w sposób cyfrowy lub niecyfrowy. Różne koncepcje stosowane w literaturze socjologicznej odzwierciedlają cyfrowe formy zaangażowania diaspor w Internet. Na przykład terminy takie jak diaspora cybernetyczna, diaspora wirtualna, diaspora online, e-diaspora (skrót oznaczający diasporę elektroniczną) i diaspora cyfrowa mają obecnie wyższy status w dyskursie akademickim. Niemniej jednak zbiegają się, by wyrazić to samo znaczenie, jakim jest zakres zawłaszczania Internetu przez diasporę, bezgraniczny charakter tych interakcji, wirtualna ekspansja zaangażowań diaspory, wpływ Internetu na organizację społeczną i warunki życia diaspor oraz wizja, że cyfrowa diaspora przywołuje ideę etniczności jako wyznacznika kulturowej odrębności, orientacji i widoczności w cyberprzestrzeni.

Komunikacja cyfrowa

Internet jako środek komunikacji między imigrantami a resztą społeczeństwa przejawia tę cechę za pośrednictwem różnych platform elektronicznych, które ułatwiają interakcje jeden-do-jednego, jak i jeden-do-wielu. Jako środek komunikacji międzydiasporycznej i ojczystej umożliwia wspólnotom diasporycznym komunikowanie się między sobą niezależnie od geograficznego miejsca zamieszkania, czyli z członkami rodziny, przyjaciółmi, rodakami w diasporze iw ojczyźnie. Ta rutynowa forma interakcji cyberprzestrzennych przyczynia się do zacieśniania więzi między rozproszonymi członkami dalszej rodziny i rodakami mieszkającymi na całym świecie. Internet jest także kanałem, za pośrednictwem którego wdrażane są inne cyfrowe środki komunikacji, które poprzez ich wykorzystanie wzmacniają świadomość przynależności do grupy kulturowej i więzi z krajem przodków za granicą. Poprzez Internet media pochodzące z kraju lub z diaspory (np. telewizja, telefon, radio, media społecznościowe i inne platformy komunikacyjne) są codziennie dostępne w społecznościach diaspory. Na przykład członkowie diaspory używają Internetu do oglądania krajowych wiadomości telewizyjnych, oper mydlanych oraz koncertów muzycznych i tanecznych w celu rozrywki i programów specjalnych, aby być na bieżąco z wydarzeniami krajowymi; słuchają krajowych audycji radiowych, aby być na bieżąco z poglądami politycznymi przywódców narodowych; i mają dostęp do diasporycznych programów telewizyjnych i radiowych, bez względu na to, z jakich krajów pochodzą, aby być informowanym o nowych wydarzeniach w różnych węzłach wielostanowiskowego narodu. Czynią to z konieczności utrzymywania kontaktu z ojczyzną, a najczęściej z powodu nieznajomości oficjalnego języka używanego w mainstreamowych mediach kraju przyjmującego. Względy strukturalne wyjaśniają również, dlaczego imigranci preferują telewizję i telefonię internetową: zmniejsza to koszty połączeń długodystansowych i omija obie strefy czasowe oraz fizyczną infrastrukturę dla telewizji i telefonów stacjonarnych, które mogą nie być dostępne w ich miejscach urodzenia. Wykorzystanie Internetu i telefonu komórkowego ułatwia komunikację między diasporą a rodziną w kraju, a tym samym upraszcza transnarodową transakcję przekazów pieniężnych, co jest głównym czynnikiem nadającym treści treściom tych transgranicznych rozmów między członkami rodziny. Internet stał się głównym czynnikiem, który sprawia, że połączenia między różnymi łatami wielostanowiskowego narodu działają w czasie rzeczywistym. Korzystanie z Internetu przez diasporę nie różni się od korzystania z Internetu przez resztę społeczeństwa. Istnieją jednak określone obszary użytkowania, które są odrębne i charakterystyczne dla społeczności imigrantów. Różnice pojawiają się w używaniu języka ojczystego kraju (np. tagalog wśród filipińskiej diaspory cyfrowej w Stanach Zjednoczonych), członków grupy kulturowej będącej celem takiej sieci konwersacji (np. marokańskie społeczności wirtualne w Holandii lub we Francji i tureckie społeczności wirtualne w Niemczech) oraz działania w mediach społecznościowych, które przyciągają określoną populację ze względu na wspólne pochodzenie (np. dzień niepodległości Dominikany, festiwale indyjskie, brazylijskie wydarzenia sportowe).

Nadzór cyfrowy

Od ataków na bliźniacze wieże w Nowym Jorku i Pentagon w Waszyngtonie 11 września 2001 r. cyfrowy nadzór społeczności diaspory w Ameryce Północnej i na Zachodzie Europya stała się codziennością ze względu na dostępność infrastruktury informatycznej i dostrzeganą pilną potrzebę zaangażowania się w takie tajne działania w celu ochrony kraju przed potencjalnymi infiltracjami, organizacjami i interwencjami terrorystycznymi. Diasporańczycy doskonale zdają sobie sprawę z inwazji na ich prywatność zarówno ze strony państw wysyłających, jak i przyjmujących, i ogólnie rozumieją, że takie działania są podejmowane w celach związanych z bezpieczeństwem narodowym lub w celu wykrycia działalności przestępczej. Mniej przyzwalają na podejmowanie takich działań przez ojczyznę lub kraj gospodarza, ponieważ urzędnicy państwowi są podejrzliwi wobec diasporycznych organizacji politycznych, cyberaktywizmu i zakresu ich współpracy z główną partią opozycyjną. Cyfrowa inwigilacja kraju-gospodarza albo skupia się na zbieraniu informacji o konkretnej osobie lub grupie, która staje się jej celem, albo na analizie amalgamatu danych zebranych na temat miasta, dzielnicy lub grupy imigrantów. W tym scenariuszu diaspory pojawiają się albo jako cel gromadzenia danych, albo po prostu jako agregat, który wymaga eksploracji i analizy danych. Inwigilacja cyfrowa jest prowadzona przez kraj gospodarza z różnych powodów, w tym bezpieczeństwa narodowego, zapobiegania działalności przestępczej, z powodu interakcji diaspory z zagranicznymi rządami lub ich udziału w politycznych ruchach protestacyjnych. Państwa-gospodarze, takie jak Stany Zjednoczone, Francja, Włochy, Niemcy, Wielka Brytania, Kanada i Australia, rozwinęły wyrafinowane mechanizmy cyfrowego nadzoru i kontroli nad jednostkami i społecznościami diaspory, co widać na przykład w korzystaniu z Eurodac Unii Europejskiej baza danych oraz System Informacyjny Schengen, który umożliwia szybkie eksplorowanie danych w celu uzyskania informacji o osobach lub społecznościach z diaspory. Ukierunkowane skupienie się na rozmowach telefonicznych, odwiedzanych stronach internetowych, typie poszukiwanych informacji w Internecie, tożsamości sieci znajomych, aparatach cyfrowych w dzielnicach imigrantów w Londynie i innych miejscach, danych z telefonu komórkowego, które wskazują lokalizację i trasy konkretnej osoby zainteresowania, cyfrowe transakcje pieniężne, które dostarczają informacji o źródłach dochodów, rodzajach i kategoriach wydatków oraz beneficjentach, dodają do mnóstwa cyfrowych działań nadzorczych państw wobec imigrantów w kraju i emigrantów za granicą.

Przepaść cyfrowa

Diaspory cyfrowe jako odrębna grupa ludzi zyskały dużą widoczność dzięki debacie na temat podziału cyfrowego we wczesnych latach rewolucji cyfrowej. Byli postrzegani jako nie do odróżnienia od mniejszości etnicznych i jako tacy skupieni w większości w biednych dzielnicach miejskich. Diaspory zostały wciągnięte w dyskusję na temat przepaści cyfrowej, częściowo dlatego, że są imigrantami, a poziom penetracji Internetu w tych podrzędnych społecznościach jest zwykle niższy niż wskaźnik, z którego korzystają społeczności głównego nurtu i bogatsze dzielnice. Z punktu widzenia porządku publicznego problem przepaści cyfrowej jest postrzegana jako przepaść między tymi, którzy mają, a tymi, którzy nie mają, grupami mniejszościowymi i większościowymi oraz podporządkowaniem płci. Wyjaśnia się to pod kątem poziomu dochodów, znajomości obsługi komputera, dostępu do komputera i Internetu oraz miejsca zamieszkania. Proponowane rozwiązania w nawiązaniu do priorytetu polityki gminy koncentrują się na edukacji, szkoleniach z zakresu obsługi komputera, dostępności komputerów w osiedlowych bibliotekach i szkołach oraz dostępności do Internetu. Z pozytywnej strony, relacje między diasporami a Internetem zostały również ujęte w kategoriach wkładu inżynierów-imigrantów i informatyków w ewolucję IT-rewolucji. Można pomyśleć o koncentracji informatyków z diaspory w Dolinie Krzemowej z Indii i innych części świata, rekrutowanych w ramach programu wizowego H-1B do personelu amerykańskich firm telekomunikacyjnych oraz o niezliczonych przedsiębiorcach z diaspory, którzy rozwinęli własne start-upy lub którzy po prostu działali jako konsultanci firm o ugruntowanej pozycji, umożliwiając im w ten sposób rozkwit w globalnym konkurencyjnym środowisku.

Polityka cyfrowa

Od początku rewolucji cyfrowej diaspory były zaangażowane w wykorzystywanie Internetu do osiągania celów politycznych w imieniu swojego kraju urodzenia. Ta wirtualna arena, na której odbywają się takie działania, była różnie określana jako ponadnarodowa sfera publiczna, wirtualne miejsce publiczne, przestrzeń publiczna i internetowa sfera publiczna; zapewnia wirtualną wspólną płaszczyznę wymiany informacji o rozwoju gospodarczym kraju; do dyskusji o ideach dotyczących demokracji, praw człowieka i stabilności politycznej ojczyzny; oraz za natychmiastowy wkład diaspory w rozwiązanie pilnych problemów porządku publicznego. Cyfrowa polityka diaspory nie tylko manifestuje solidarność diaspory z ojczyzną, ale także wyraża podziały, które tworzy między członkami społeczności diaspory o różnych preferencjach ideologicznych, a także dodaje polityce lokalnej wymiar ponadnarodowy. Taka praktyka urzeczywistnia się poprzez lobbowanie w kraju-gospodarzu na rzecz ojczyzny, zarządzanie drugorzędnymi partiami politycznymi za granicą oraz cyfrową komunikację przedstawicieli parlamentarnych diaspory z ich zamorskimi okręgami - bezpośrednio przez e-mail i telefon oraz pośrednio poprzez wiadomości zamieszczane na ich oficjalnych stronach parlamentarnych. strony internetowe - informujące o przedsięwzięciach dla dzielnicy czy nowych ustawach mogących negatywnie wpłynąć na wyborców. Kraje, które dopuszczają e-głosowanie, podczas kampanii legislacyjnych i prezydenckich dają diasporom jeszcze jedną możliwość wykorzystania Internetu do realizacji obywatelskich obowiązków podczas pobytu za granicą. Tam, gdzie polityka cyfrowej diaspory była najbardziej widoczna i widoczna, jest na arenie cyberaktywizmu. Diaspory zapewniły przywództwo z zewnątrz, wpływając za pośrednictwem Internetu na przebieg powstań politycznych w Tunezji i Egipcie, dostarczając strategicznych informacji i porad lokalnym działaczom, informując o reakcjach obcych rządów, pomagając w finansowaniu przedsięwzięć lub nowych inicjatyw, rozpowszechniając informacje online wśród rodaków na w kraju i za granicą w celu powiększenia rozmiarów opozycji, atakowania stron internetowych przeciwników w celu ich unieczynnienia oraz wykorzystywania tzw. Internetu, aby podważyć popularność wybranych przywódców establishmentu. Internet przenika każdy aspekt życia codziennego w diasporach: poprzez korzystanie przez rodaków ze stron internetowych w celu znalezienia współmałżonka, poprzez dostęp do informacji w celu znalezienia usługodawców diaspory i sklepów handlowych w ich mieście zamieszkania, poprzez bankowość internetową w celu wysyłania przekazów pieniężnych do domu, poprzez korzystanie z Internet w celu uzyskania dostępu do stron internetowych z muzyką ojczyzny i diaspory do słuchania, poprzez wykorzystywanie Internetu do inwentaryzacji i uzupełniania towarów z ojczyzny oraz do opłakiwania zmarłych poprzez wirtualne czuwanie, w którym teleobecność zastępuje fizyczną obecność.



Powrót

DDoS



Ataki typu "odmowa usługi" mają na celu zakłócenie działania danej usługi (np. serwera WWW), szkodząc w ten sposób firmie oferującej tę usługę. Istnieje wiele sposobów odmowy usługi. Najbardziej powszechna forma ataków polega na wysyłaniu dużego ruchu do usługi, która konkuruje z ruchem legalnych klientów o ograniczone zasoby na serwerze. Zasobem docelowym może być przepustowość, pamięć serwera, procesor serwera lub gniazda serwera. Celem innych ataków są powiązane usługi, takie jak system nazw domen (DNS) lub infrastruktura routingu, których klienci potrzebują, aby uzyskać dostęp do wielu innych usług. Jeszcze inne ataki wykorzystują lukę w zabezpieczeniach, aby spowodować awarię usługi. Rozproszone ataki typu "odmowa usługi" (DDoS) wysyłają ruch atakujący z wielu lokalizacji. Zwykle atakujący rekrutuje botnet i używa go do generowania ataków DDoS. Większość dzisiejszych ataków typu "odmowa usługi" to ataki DDoS. Skutki ataków typu "odmowa usługi" na cel są często druzgocące. Usługa celu staje się albo niedostępna, albo bardzo powolna, a biznes celu może zostać zatrzymany. W tym wpisie omówiono rodzaje ataków DDoS, motywacje atakujących, sposoby obrony przed atakami DDoS oraz badania nad potencjalnymi sposobami obrony.

Rodzaje ataków DDoS

Istnieje wiele typów ataków DDoS. Podczas powodzi boty kierują ruch bezpośrednio do celu. Ruch powodziowy może mieć losową zawartość lub może być tworzony w celu naśladowania żądań klienta dotyczących usługi docelowej. Kiedy ruch typu flood jest tworzony w celu naśladowania żądania obsługi klienta, ten typ ataku nazywany jest atakiem flash-crowd. Na przykład boty mogą wysyłać żądania strony głównej do serwera WWW. Tego rodzaju ruch jest oczekiwany przez serwer WWW i zwykle jest generowany przez jego legalnych klientów. Innym przykładem ataku tłumu błyskawicznego może być botnet wysyłający wiele żądań DNS do serwera DNS. Czasami ataki flash-crowd mogą generować określone żądania usług, których przetwarzanie na serwerze jest zbyt kosztowne. Przykładami mogą być zapytania do bazy danych lub żądania wysyłające złożone dane wejściowe formularza do serwera WWW. Takie ataki są atrakcyjne dla atakującego, ponieważ może on odmówić usługi przy niższym wskaźniku żądań, a tym samym potrzebuje mniej botów do udanego ataku. Powodzie ukierunkowane na usługi zorientowane na połączenie, takie jak protokół inicjowania sesji lub protokół kontroli transmisji (TCP), mogą wysyłać ruch, który po prostu otwiera połączenie, bez kontynuowania. Lub mogą wysyłać okresowy ruch na tym samym połączeniu, aby utrzymać otwarte połączenie. Ten typ ataku zużywa pamięć w miejscu docelowym i jest nazywany atakiem polegającym na wyczerpaniu połączenia. Jednym z przykładów ataku polegającego na zubożeniu połączenia jest TCP SYN flood, który wysyła pakiety TCP SYN (pakiety rozpoczynające połączenie) do usługi docelowej ("SYN" to skrót od "synchronizuj"). Nawet przy niskiej szybkości pakiety te mogą ograniczać pamięć połączeń serwera i odmawiać usług uprawnionym klientom. Innym przykładem ataku polegającego na wyczerpaniu połączenia jest Slowloris. Atak ten otwiera wiele połączeń z serwerem WWW i utrzymuje je otwarte, wysyłając niekończące się żądania, które zużywają pamięć połączenia. W atakach refleksyjnych boty tworzą pakiety żądań, aby przenosić adres źródłowy celu, który atakujący chce zaatakować. Żądania te są wysyłane do serwerów publicznych (reflektorów), takich jak serwery DNS, które odpowiadają na adres docelowy. Ten nadmierny ruch związany z odpowiedziami powoduje efekt odmowy usługi u celu. Ataki odbicia mogą również wykorzystywać wzmocnienie, tworząc specjalne żądania usług, które generują znacznie większe odpowiedzi w reflektorach. Często obserwowane ataki refleksyjne generują żądania DNS i Network Time Protocol. Zarówno DNS, jak i Network Time Protocol mają potencjał do wzmocnienia i oba mają kluczowe znaczenie dla działania każdej sieci. Utrudnia to filtrowanie odbitego ruchu w miejscu docelowym i zachowanie odpowiedzi na uzasadnione żądania. Niektóre ataki DDoS wykorzystują fałszowanie adresu źródłowego protokołu internetowego (IP) (w skrócie IP spoofing). Oznacza to, że boty wysyłają pakiety atakujące z fałszywymi informacjami o ich źródle. Można to zrobić, aby uniknąć wykrycia i filtrowania przez mechanizmy obronne lub jako środek do wywołania ataku, jak ma to miejsce w przypadku ataków odbicia.

Motywacja atakującego

Ataki typu "odmowa usługi" były przeprowadzane z wielu powodów. Często zdarza się, że cyberprzestępcy przeprowadzają ataki na małe firmy na krótki okres czasu. Następnie firma otrzymuje wiadomość e-mail z wymuszeniem, prosząc o zapłatę w ramach ochrony przed dalszymi atakami. Czasami osoba grająca w grę online przeprowadzała krótkotrwałe ataki na innych graczy, aby uniemożliwić im interakcję z grą, a tym samym obniżyć ich wynik. Rzadko grupy polityczne przeprowadzają ataki na przeciwników, aby złożyć oświadczenie polityczne.

Obrona

Obrona przed atakami DDoS jest trudna, ponieważ ruch związany z atakami jest często bardzo podobny do legalnego ruchu i ma duże natężenie. Ponieważ ruch atakujący jest bardzo podobny do legalnego ruchu, obrona musi zebrać wiele statystyk na połączenie i nadawcę, aby opracować dobry sposób filtrowania ataku. Jednak ze względu na dużą objętość, szybkie gromadzenie tych statystyk i przechowywanie ich przez wystarczająco długi czas wymaga znacznych zasobów. Ponadto w przypadku niektórych ataków ruch związany z atakami może być tak podobny do legalnego ruchu, że nawet obszerne statystyki nie pomogą w ich rozróżnieniu. Takie ataki wymagają dużych botnetów i wysokiego stopnia zaawansowania kodu ataku. Dwie główne metody obrony operacyjnej przed atakami DDoS to filtry w sieci końcowej i ochrona w chmurze. Filtry sieci końcowej są wdrażane w miejscu docelowym. Zbierają obszerne statystyki dotyczące legalnego ruchu i budują modele treści ruchu. Kiedy dochodzi do ataków, modele te są zaangażowane w wykrywanie i filtrowanie ruchu, który nie pasuje do modeli. Czasami ataki mogą być tak duże, że przeciążają połączenie sieci końcowej z dostawcą usług internetowych (ISP). W takich przypadkach obrona musi nastąpić dalej w górę rzeki. Cel może zaangażować swojego dostawcę usług internetowych w filtrowanie ataku w górę. Większość dostawców usług internetowych nie może obsługiwać zaawansowanych filtrów na klienta i zamiast tego po prostu odrzuca cały ruch (atakowy i legalny) kierowany do celu; nazywa się to czarną dziurą. Blackholing nie jest rozwiązaniem idealnym, ponieważ legalni klienci nadal nie mogą dotrzeć do usługi docelowej, a efekt odmowy usługi utrzymuje się. Ochrona w chmurze działa również przed celem. Łączą się z wieloma sieciami i mają serwery w wielu lokalizacjach geograficznych. Te obfite zasoby umożliwiają ochronie w chmurze szybkie przetwarzanie dużych ilości ruchu i przechowywanie obszernych statystyk dotyczących legalnego i atakującego ruchu. Kiedy cel ataku DDoS angażuje się w obronę w chmurze, umożliwia przekierowanie całego ruchu przychodzącego do chmury. Ruch jest następnie analizowany i filtrowany, a pozostały ruch jest wysyłany do celu. Ochrona w chmurze może być jednak również podatna na ataki DDoS. W 2013 roku CloudFlare bronił Spamhaus przed serią dużych ataków DDoS. Kiedy atakujący dowiedzieli się o tym, zaczęli atakować samo CloudFlare, generując największy atak w tamtym czasie - 300 Gb/s. Atak nie był w stanie przeciążyć zasobów serwera CloudFlare, ale zdołał zalać ich łącza peeringowe w kilku giełdach internetowych - lokalizacjach, w których łączy się wiele sieci. Atak stworzył problemy nie tylko dla Spamhaus i CloudFlare, ale także dla innych sieci na tych giełdach internetowych. Innym sposobem obrony przed atakami DDoS jest zdobywanie większej ilości zasobów i replikowanie treści. Można to zrobić za pośrednictwem sieci dystrybucji treści lub CDN, takiej jak Akamai lub Amazon. Sieci CDN i zabezpieczenia w chmurze są bardzo podobne. Oba mają dużą obecność geograficzną i wiele zasobów oraz współpracują z wieloma sieciami. Dzięki temu są w stanie efektywnie przetwarzać duże ilości ruchu. Główna różnica polega na sposobie przetwarzania ruchu. Ochrona w chmurze koncentruje się na zbieraniu statystyk i filtrowaniu ataków. Mogą oferować niektóre funkcje CDN, takie jak buforowanie statycznej zawartości serwera WWW, ale nie w pełni replikują usługę celu. Oznacza to, że żądania klientów ostatecznie docierają do celu, jeśli ochrona w chmurze klasyfikuje je jako nieatakowe. Sieci CDN koncentrują się na pełnej replikacji usługi docelowej i obsłudze klientów z rozproszonych zasobów. Mogą mieć pewne funkcje wykrywania DDoS, ale będą one mniej wyrafinowane niż zabezpieczenia w chmurze. Sieci CDN mogą być również podatne na ataki DDoS. W 2016 roku CDN oferujący replikację DNS - Dyn - stał się celem największego wówczas ataku DDoS. Atak został przeprowadzony z dziesiątek milionów źródeł i wygenerował prędkość 1,2 Tb/s. Chociaż atak został ostatecznie obsłużony, dotknęło to wielu klientów Dyn. Podczas gdy serwery klientów działały, klienci tych klientów nie mogli rozwiązać zapytań DNS za pośrednictwem Dyn podczas ataku, a tym samym nigdy nie dotarli do serwerów klientów. Oprócz filtrów sieci końcowej, ochrony w chmurze i sieci CDN, niektóre rodzaje ataków DDoS mogą być mniej szkodliwe lub nawet całkowicie obsługiwane przez określone mechanizmy obronne o wąskim zakresie. Na przykład pliki cookie TCP SYN mogą eliminować powodzie TCP SYN, które wykorzystują fałszowanie adresów IP. Inną godną uwagi ochroną jest BCP 38 (znany również jako filtrowanie ruchu przychodzącego) przed fałszowaniem adresów IP. Ta obrona koduje zakres adresów przypisanych do danej sieci. Kiedy ruch opuszcza tę sieć, ochrona usuwa wszystkie pakiety, które nie zawierają adresu z przypisanego zakresu. Podobnie, gdy ruch wchodzi do tej sieci, ochrona usuwa wszystkie pakiety, które niosą adres z przydzielonego zakresu. BCP 38 poważnie ogranicza zatem zdolność sieci do fałszowania.

Istniejące i przyszłe badania

DDoS stanowi problem od końca XX wieku, dlatego zaproponowano wiele sposobów obrony. Niektóre mechanizmy obronne skupiają się tylko na jednym typie ataku, takim jak ataki typu TCP SYN flood lub ataki z odbiciem DNS, podczas gdy inne starają się rozwiązać problem w szerszym zakresie. Ogólnie rzecz biorąc, bardziej skoncentrowana i prosta obrona miała tendencję do łatwiejszego przejścia do praktyki niż szeroka obrona. Na przykład pliki cookie TCP SYN są szeroko stosowane i domyślnie włączone w nowoczesnych systemach operacyjnych. Ponadto wiele sieci przyjęło BCP 38 do zapobiegania fałszowaniu. Główną przeszkodą we wdrażaniu szerszych zabezpieczeń w praktyce są rozległe zmiany, których te zabezpieczenia wymagają w obecnych protokołach lub infrastrukturze routerów. Zmiany te są trudne do wdrożenia bez szerokiego wsparcia społeczności operatorów internetowych i dostawców.



Powrót

DNS (System nazw domen)



System nazw domen (DNS) to podstawowy system translacji nazw używany w publicznym Internecie. Właściwie mówiąc, DNS odnosi się do dwóch odrębnych, ściśle powiązanych pojęć. Pierwszym z nich jest protokół DNS, który służy do tłumaczenia nazw czytelnych dla człowieka na adresy protokołu internetowego (IP) dla określonych hostów sieciowych. Adresy są następnie wykorzystywane przez sieć do transmisji danych do upragnionego hosta. Ten proces nazywa się rozdzielczością i jest często uważany za funkcjonalnie podobny do konwencjonalnej książki telefonicznej. Drugi odnosi się do określonej implementacji protokołu DNS, który jest uznawany przez zdecydowaną większość Internetu za autorytatywną implementację DNS i jest używany przez większość hostów internetowych na całym świecie. To główne, ogólnoświatowe wdrożenie DNS jest nadzorowane przez Internet Corporation for Assigned Names and Numbers (ICANN) i jest określane tutaj jako system DNS ICANN. W tym wpisie omówiono historię, zarządzanie i funkcjonowanie DNS, a także niektóre wyzwania stojące przed systemem.

Historia DNSów

Kiedy Internet był siecią agencji zaawansowanych projektów badawczych, rozpoznawanie nazw zapewniała tekstowa baza danych zawierająca nazwę każdego systemu i odpowiadające mu informacje o sieci. Ten plik mógłby zostać pobrany przez dowolnego hosta sieciowego z Centrum Informacji Sieciowej Stanford Research Institute. Protokół został nazwany HOSTS.TXT od nazwy pliku bazy danych. Sieć rozwijała się szybko, zwłaszcza po przejściu sieci Agencji Zaawansowanych Projektów Badawczych do Internetu. Wraz z rozwojem tego scentralizowanego systemu pojawiało się wiele problemów, m.in. brak redundancji. Koszty przepustowości, zaostrzone przez wprowadzenie zwiększonego ruchu w sieci, częściowo z powodu ulepszonych protokołów transmisji, takich jak TCP/IP (Transmission Control Protocol/Internet Protocol), również stawały się zaporowe. Potrzebny był inny system, który rozwiązałby te problemy, był rozszerzalny i lepiej odzwierciedlał dominujący model zarządzania siecią rozproszoną. Chociaż istniało już wiele systemów, takich jak XEROX Grapevine, integracja większości z nich została uznana za niepraktyczną. W związku z tym należało opracować nowy protokół. Wstępne specyfikacje były pierwotnie dostępne w 1983 r. i zostały odzwierciedlone w publikacji dokumentów Request for Comment (RFC) 882 i 883. Do 1985 r. zastosowanie eksperymentalne szybko stało się praktycznym zastosowaniem, co zaowocowało rozwojem oprogramowania Berkeley Internet Name Domain, które nadal być główną opcją oprogramowania DNS. Ostatecznie DNS stał się de facto systemem translacji nazw używanym przez większość Internetu. W 1987 r. opublikowano kompletną, formalną specyfikację podstawowego protokołu DNS w dokumentach RFC 1034 i 1035. Projekt umożliwił utworzenie rozproszonej, zdecentralizowanej bazy danych, która mogłaby dostosowywać się do stosunkowo szybkich zmian. Pomogło to również zapewnić akceptowalną wydajność i środowisko, które można było rozszerzyć w celu zaspokojenia przyszłych potrzeb. System HOSTS.TXT pozostawał w ograniczonym zakresie używany przez wiele lat i nadal jest używany do kilku niszowych celów, takich jak określanie określonego rozpoznawania nazw niezależnych od systemów zewnętrznych na określonym hoście. Internet, a co za tym idzie DNS, szybko się rozwijał. DNS był pierwotnie nadzorowany przez Centrum Informacji Sieciowej Stanford Research Institute, które w 1993 roku przekształciło się w InterNIC pod kierownictwem National Science Foundation. Organ ten został przeniesiony z Uniwersytetu Stanforda do Network Solutions, Inc. W 1998 roku główna administracja techniczna DNS została przeniesiona do ICANN, prywatnej organizacji non-profit utworzonej w celu wspierania podstawowych internetowych usług administracyjnych. Ta organizacja wykonuje te funkcje na podstawie umowy z National Telecommunications & Information Administration (NTIA), która ostatecznie kontroluje administrację DNS i sama jest częścią Departamentu Handlu Stanów Zjednoczonych. Dodatkowe funkcje DNS są dostarczane przez firmę Veri-Sign, której NTIA zleciła kontrolę pliku strefy głównej, kluczowego fragmentu danych dla funkcji DNS na najwyższym poziomie. Chociaż Stany Zjednoczone nie mają określonej ustawowej ani technicznej kontroli nad całym Internetem, zachowują de facto kontrolę nad wieloma jego krytycznymi funkcjami, dostarczając usługi ogólnie uznawane przez resztę świata. NTIA ogłosiła w 2009 roku, że jej ostatecznym zamiarem jest przekazanie kontroli nad systemem organizacji międzynarodowej. Proces trwa od początku 2016 r.

Zarządzanie Internetem i DNS

Zarządzanie Internetem jest na ogół skomplikowanym tematem, który zmienia się wraz z wymaganiami technicznymi i siłami politycznymi. Biorąc pod uwagę deklarowany zamiar NTIA, od 2016 r. Zarządzanie DNS jest w stanie zmian. Mimo to funkcje administracyjne nadal działają niezawodnie, co jest niezwykle ważne ze względu na funkcję koordynacyjną w zasadniczo zdecentralizowanej architekturze Internetu. Istnieją jednak obawy wśród niektórych zainteresowanych stron, czy kolejne jednostki nadzorcze będą w stanie nadal niezawodnie obsługiwać DNS w przyszłości. Od 2016 r. ICANN kontroluje "root" lub podstawę hierarchii DNS ICANN, a także poziom znajdujący się tuż pod nią, składający się z domen najwyższego poziomu (TLD). Obejmuje to ogólne domeny TLD (gTLD), takie jak .com i .org. Istnieją również krajowe domeny TLD (ccTLD). Są one nadzorowane przez Internet Assigned Numbers Authority, dział ICANN. Techniczne funkcje administracyjne zarówno dla gTLD, jak i ccTLD są zlecane podwykonawcom poszczególnym organizacjom i firmom znanym jako operatorzy rejestru. ICANN odpowiada również za zawieranie umów z rejestratorami. Rejestratorzy to organizacje, które umożliwiają konsumentom rejestrowanie nazw domen, takich jak google.com lub facebook.com, które są nazywane nazwami domen drugiego poziomu (SLD). Tradycyjnie tworzenie nowych domen gTLD było rzadkie i bardzo ograniczone, a przed przejęciem kontroli przez ICANN istniało tylko osiem, ale znaczny popyt spowodował zmiany w polityce. W 2011 roku ubieganie się o gTLD stało się znacznie łatwiejsze i wiele z nich zostało dodanych. Niektóre z tych gTLD mogą być ograniczone do witryn internetowych spełniających określone kryteria, takie jak zaangażowanie w określoną branżę lub określoną lokalizację geograficzną. Na przykład miasto może ubiegać się o domenę gTLD, taką jak ".newyork" lub ".losangeles". Ponadto istnieją tak zwane pseudo-TLD, które są używane w nieformalnym nazewnictwie lub w systemach, które w jakiś sposób rozszerzają lub zastępują DNS ICANN, takie jak .onion lub .i2p. Jednak pseudo TLD nie ma oficjalnego ani technicznego charakteru wsparcia ze strony ICANN DNS, chociaż w pewnym momencie może stać się zwykłą gTLD. Jako całość DNS tworzy zdecentralizowaną, hierarchiczną bazę danych o strukturze drzewa, zarządzaną przez systemy komputerowe zwane serwerami nazw. Hierarchię można postrzegać na dwa podstawowe sposoby: (1) jako domeny i (2) jako strefy. Domena to dowolna część hierarchii DNS, która została delegowana do określonej jednostki zarządzającej. Domena może być podzielona na różne podmioty zarządzające, ale subdomeny są nadal uważane za ostatecznie część ich domeny nadrzędnej. Strefa to część hierarchii DNS w domenie, której zarządzanie operacyjne zostało delegowane do autorytatywnego serwera nazw. Strefę można podzielić na podstrefy, z których każda ma własny serwer nazw na niższym poziomie w hierarchii. W przeciwieństwie do domeny, strefa nie obejmuje hostów w żadnych podstrefach, które może mieć, ale zamiast tego deleguje kontrolę nad nazwami tych hostów do serwera podstrefy. Domeny są bardziej zorientowane na organizację i użytkowanie przez ludzi, podczas gdy strefy są bardziej zorientowane na techniczną konfigurację Funkcjonowanie DNS Funkcja DNS obejmuje kilka typów systemów. Resolwery to klienci, którzy wysyłają zapytania i odbierają odpowiedzi, zwykle w celu rozpoczęcia operacji sieciowych. Istnieją dwa typy resolwerów. Programy do rozpoznawania nazw pośredniczących wysyłają zapytania do DNS w celu uzyskania informacji i czekają na odpowiedź. Rekurencyjne programy tłumaczące obsługują żądania od programów tłumaczących skróty i przechodzą przez hierarchię DNS. Prawie każda aplikacja DNS użytkownika końcowego będzie resolwerem lub skorzystaj z usług resolwera. Serwery nazw są, jak wspomniano wcześniej, rodzajem hostów sieciowych, które wykonują prace administracyjne dla DNS i mogą świadczyć kilka usług w zależności od ich konfiguracji. Często działają one nie tylko jako rekursywne programy rozpoznawania nazw dla niektórych komputerów, ale mogą również działać jako autorytatywne serwery dla jednej lub więcej stref. Domeny mogą być podzielone na jedną lub więcej subdomen, zwykle odzwierciedlone w ich nazwie. Każda domena i host mają nazwę z etykietą. Etykiety są oddzielone kropkami. Są one zorganizowane w taki sposób, aby reprezentowały hierarchię subdomen, z etykietą najniższego poziomu na skrajnej lewej pozycji. Na przykład "target.lab.example.com" to "cel" hosta w subdomenie "lab" w domenie "example" w domena "com". Gdy nazwa ma etykietę hosta po lewej stronie i TLD po prawej stronie, mówi się, że jest to w pełni kwalifikowana nazwa domeny (FQDN) i jednoznacznie identyfikuje hosta w całej hierarchii DNS. Każda domena w hierarchii jest częścią strefy nadzorowanej przez autorytatywny serwer nazw. Strefy mogą zawierać wiele poziomów hierarchii lub delegować uprawnienia do podstref. Na przykład w przypadku "target.lab.example.com" subdomena "lab.example.com" może znajdować się w tej samej strefie, co domena "example.com", lub może być częścią podstrefy w ramach strefy odpowiedzialnej za "example.com". Kiedy wysyłane jest zapytanie do autorytatywnego serwera nazw, odpowiada on adresem IP żądanego hosta, jeśli jest dostępny, odesłaniem do odpowiedniego serwera nazw podstrefy, jeśli taki istnieje, lub błędem w innym przypadku. Autorytatywny serwer nazw dla określonej strefy sprawuje ostateczną kontrolę nad translacją nazw w tej strefie. Pojedynczy serwer może nadzorować wiele stref. Jednak po zapytaniu o określoną strefę odpowie tylko w odniesieniu do tej strefy. Serwer niekoniecznie musi też należeć do nadzorowanej przez siebie strefy. Dzięki temu podmioty zewnętrzne mogą zarządzać wieloma strefami, na przykład gdy rejestratorzy świadczą usługi DNS. Na szczycie hierarchii znajdują się strefy TLD. TLD, takie jak ".com" lub ".org", znajdują się na końcu każdej nazwy FQDN. Serwer główny znajduje się na szczycie hierarchii. Te specjalne serwery kierują zapytania do odpowiedniego serwera nazw TLD. Serwery TLD następnie wysyłają odwołania do odpowiednich serwerów nazw stref SLD, które są nadzorowane przez wiele indywidualnych organizacji oraz konsumenci, którzy niekoniecznie są bezpośrednio powiązani z jakimkolwiek głównym organem nadzorującym sieć. Należy pamiętać, że w przypadku domen ccTLD etykiety mogą zawierać kilka poziomów geograficznych i jako takie SLD dla tych domen może nie być dosłownie drugą etykietą w nazwie, na przykład "przykład. ca.us", gdzie "przykład" to SLD. Katalog główny, gTLD i ccTLD to główne techniczne części hierarchii DNS, za które bezpośrednio odpowiada ICANN. Większość zapytań DNS ma takie samo ogólne zachowanie. Załóżmy, że do programu rozpoznawania nazw DNS w oprogramowaniu sieciowym klienta jest wysyłane zapytanie o nazwę FQDN. Resolwer najpierw sprawdza swoją lokalną pamięć podręczną, aby sprawdzić, czy adres IP już tam jest. Jeśli nie zostanie znaleziona wystarczająca odpowiedź, zapytanie jest wysyłane do serwera nazw działającego jako rekursywny program rozpoznawania nazw dla tej maszyny. Serwer nazw sprawdza własną pamięć podręczną. Jeśli nie zostanie znaleziona odpowiednia odpowiedź, rozstrzygający serwer nazw wysyła zapytanie do serwera głównego. Serwer główny zwraca odesłanie do odpowiedniego serwera TLD. Serwer nazw programu tłumaczącego następnie wysyła zapytanie do serwera TLD o nazwę SLD i jest kierowany do odpowiedniego serwera nazw. Hierarchia stref i serwerów nazw jest przestrzegana, przy czym każdy serwer nazw odpowiada adresem hosta lub skierowaniem, dopóki host nie zostanie znaleziony lub nazwa nie zostanie uznana za nieprawidłową. Jeśli zapytanie powiedzie się w dowolnym momencie, program tłumaczący otrzyma adres IP. Jeśli nie - na przykład zapytanie dotyczące SLD, które nie istnieje - zwracany jest błąd. Oprogramowanie aplikacji może korzystać z odpowiedzi resolwera i (miejmy nadzieję) prawidłowo wykorzystywać informacje, zwykle używając adresu IP do nawiązania bezpośredniego połączenia. Zapytania DNS mają jednak pewną elastyczność. Wynika to częściowo ze zdecentralizowanego charakteru DNS, co oznacza - teoretycznie - każdy system może być serwerem nazw, programem tłumaczącym lub jednym i drugim.Na przykład program może sam chcieć obsłużyć wszystkie interakcje DNS, a tym samym działać jako własny rekurencyjny program rozpoznawania nazw. Jako inny przykład, program rozpoznawania nazw może być wewnętrznie skonfigurowany do rozpoznawania określonej nazwy domeny na wstępnie wybrany adres, w którym to przypadku w ogóle nie można skontaktować się z zewnętrznymi zasobami DNS. Ze względów bezpieczeństwa można określić, że należy używać tylko autorytatywnych odpowiedzi serwera nazw, całkowicie unikając pamięci podręcznych. Rozszerzenia DNS, które zapewniają dodatkowe funkcje, są ogólnie szczegółowo opisane w odpowiednich dokumentach RFC. Chociaż DNS jest standardem rozpoznawania nazw we współczesnym Internecie, nie oznacza to, że musi w pełni spełniać wszystkie wymagania, jakie mogą być stawiane. W rezultacie bezpieczeństwo i integralność stanowią poważne zagrożenie dla jego przyszłości. Ponadto, wraz ze wzrostem wpływu Internetu, DNS zyskał na znaczeniu w światowej polityce, handlu i ogólnej komunikacji. W związku z tym polityka, która go utrzymuje, budzi coraz większe zainteresowanie wszystkich zainteresowanych stron. Możliwe, że w pewnym momencie implementacja DNS ICANN lub sam protokół DNS mogą zostać odrzucone przez niektóre lub wszystkie z tych podmiotów na korzyść innego podejścia do tłumaczenia nazw. W tym miejscu omówiono niektóre potencjalne problemy i bieżące wyzwania związane z systemem DNS.

Wyzwania DNS

Można powiedzieć, że wiele z największych wyzwań stojących obecnie przed DNS dotyczy jego integralności jako spójnego i godnego zaufania systemu, podważając jego podstawową misję. Istnieją zarówno polityczne, jak i techniczne środki zagrażające tej integralności. Zagrożenia te przybierają różne formy. Prawdopodobnie najbardziej znanym zagrożeniem są ataki na podstawowe zabezpieczenia techniczne. DNS nie został zaprojektowany z myślą o bezpieczeństwie, co skutkuje lukami w zabezpieczeniach, które są wykorzystywane. Jednym z dobrze znanych przykładów jest zatruwanie pamięci podręcznej. W przypadku zatruwania pamięci podręcznej pamięć podręczna serwera nazw jest zmieniana przez atakującego. W rezultacie zawarte w nim dane zawierają błędny adres IP, który jest przekazywany do wysyłających zapytania programów tłumaczących. Powoduje to błędne przekierowanie użytkowników do złośliwych systemów, takich jak strony internetowe, które wprowadzają złośliwe oprogramowanie. Jest to często część innego ataku, takiego jak fałszowanie DNS, w którym złośliwy system monitoruje zapytania DNS, fałszuje pakiet danych i przekazuje celowi fałszywą odpowiedź rzekomo z autorytatywnego serwera nazw, zanim prawdziwy autorytatywny serwer nazw będzie mógł odpowiedzieć. Możliwe są również inne ataki, w tym kompromitacja i manipulowanie samym autorytatywnym serwerem nazw. Jednak niektóre techniczne zagrożenia dla DNS są bardziej ogólne. Ataki typu "odmowa usługi" są powszechnym i wyniszczającym zagrożeniem dla większości sieci Internet. Zwykle przybierają one formę rozproszonego ataku typu "odmowa usługi", w którym tysiące komputerów zainfekowanych złośliwym oprogramowaniem bombarduje docelowy serwer bezużytecznymi informacjami. Sama wielkość przepustowości powoduje, że cel nie jest w stanie obsłużyć legalnego ruchu. W przypadku DNS może to być szczególnie wyniszczające, ponieważ wyłączenie intensywnie używanego serwera nazw może mieć wpływ na wielu użytkowników na poziomie infrastruktury, w zależności od tego, jakie obowiązki spełnia. Serwery TLD i root są szczególnie kuszącymi celami ze względu na implikacje ogólnoświatowe, ale ingerencja tam rzadko jest skuteczna, częściowo ze względu na ich solidną infrastrukturę. Jednak we właściwych okolicznościach możliwe jest, że znaczna część Internetu może nie być w stanie kierować większością ruchu internetowego z powodu tego typu zakłóceń. Inne zagrożenia bezpieczeństwa mogą nie dotyczyć bezpośrednio infrastruktury DNS, ale raczej bezpośrednio atakować systemy klienckie. Na przykład niesławne złośliwe oprogramowanie DNSChanger, które było przedmiotem szczególnej troski FBI w Stanach Zjednoczonych, zmieniało ustawienia sieciowe na komputerze klienckim jako kolejna forma przekierowania DNS. Zapytania były wysyłane do serwerów nazw kontrolowanych przez autorów szkodliwego oprogramowania, umożliwiając im przekierowanie ruchu sieciowego w tym systemie. Właściwie zastosowane, mogłoby to zostać wykorzystane do przechwycenia większości ruchu od ofiary lub sfałszowania witryn zawierających poufne informacje, takich jak banki. Kradzież tożsamości, oszustwa i dalsza dystrybucja złośliwego oprogramowania były łatwe do osiągnięcia. Na szczęście istnieją sposoby radzenia sobie z zagrożeniami dla DNS. Wybitnym przykładem są rozszerzenia zabezpieczeń DNS (DNSSEC). DNSSEC to rozszerzenie DNS, które dodaje uwierzytelnianie do procesu w celu potwierdzenia, że odpowiadający system jest tym, za co się podaje. W sposób podobny do uwierzytelniania strony internetowej, podpisy kryptograficzne i certyfikaty są używane do potwierdzania odpowiedzi, zapobiegając fałszywemu podszywaniu się przez złośliwe serwery nazw jako autorytatywny serwer dla określonych stref. Niezgodność podpisu wskazuje na niewiarygodną odpowiedź, która jest ignorowana i odrzucana. Niemniej jednak DNSSEC jest używany tylko przez niektóre systemy DNS ICANN. Ponadto bieżące problemy, w tym niektóre typowe dla wielu rodzajów oprogramowania, takie jak błędy zagrażające bezpieczeństwu, mogą stwarzać dalsze możliwości manipulacji i zakłóceń. W takich przypadkach mogą być wymagane bardziej rutynowe poprawki, takie jak łatanie oprogramowania serwera. Ponadto oprogramowanie chroniące przed złośliwym oprogramowaniem może pomóc komputerom klienckim w rozwiązywaniu wielu problemów związanych z bezpieczeństwem, w tym w manipulowaniu ustawieniami DNS. Chociaż te rozwiązania są niedoskonałe, pokazuje to, że bezpieczeństwo techniczne DNS nie jest sytuacją beznadziejną. Wyzwania dotyczące uczciwości mogą również pochodzić ze źródeł politycznych lub rządowych. Wiele krajów wyraziło zainteresowanie zmianą serwerów DNS znajdujących się w ich granicach w ramach praktyki znanej jako przekierowanie DNS. Można to wykorzystać na wiele sposobów, w tym do egzekwowania prawa, cenzury i dystrybucji złośliwego oprogramowania. Obejście tego schematu jest możliwe przy użyciu alternatywnych serwerów nazw, na które nie ma wpływu ten sam system, ale jest to trudne dla tych, którzy nie wiedzą, jak korzystać z tych serwerów lub je znaleźć. W przypadku wykrycia może również ponieść konsekwencje prawne. Jednak zmiana usługi DNS nie wymaga działań ze strony organów rządowych. Poszczególni rejestratorzy, dostawcy usług internetowych i inne podmioty są w stanie w pewnym stopniu modyfikować zapytania pod ich wpływem. Mogą być motywowane interesami zewnętrznymi do zmiany swoich usług lub być spowodowane przez pracowników nadużywających ich dostępu do systemu. Utrata uczciwości nie musi bezpośrednio wiązać się z manipulacją lub oszustwem; niektóre metody mogą nadużywać DNS dokładnie tak, jak jest. Niedawne zmiany w światowych standardach DNS pozwalają nazwom domen na używanie znaków Unicode w etykietach, co pozwala na używanie symboli innych niż łacińskie. Chociaż zapewnia to znaczną swobodę, niesie ze sobą również ryzyko. W szczególności wprowadza możliwość ataku z użyciem homografu Internationalized Domain Name. W tym ataku adres jest zapisywany przy użyciu znaków Unicode, które przypominają litery łacińskie (na przykład "m"). Jest to następnie wykorzystywane do stworzenia nazwy domeny wizualnie podobnej do innej zaufanej nazwy. Ludzki obserwator może nie być w stanie łatwo rozpoznać tego rozróżnienia. Złośliwy aktor może starannie stworzyć nazwę domeny i używać jej w sposób, w którym bardzo trudno jest zauważyć jakikolwiek problem, dopóki nie jest za późno. Użytkownik może zostać wprowadzony w błąd, wierząc, że uzyskuje dostęp do jednego systemu, ale zamiast tego uzyskuje dostęp do innego, narażając go na różne przestępstwa i ataki. Niektóre zagrożenia DNS nie atakują integralności, ale faktycznie ją wykorzystują. Niewłaściwa konfiguracja na niektórych serwerach nazw może umożliwić intruzom zebranie poufnych informacji o sieci docelowej. Oprogramowanie do podsłuchiwania może być również wykorzystywane do monitorowania interakcji serwera DNS i określania dużej części aktywności sieciowej systemu docelowego, co może prowadzić do poważnych naruszeń prywatności. Możliwe są również ataki ukrytymi kanałami, takie jak tunelowanie DNS, które wykorzystuje serwery nazw jako część prowizorycznego systemu serwerów proxy do przesyłania danych, często w celu obejścia lokalnych ograniczeń sieciowych. Potencjalna konkurencja, zarówno istniejąca, jak i hipotetyczna, może również spowodować wstrząs w istniejącym DNS. Chociaż jest mało prawdopodobne, że DNS zostanie zastąpiony w dającej się przewidzieć przyszłości, może się to zmienić, jeśli system nie będzie w stanie sprostać pojawiającym się zmianom lub jeśli inne wyzwania, takie jak obniżona integralność, poważnie utrudnią jego użyteczność. Byłoby to technicznie trudne, ponieważ może wymagać przepisania dużej ilości oprogramowania sieciowego i prawdopodobnie sprawić, że niektóre obecne urządzenia sieciowe staną się bezużyteczne. DNS nie jest jednak związany z samym adresem IP. Powolna konwersja z protokołu IP w wersji 4 na protokół IP w wersji 6 może faktycznie stanowić okazję do wystąpienia tych zmian. Chociaż protokół IP w wersji 6 już istnieje i zapewnia dodatkowe bezpieczeństwo dzięki ulepszeniom protokołów, ogromny wzrost przestrzeni adresowej, jaką zapewnia, może skutkować innowacjami, do których obecny system nie jest przystosowany. Jest to szczególny problem związany z pojawieniem się Internetu rzeczy. Internet rzeczy sprawia, że nawet najzwyklejsze przedmioty, takie jak sprzęt AGD i zabawki, mogą być szeroko podłączone do Internetu, co stwarza duże możliwości dla nowych funkcji. Jeśli okaże się, że DNS jest pod jakimś względem ograniczony dla tych potencjalnych aplikacji, prawdopodobnie standardy zostaną zaktualizowane. Jeśli jednak okaże się to niewystarczające lub będzie działać zbyt wolno, Internet może przejść do nowego standardu, prawdopodobnie w dłuższym okresie czasu. Kwestie nietechniczne mogą motywować odejście od DNS, ponieważ naciski polityczne i rządowe wzbudziły zainteresowanie możliwymi systemami alternatywnymi lub następcami. Niektóre popularne propozycje dotyczące tego tematu opierają się na modelu działania peer-to-peer. To jeszcze bardziej zdecentralizowałoby sieć w znacznie większym stopniu, ułatwiając obejście przepisów uznanych za niepożądane. Pomimo potencjalnych zalet podejście to ma szereg potencjalnych wad, szczególnie związanych z bezpieczeństwem i niezawodnością. Bardziej ogólnym problemem dotyczącym rozwiązań alternatywnych jest ilość wymaganych modyfikacji oprogramowania klienckiego. Niektóre mogą nadawać się do użytku z istniejącym oprogramowaniem resolwera z niewielkimi lub żadnymi modyfikacjami, ale inne mogą wymagać znacznych zmian, przez co ich potencjalna adopcja będzie problematyczna i prawdopodobnie niepraktyczna. Inne alternatywy mogą nie wymagać tak głębokiej zmiany systemowej. Możliwa jest alternatywna implementacja DNS, która wykorzystuje istniejący protokół i pozwala większości, jeśli nie wszystkim, oprogramowaniu sieciowemu i urządzeniom wprowadzać niewiele zmian lub nie wprowadzać ich wcale. Te alternatywy dla implementacji ICANN DNS są zwykle określane jako alternatywne korzenie. W Internecie dostępnych jest już wiele alternatywnych korzeni. Są one niezwiązane z ICANN DNS, pomimo ich współistnienia z nim i są nadzorowane i zarządzane przez niezależne organizacje. Zmiana między systemami DNS może być tak prosta, jak zmiana jednego lub dwóch adresów IP w konfiguracji oprogramowania sieciowego. Jak dotąd alternatywne korzenie są zwykle stosunkowo małe i były używane tylko w ograniczonym zakresie. W pewnym momencie co najmniej jeden alternatywny katalog główny, Open RSC, był wystarczająco duży, aby złożyć propozycję zastąpienia głównego katalogu głównego ICANN, ale był wciąż bardzo mały w porównaniu. Niemniej jednak, jeśli zarządzanie DNS zmieni się w sposób, któremu sprzeciwia się duża część Internetu, może dojść do schizmy implementacji, a nawet do całkowitego zastąpienia ICANN DNS w drodze ogólnego konsensusu. Może to mieć konsekwencje wykraczające poza sam DNS, aw skrajnej sytuacji może doprowadzić do znacznej izolacji części Internetu. DNS to jedna z najbardziej wpływowych technologii sieciowych na świecie, z której codziennie korzystają miliardy urządzeń. Nie oznacza to jednak, że już zawsze będzie tak ważny. Nie jest pewne, czy świat będzie nadal miał jedną główną implementację DNS jako światowy standard tłumaczenia nazw internetowych, czy też państwa narodowe i inne podmioty polityczne i gospodarcze stworzą zamiast tego kilka głównych implementacji DNS zgodnie ze swoimi interesami. Nie wiadomo również, jak w przypadku wielu nowoczesnych systemów sieciowych, jak dobrze DNS może zachować integralność i zwalczać zagrożenia bezpieczeństwa w dłuższej perspektywie. Jednak pomimo swoich problemów, DNS okazał się protokołem dynamicznym i wydajnym. Będzie nadal służyć Internetowi jako niezawodny system tłumaczenia nazw, z ogólnoświatowym wykorzystaniem implementacji nadzorowanej przez ICANN w dającej się przewidzieć przyszłości.



Powrót

Doxing



Termin doxing lub doxxing odnosi się do często nielegalnego działania polegającego na używaniu narzędzi i zasobów w Internecie do wyszukiwania i uzyskiwania informacji umożliwiających identyfikację osoby na temat podmiotu, rządowej agencji, celebryty, dyrektora korporacji, a nawet zwykła osoba. Ten wpis dalej opisuje doxing i jego legalność, motywacje i konsekwencje doxingu oraz kilka głośnych incydentów związanych z doxingiem. Następnie przygląda się narzędziom, metodologii i strategiom doxingu, które osoby i firmy mogą wykorzystać do złagodzenia doxingu. Doxing jest często używany jako środek ułatwiający kradzież tożsamości, niszczący reputację, wyłudzający pieniądze lub zdobywający informacje o osobach w ramach działań hakerskich. Jest to stosunkowo nowo wymyślone słowo, które wywodzi się ze słowa dokumenty, skróconej potocznej wersji słowa dokumenty. Doxing to proces badawczy i dochodzeniowy polegający na pozyskiwaniu prywatnych lub trudnych do znalezienia informacji o osobie za pomocą wielu zasobów internetowych w celu generowania często szkodliwych informacji poprzez proces kompilacji, analizy i wnioskowania informacji. Czynności doxingowe w Stanach Zjednoczonych, które mają na celu zagrożenie bezpieczeństwa lub zachęcanie do ataków na osobę, podlegają karze na mocy 18 USC § 119. Istnieje również szereg przepisów federalnych i stanowych, których celem jest ochrona pracowników rządowych. W przypadku osób, które nie są powiązane z rządem, doxing podlega różnym stanowym przepisom karnym, które obejmują również prześladowanie, nękanie i groźby osobiste.

Rodzaje docelowych informacji

Doxing obejmuje proces rozpoznawczy mający na celu ujawnienie wszystkich rodzajów danych osobowych, w tym informacji umożliwiających identyfikację osób. Przykłady obejmują między innymi nazwiska prawne, pseudonimy, daty urodzenia, numery paszportów, numery ubezpieczenia społecznego, dane osobowe członków najbliższej rodziny i przyjaciół, informacje dotyczące zdrowia, zdjęcia publikowane w mediach społecznościowych lub na stronach firmowych, aktualne i poprzedni status zatrudnienia, różne rodzaje informacji kontaktowych, stopnie naukowe, uczęszczane szkoły, certyfikaty zawodowe i członkostwa, hobby oraz informacje bankowe, podatkowe, hipoteczne i inne informacje związane z kredytem.

Motywacje i konsekwencje doxingu

Chociaż doxing pociąga za sobą negatywną konotację, ponieważ jest często wykorzystywany przez element przestępczy, metodologia badawcza stosowana w atakach doxingowych jest podobna do metodologii stosowanej przez dziennikarzy śledczych, policję, personel ochrony i śledczych ds. czyny przestępcze lub przeprowadzanie dogłębnych kontroli bezpieczeństwa w tle. Personel ds. bezpieczeństwa systemów informatycznych może wykorzystywać te techniki do przeprowadzania oceny zagrożeń związanych z cyfrowymi śladami różnych kluczowych pracowników i kadry kierowniczej. Złowrogie motywacje do doxingu obejmują między innymi haktywizm, dyskredytowanie osób, wyłudzanie informacji, poszukiwanie współpracy lub pieniędzy od osób fizycznych, szpiegostwo oraz przypadkowe lub ukierunkowane prześladowanie. Konsekwencje ataków doxingowych obejmują między innymi utratę reputacji lub zawstydzenie publiczne, kradzież tożsamości, zrujnowany profil kredytowy, utratę zatrudnienia, odszkodowanie pieniężne, postępowanie karne lub cywilne, rozpad małżeństwa i utratę wyboru na stanowisko publiczne , aby wymienić tylko kilka.

Głośne ataki związane z doxingiem

Wrażliwe informacje zebrane w wyniku różnych ataków hakerskich są często publikowane na różnych stronach, takich jak Pirate Bay czy Pastebin. Takie witryny oferują bardzo cenne zasoby eksploracji danych do celów doksowania, a także innych rodzajów cyberprzestępczości. Głośne ataki związane z doxingiem obejmują następujące. Hack Gawkera. W grudniu 2010 r. grupa haktywistów Gnosis przesłała plik zawierający loginy do serwerów Gawker Media oraz nazwy użytkowników i hasła pracowników po przejęciu witryny. Nazwy użytkowników, adresy e-mail i hasła ponad miliona zarejestrowanych użytkowników witryny zostały również opublikowane online. Operacja Hiroszima. W grudniu 2011 roku grupa hakerska Anonymous wydała oświadczenie online wzywające wszystkich "d0xerów, hakerów, phreaków i inżynierów społecznych" do wzięcia udziału w operacji Hiroszima poprzez uzyskanie jak największej ilości informacji na temat różnych agencji rządowych, partii politycznych, korporacji publicznych i funkcjonariusze organów ścigania, próbując zaprotestować przeciwko ustawie Stop Online Piracy. Zebrane informacje, które obejmowały informacje z wielu czatów, forów internetowych, Twittera, Myspace, MocoSpace i YouTube, zostały następnie ujawnione w Internecie do 1 stycznia 2012 r. Osoby, które zostały odurzone, to burmistrz Michael Bloomberg, senator Orrin Hatch , kongresman Adam Schiff i komisarz nowojorskiej policji Raymond Kelly, podczas gdy wydziały policji w Bostonie, Oakland i Long Beach również zostały zhakowane. Biuro Statystyki Sprawiedliwości. W maju 2012 r. grupy hakerskie Anonymous i AntiS3curityOPS ukradły 1,7 GB poufnych danych z Bureau of Justice Statistics. Został udostępniony publicznie w celach doxingu i innych cyberprzestępstw jako plik BitTorrent w Pirate Bay, w ruchu solidarnościowym wspierającym protesty przeciwko Organizacji Traktatu Północnoatlantyckiego w Chicago, Illinois.

Narzędzia i metodologia doxingu

Nie istnieją żadne oficjalne ramy prowadzenia działalności doxingowej, ze względu na jej często nielegalny charakter. Jednak, jak każdy proces dochodzeniowy, doxer musi przyjąć zorganizowane, ale elastyczne podejście do gromadzenia i kompilowania informacji. Podobnie jak w przypadku większości procesów dochodzeniowych, często najlepiej jest zacząć od ogólnych informacji o celu, a następnie przejść do bardziej szczegółowych informacji. Zebrane informacje muszą być udokumentowane i łatwo dostępne w celu odniesienia, ponieważ głównym narzędziem udanego ataku doxingowego jest dedukcyjno-indukcyjny proces wnioskowania znany jako atak wnioskowania. Atak wnioskowania zasadniczo odnosi się do zdolności atakującego do wnioskowania lub dedukowania faktów, które nie zawsze są wyraźnie wymienione lub w inny sposób oczywiste w danych zebranych podczas wyszukiwania. Na przykład doxer może ustalić fakt, że cel jest żonaty z określoną osobą, ale dalsze poszukiwania w mediach społecznościowych skutkują odkryciem zdjęć z mową ciała sugerującą romantyczny związek z inną osobą, a nawet wpisem doxingu celuj w internetowym serwisie randkowym. Z tego odkrycia atakujący wywnioskuje, że ofiara doxingu jest prawdopodobnie zaangażowana w romans pozamałżeński. W związku z tym doxer może odpowiednio dostosować swoje podejście, aby uzyskać dodatkowe obciążające dowody na to, że ofiara rzeczywiście jest zaangażowana w romans pozamałżeński z zamiarem upublicznienia wyników, aby zawstydzić ofiarę. W najprostszej formie ataki doxingowe polegają na atakach opartych na wnioskowaniu na informacjach, które są już zamieszczone w Internecie i szeroko dostępne publicznie. Nie oznacza to jednak, że ataku doxingowego nie można dalej wzmacniać poprzez integrację innych rodzajów ataków, takich jak włamanie do laptopów, poczty e-mail lub kont baz danych lub prowadzenie bezpośrednich lub pośrednich działań inwigilacyjnych. Punktem wyjścia ataku doxingowego jest zebranie podstawowych informacji, takich jak dane dotyczące imienia i nazwiska celu, aliasów, nazw użytkowników, lokalizacji, wieku, informacji o sieciach społecznościowych i protokole internetowym, adresach e-mail i osobistych, zatrudnienie i informacje biograficzne. Podstawowe narzędzia wykorzystywane do zbierania tego podstawowego poziomu informacji o celu obejmują wyszukiwarki, takie jak Google, Bing lub Dogpile; firmowe lub osobiste strony internetowe; oraz portale społecznościowe, takie jak Facebook, LinkedIn, Flickr, Pinterest i Instagram, by wymienić tylko kilka. Istnieje również wielu usługodawców w Internecie, którzy za symboliczną opłatą gromadzą i sprzedają informacje o osobie na podstawie wyszukiwania w rejestrach publicznych. Tabela 1 zawiera częściową listę stron internetowych i narzędzi internetowych powszechnie używanych do ataków typu doxing. Obrazy cyfrowe publikowane w różnych witrynach mogą potencjalnie dostarczyć najcenniejszych informacji do ataku wnioskowania ze względu na ich metadane. Cyfrowe metadane mogą dostarczać informacji opisowych, takich jak atrybuty techniczne aparatu, jego lokalizacja GPS, data wykonania zdjęcia oraz nazwisko właściciela aparatu, które mogą służyć jako bezpośredni lub potwierdzający dowód w ataku doxingowym. Wykorzystanie systemu zarządzania osią czasu, często stosowanego przez policyjnych śledczych, może być również doskonałym narzędziem w postulowaniu i testowaniu różnych hipotez związanych z atakiem doxingowym.

Strategie łagodzenia antydoksów

Osoby oraz wszystkie organizacje prywatne i publiczne muszą mieć świadomość, że chociaż Internet jest darmowym i skutecznym sposobem dzielenia się informacjami z przyjaciółmi, rodziną i/lub klientami za pośrednictwem mediów społecznościowych, nadal należy zachować ostrożność i zdrowy rozsądek, aby ograniczyć przypadki doksowania. Jeśli chodzi o naruszenia bezpieczeństwa danych, ataki typu doxing są bardzo często łączone i uzupełniane innymi atakami, w tym włamaniami do baz danych w celu uzyskania informacji, które nie są swobodnie dostępne w Internecie. Jednak w wielu przypadkach nisko wiszące owoce - dane, które są łatwo dostępne w Internecie - są najpierw oceniane i kompilowane jako podstawowe badania lub rekonesans przed atakiem. W związku z tym istnieją strategie obejmujące publiczne wpisy osób i organizacji w Internecie, które mogą złagodzić ataki doxingu. Osoby często publikują informacje nie ze względu na ich przydatność dla potencjalnych czytelników, ale często w celu przechwalania się, krytykowania lub uzyskania zgody od połączeń internetowych i / lub społeczności internetowej. Często to właśnie tego typu posty stanowią najbardziej użyteczny materiał do ataków typu doxing. Ważne jest również, aby osoby fizyczne i podmioty zachowywały dyskrecję przy publikowaniu zdjęć w Internecie. Upewnienie się, że osoby publikujące w Internecie są świadome rodzaju publikowanych informacji, jest wyzwaniem dla organizacji. Trudno jest kontrolować posty pracowników w osobistych mediach społecznościowych, blogach i czatach. W tym zakresie jednym ze skuteczniejszych narzędzi jest stała kampania uświadamiająca i edukacyjna. Wyznaczenie może być pomocne dla organizacji , osoby lub zespołu medialnego do zarządzania ekspozycją w mediach informacyjnych, oprócz jasnych i dobrze zakomunikowanych zasad dotyczących rodzaju informacji związanych z pracą, które ich pracownicy mogą publikować online. Oprócz kontroli referencji, specjaliści ds. zasobów ludzkich muszą przeprowadzić badanie śladu cyfrowego potencjalnych kandydatów na stanowiska (zwłaszcza nadzorcze i wykonawcze), aby ocenić postawę społeczną, dojrzałość i poczucie profesjonalizmu kandydata. Wielowarstwowe podejście do łagodzenia skutków doxingu można włączyć do ogólnych programów zarządzania ryzykiem systemów informatycznych organizacji.



Powrót

Dziennikarstwo i Internet



Wzrost opinii publicznej i szybkie przyjęcie Internetu, które rozpoczęło się na początku lat 90., wywróciło do góry nogami tradycyjne amerykańskie - i globalne - dziennikarstwo na każdym poziomie. Internet zmienił sposób zbierania wiadomości i jak i gdzie publiczność i widzowie wchodzili w interakcję z wiadomościami - najpierw na komputerach stacjonarnych, potem laptopach, potem tabletach, telefonach i innych "inteligentnych" technologiach, w tym urządzeniach rzeczywistości wirtualnej. Internet skompresował cykle informacyjne w mediach, zamieniając ustalone i przewidywalne okna prezentacji w nieprzerwany wir najświeższych wiadomości i aktualizacji. Pojawiły się tysiące innych "serwisów z wiadomościami" - wiele z nich to agregatory, które bez wynagrodzenia przechwytywały treści z uznanych serwisów informacyjnych; niemało z nich było zabarwionych ideologicznie lub nawet proponowało tak zwane fałszywe wiadomości, aby przyciągnąć ruch i/lub osiągnąć cele ideologiczne. W miarę rozszerzania się cyfrowego wszechświata pojawiały się nowe platformy, które nieustannie się łączyły. Konwergencja oznaczała, że wcześniej odrębne gatunki produkcji i dystrybucji wiadomości z własnymi odrębnymi platformami - tekst, obraz, audio, wideo - zostały połączone w wszechstronną metaplatformę. Media społecznościowe dodały kolejny poziom rozpowszechniania - zwiększając przepaść między serwisami informacyjnymi a potencjalnymi płacącymi klientami oraz zaostrzając kluczowe przeszkody, z jakimi borykały się organizacje informacyjne po pojawieniu się sieci: z nielicznymi wyjątkami serwisy informacyjne nie opracowały lub nie mogły opracować wykonalnego modelu przychodów, aby dostosować się do nagłej i dramatycznej zmiany sposobu, w jaki ludzie konsumują i płacą za wiadomości, informacje i rozrywkę. W tym wpisie omówiono wczesne wysiłki organizacji informacyjnych mające na celu zaistnienie w Internecie, wpływ Internetu na organizacje informacyjne i ich odbiorców oraz oznaki, że organizacje informacyjne zaczęły dostosowywać się do zmian, jakie przyniósł Internet.

Wczesne produkty informacyjne online

Ponieważ korzystanie z Internetu rosło w zdumiewającym tempie w latach 90., tradycyjne serwisy informacyjne szybko i boleśnie odczuły jego wpływ. W pośpiechu, aby zachować aktualność i zdobyć nowe rynki internetowe, gazety i czasopisma stworzyły strony internetowe, nie zastanawiając się nad estetyką, funkcją, odbiorcami, a nawet przychodami. Witryny te zdawały się być tworzone przy założeniu, że konsumenci przyjmą produkty online, które bardzo przypominają produkty drukowane, a reklamodawcy będą automatycznie śledzić je online. Jak zauważył Mike Dillon (2015),

Do 1996 roku większość głównych gazet metropolitalnych uruchomiła strony internetowe, ale najwyraźniej niewiele myśląc o nowych możliwościach - i problemach - związanych z nową technologią, a jeśli chodzi o model przychodów, niewiele więcej niż pobożne życzenia. Do 2003 roku ponad 1500 amerykańskich gazet uruchomiło strony internetowe.

Tymczasem dostawcy usług internetowych (ISP), portale internetowe i agregatory, takie jak AOL, Netscape, Yahoo i (ostatecznie) Google, oprócz oferowania narzędzi łączności, przedstawiali internautom szeroki wybór wiadomości, informacji, rozrywki, i ciekawostki z szerokiej i wykładniczo rosnącej gamy źródeł. Podczas gdy agregacja dała regionalnym lub specjalistycznym publikacjom dostęp do nowych odbiorców, zredukowała wszystkich członków agregatu do ról drugoplanowych w narracji wydarzeń dnia kierowanej przez dostawcę usług internetowych. "Stare media", czyli tradycyjne gazety i czasopisma, nadal postrzegały się i reklamowały jako destynacje przeznaczone dla określonego rodzaju odwiedzających (ludzi zainteresowanych dziennikarstwem), ale portale internetowe funkcjonowały jak lotniska, służąc jako punkty wyjścia do niemal nieskończona ilość miejsc docelowych. Nagle reklamodawcy otrzymali szereg nowych możliwości dotarcia do docelowych odbiorców. Rozpowszechnienie wydatków na reklamę oznaczało mniej dolarów reklamowych dla wydawnictw drukowanych i internetowych, które skupiały się wyłącznie na dziennikarstwie. W latach 1999-2009, gdy przychody z reklam w gazetach spadały, całkowite roczne przychody z reklam online wzrosły z prawie 5 miliardów dolarów do prawie 25 miliardów dolarów. Niezależnie od tego, czy były one związane z uznanymi gazetami lub czasopismami, czy też były tworzone specjalnie dla sieci, produkty, które skupiały się na dostarczaniu "czucia", wiarygodności, etosu i stylu tradycyjnego profesjonalnego dziennikarstwa, nie przykuwały uwagi opinii publicznej, a przynajmniej nie przyciągały jej uwagi w wystarczającym stopniu zmusić konsumentów do wyszukiwania i płacenia za wiadomości, informacje, komentarze i rozrywkę dostarczaną przez te produkty. Warto wziąć pod uwagę, że przed nastaniem Internetu ludzie mogli kupować i konsumować produkty ze starych mediów z przyzwyczajenia lub braku wyboru. Początki Internetu odzwierciedlały pojawienie się radia w latach dwudziestych XX wieku. Podobnie jak radio siedem dekad wcześniej, Internet stanowił technologię łączenia, która oferowała stosunkowo tani i nieskomplikowany środek transportu dla obeznanych z technologią użytkowników, którzy mogli uczestniczyć zarówno jako odbiorcy, jak i nadawcy. Ograniczenia częstotliwości i nakładanie się sygnałów doprowadziły do federalnych wymagań licencyjnych dla nadawców radiowych i zakończyły wczesny okres demokratycznego, choć chaotycznego, udziału w radiu. Żaden taki niedobór nie usprawiedliwia ingerencji rządu w sieć WWW. Brak oceny zarówno zagrożenia, jak i obietnicy Internetu doprowadził do szybkiego spadku postrzeganej i rzeczywistej wartości instytucji, której sztandarowi członkowie, tacy jak The New York Times i The Washington Post, wywodzą się z XIX wieku. Niecałe dwie dekady wcześniej, w epoce Watergate, znane serwisy informacyjne cieszyły się bezprecedensowym prestiżem społecznym, prestiżem popkultury, wpływami politycznymi i rentownością. Złoty wiek dziennikarstwa po aferze Watergate był jednak krótki. Podczas gdy tradycyjne serwisy informacyjne twierdziły, że chętnie wykorzystują technologię internetową, były wobec niej ostrożne i nie było zgody w branży - a nawet w większości poszczególnych serwisów informacyjnych - co do tego, jak najlepiej podejść do świata online. W większości wyobrażali sobie Internet jako nową butelkę starego wina: drogę dostarczania społeczeństwu tradycyjnych wiadomości, z zachowaniem treści, formy i standardów tradycyjnego dziennikarstwa. Kiedy The New York Times wprowadził swoją wersję cyfrową, założył, że czytelnicy w nowym cyfrowym wszechświecie pragną tradycyjnego, hierarchicznego doświadczenia, w którym Times służy jako mediator i ustalacz porządku obrad. Arthur Sulzberger Jr., ówczesny wydawca Timesa, powiedział: "Naszą rolę w sieci postrzegamy jako podobną do naszej tradycyjnej roli drukowanej - działać jako przemyślany, bezstronny filtr i dostarczać naszym klientom informacje, których potrzebują i którym mogą zaufać " (Lewis, 1996). Takie podejście ignorowało fakt, że częścią ogromnej atrakcyjności Internetu było i jest to, że użytkownicy mogą łączyć się bezpośrednio z informacjami i perspektywami bez wstawiania filtra. Entuzjastyczni pierwsi użytkownicy nowych mediów cyfrowych gardzili hierarchią i założeniami związanymi z przywilejami i prestiżem zawodowym i pociągał ich Internet jako alternatywa dla treści odgórnych, typu "bierz to lub zostaw", trend, który wiele uznanych serwisów informacyjnych przegapił lub postanowił zignorować. Podczas gdy tradycyjne serwisy informacyjne miały trudności ze zrozumieniem i przystosowaniem się do Internetu, nowe serwisy informacyjne wyłącznie online również miały trudności z opracowaniem skutecznych strategii. Założona w 1995 roku witryna z wiadomościami i opiniami Salon twierdziła, że jest ucieleśnieniem nowego, buntowniczego głosu. Jednocześnie zdawał się zakładać, że jego czytelnicy będą zainteresowani, zaangażowani, rozsądni i szanujący zasady fair play. Poprosił uczestników dyskusji online, aby używali swoich prawdziwych imion i unikali chamskiego zachowania. Salon ustanowił strukturę opłat, ale niewielu czytelników płaciło opłaty, a na początku XXI wieku był bliski bankructwa. Inne znane przedsięwzięcie dziennikarskie działające wyłącznie w Internecie, Slate, zostało założone w 1996 roku przez byłego redaktora New Republic i komentatora CNN, Michaela Kinsleya, i początkowo było finansowane przez Microsoft. Przedstawiając Slate opinii publicznej, Kinsley zapewnił, że była to tabula rasa, którą miał wypełnić utalentowany zespół redakcyjny z głębokimi korzeniami w druku. Jego wyjaśnienie modelu finansowego Slate′a mogłoby z łatwością odnosić się do dowolnej liczby innych internetowych serwisów informacyjnych przez prawie dwie dekady: "Dla czytelnika - dla ciebie - są dobre wieści. . . . Nasz system rozliczeniowy nie jest jeszcze gotowy".

Wpływ Internetu na organizacje informacyjne i ich odbiorców

Chociaż nadal powstaje wiele doskonałych dziennikarstwa, rzadko dociera ono do odbiorców, z wyjątkiem wyjątkowych wydarzeń, takich jak ataki terrorystyczne z 11 września 2001 r. i huragan Katrina w 2005 r. Kurczące się dochody doprowadziły do cięć w redakcjach oraz do zniknięcia czcigodnych gazet, takich jak Rocky Mountain News, która została zamknięta w 2009 roku. Rodzina Grahamów, długoletni właściciele The Washington Post, sprzedała gazetę założycielowi Amazona, Jeffowi Bezosowi, w 2013 roku. Organizacje non-profit, takie jak ProPublica, Center for Public Integrity i PublicSource, często współpracując z tradycyjnymi mediami, zaczęły wypełniać lukę, która rozwinęła się w dogłębnej sprawozdawczości. ProPublica i New York Daily News zdobyły nagrodę Pulitzera za służbę publiczną w 2017 roku za wspólne śledztwo ujawniające powszechne nadużywanie przez policję zasad eksmisji; był to czwarty Pulitzer dla Pro-Publica od czasu jej założenia w 2007 roku. Chociaż wiele z tych nowszych internetowych przedsięwzięć informacyjnych non-profit przynosi znaczną pracę, generalnie docierają one do stosunkowo niewielkiej, elitarnej publiczności. Wiadomość, jako produkt, forma i istotny mechanizm demokracji, napotkała inne problemy w obszarze mediów internetowych. Szeroka gama stron internetowych dostarcza obecnie wiadomości, ideologii lub handlu w przebraniu wiadomości, a ludzie zwykle spędzają mniej niż minutę na pojedynczej stronie internetowej. Nawyki przeglądania, wraz z krótszym cyklem wiadomości, utrudniają wiarygodnym organizacjom informacyjnym skupienie uwagi opinii publicznej na ważnym problemie lub historii. Jednocześnie fałszywe wiadomości były często udostępniane w mediach społecznościowych podczas wyborów prezydenckich w USA w 2016 r., a źródła wywiadu USA doszły do wniosku, że wiele z nich zostało opublikowanych w ramach rosyjskiej operacji mającej na celu wpłynięcie na wybory. Właściciele witryn z fałszywymi wiadomościami, których liczbę szacuje się na setki, często motywuje możliwość szerokiego udostępniania historii, co może generować tysiące dolarów na reklamę online. Internet ograniczył także funkcję mediacyjną serwisów informacyjnych. Prezydent Donald Trump nie musi zwoływać konferencji prasowej, aby przekazać swoje przesłanie; po prostu się budzi i zaczyna tweetować. Podobnie Julian Assange nie musi zostawiać nieoznaczonej paczki tajemnic w The New York Times; jego organizacja WikiLeaks może po prostu publikować dokumenty, które wyciekły w Internecie, gdzie serwisy informacyjne i członkowie społeczeństwa mogą je znaleźć i dalej rozpowszechniać.

Dostosowanie serwisów informacyjnych do Internetu

Okres rozpoczynający się od powszechnego dostępu do Internetu w latach 90., poprzez jego przyjęcie jako podstawowego narzędzia w większości gospodarstw domowych w ciągu dekady, poprzez cyfrową konwergencję, dostarczanie i przesyłanie strumieniowe, aż po technologię mobilną, był dla nas zawrotny, destrukcyjny i chaotyczny. wiadomości i demokracji, której służą. Niewiele rewolucji technologicznych miało zasięg i szybkość ery Internetu, ale nadrzędne wzorce innowacji technologicznych, spekulacji, rozwoju i zakłóceń w poprzednich epokach zmian technologicznych były podobne. Chaotyczny okres w wiadomościach internetowych, który rozpoczął się w latach 90., może dobiegać końca. Niektóre nowe i wiele starych mediów informacyjnych zaczęło rozumieć, jak przystosować się i rozwijać na nowych i powstających platformach internetowych i mobilnych. Udana adaptacja i innowacje w wiadomościach internetowych mogą częściowo wynikać z faktu, że osoby, które dorastały w Internecie i instynktownie działają w środowisku online, coraz częściej zajmują kluczowe stanowiska kierownicze w organizacjach informacyjnych. Wydaje się, że wybory prezydenckie w USA w 2016 r. i prezydentura Trumpa przywróciły znaczenie profesjonalnym organizacjom informacyjnym, których dziennikarze mają dostęp do szerokich sieci źródeł, wiedzą, jak prowadzić dochodzenia oraz poświęcają czas i uwagę na weryfikację informacji. W czasach niepewności i niepokoju coraz więcej Amerykanów zwraca się do zaufanych tradycyjnych źródeł wiadomości, takich jak The New York Times i The Washington Post, aby uzyskać wiarygodne informacje. W okresie 3 tygodni, które obejmowały wybory, Times odnotował wzrost nakładów o 132 000 nowych subskrybentów, a dzień po wyborach liczba nowych subskrypcji The Wall Street Journal była o 300% wyższa niż w przeciętną środę. Czy chaos polityczny z 2016 roku i później sygnalizuje trwałą tendencję, tak jak kiedyś relacja z Watergate zapoczątkowała trwały ruch w kierunku dziennikarstwa śledczego, dopiero się okaże. Historia dziennikarstwa w Ameryce to historia innowacji i przełomów. Gazety z prasą groszową, które zaczęły pojawiać się w latach trzydziestych XIX wieku, przyćmiły elitarną prasę partyzancką i komercyjną, która wcześniej rządziła. Ostatecznie same groszowe papiery zostały przyćmione przez gigantów dziennikarstwa końca XIX wieku i pojawienie się własności łańcuchowej. Radio i telewizja przeniosły rynek ze strony na ekran, podczas gdy niektóre media zaczęły przyjmować bardziej wrogie stanowisko wobec rządu w latach sześćdziesiątych i siedemdziesiątych. Powstanie Internetu i jego głęboki wpływ na wiadomości i dyskurs publiczny w ogóle stanowi jedynie najnowsze zakłócenie ustalonych norm i nawyków dziennikarskich.



Powrót

Dobrowolna informacja geograficzna



Wszechobecność Internetu i zaawansowanych technologii informacyjno-komunikacyjnych zmienia rolę użytkowników z biernej na aktywną. W przeszłości użytkownicy tylko pasywnie otrzymywali dane z autoryzowanych źródeł danych. Jednak obecnie użytkownicy mogą aktywnie wykorzystywać platformy internetowe do gromadzenia i gromadzenia treści online w celu tworzenia treści generowanych przez użytkowników, takich jak Wikipedia. Co więcej, zaawansowane technologie geoweb zmieniają sposoby gromadzenia danych geograficznych. Ta zmiana pozwala zwykłym obywatelom działać jako czujniki zbierające informacje geograficzne, jak opisał to Michael Goodchild, który w 2007 roku wprowadził termin dobrowolne informacje geograficzne (VGI). VGI to specjalna forma generowanych przez użytkowników treści, przy czym przesłane treści obejmują informacje geograficzne. Informacje geograficzne to dane opisujące obiekty znajdujące się na powierzchni Ziemi. W VGI wolontariusze wspólnie zbierają dane geograficzne. Dostępność urządzeń mobilnych wykrywających lokalizację, geotagowanie, georeferencje, globalny system nawigacji satelitarnej i łączność szerokopasmowa umożliwiają zwykłym obywatelom zbieranie informacji geograficznych. Tego rodzaju informacje były wcześniej zbierane przez ekspertów przy użyciu zaawansowanych urządzeń. Dane uzyskane z VGI mogą być wykorzystywane w kilku rodzajach aplikacji, takich jak mapowanie, prognozowanie pogody, planowanie urbanistyczne, badania środowiskowe i zarządzanie kryzysowe. OpenStreet-Map, GoogleMapMaker, Wikimapia, Geo-Wiki, Ushahidi i EVERYAWARE to przykłady globalnych projektów opartych na VGI, które gromadzą różne formy VGI do różnych celów. Jednak zaangażowanie osób niebędących ekspertami i niestandardowe sposoby zbierania danych rodzi kilka pytań dotyczących jakości uzyskanych danych. W kilku badaniach naukowych podkreślono potencjalną rolę VGI jako podstawowego elementu solidnej infrastruktury danych przestrzennych. Ponadto w wielu kontekstach VGI działało jako uzupełniające źródło danych dla wiarygodnych danych. Pozostała część tego wpisu zawiera wgląd w taksonomię i różne formaty VGI oraz omawia kwestie związane z VGI.

Taksonomia i różne formaty VGI

VGI wskazuje na wszelkiego rodzaju dane dołączone do informacji geograficznych, które zostały zebrane dobrowolnie. Jeśli chodzi o klasyfikację VGI, dane można rozpatrywać z dwóch perspektyw: (1) osadzone dane geograficzne i (2) intencje autorów. Z jednej strony współtwórcy projektów mapowania VGI, takich jak OpenStreetMap, celowo współpracują ze sobą w celu gromadzenia informacji o obiektach geograficznych, takich jak drogi, budynki i punkty orientacyjne. Otrzymane dane mają wyraźny wymiar geograficzny. Z drugiej strony, w mediach społecznościowych i mikroblogach, takich jak Twitter czy Flickr, wszystkie treści oznaczone geotagami są przykładami VGI, w których współtwórcy nieumyślnie wnoszą wymiar geograficzny. Ponadto wymiary geograficzne są domyślnie osadzone w treści poprzez przypisanie lub wzmiankę o położeniu geograficznym. W innych scenariuszach, jak w projekcie Ushahidi, uczestnicy celowo zbierają informacje; jednak wymiar geograficzny może być zakodowany w sposób dorozumiany lub jawny. W oparciu o te poglądy istnieją cztery kategorie VGI oparte na trzech formatach danych geograficznych i intencjach autorów. Zasadniczo istnieją trzy wspólne dane VGI formaty: (1) mapa, (2) tekst i (3) media. We wspólnych projektach mapowania współtwórcy wykorzystują narzędzia online do nakreślania obiektów geograficznych, edytując zdjęcia satelitarne lub używając urządzeń GPS. Ponadto dodają informacje i opis przedstawionych funkcji. W innych projektach opartych na VGI dane obejmują formaty tekstowe lub multimedialne (np. obrazy), które są zgodne z lokalizacjami geograficznymi. Kluczowe kwestie związane z VGI VGI opiera się na ewolucji crowdsourcingu, w którym publiczność odgrywa główną rolę w gromadzeniu i gromadzeniu danych. Rodzi to trzy typowe problemy związane z uzyskanymi danymi. Po pierwsze, jak utrzymać motywację heterogenicznych współpracowników i współpracować w sposób oparty na współpracy? Po drugie, jak zapewnić jakość otrzymanych danych? Po trzecie, kto jest odpowiedzialny za gromadzone dane? Współtwórcy VGI Współtwórcy VGI reprezentują zarówno siłę, jak i problemy VGI. W VGI dane zbierane są przez lokalnych mieszkańców, którzy dobrowolnie pełnią rolę obserwatorów dostarczających przydatnych informacji. Fakt ten często sprawia, że VGI jest bardziej wiarygodne niż oficjalne dane, które są w większości gromadzone zdalnie przez długi czas. Jednak wielu autorów ma ograniczone doświadczenie lub wystarczającą wiedzę na temat procedur i standardów gromadzenia danych. Oparte na koncepcjach crowdsourcingu są heterogeniczne, mają różne pochodzenie, działają z różnymi motywacjami, wykorzystują nietypowe technologie i wytwarzają różne rodzaje informacji. W większości projektów VGI prawdziwym wyzwaniem jest utrzymanie motywacji współpracowników w celu zapewnienia ciągłego wkładu i ulepszania informacji. Opracowano kilka metod (np. grywalizacja) aby nadal generować składki.



Powrót

Dostawcy usług internetowych



Termin dostawca usług internetowych (ISP) obejmuje wszystkie publiczne i prywatne organizacje świadczące wszelkiego rodzaju usługi przez Internet. Zwykle termin ten jest kojarzony z operatorami telekomunikacyjnymi, którzy zapewniają przewodowe lub bezprzewodowe połączenie z Internetem. Dokładniej, należy ich nazwać dostawcami dostępu do Internetu (IAP), ale w rzeczywistości zakres usług świadczonych przez wczesne IAP znacznie wzrósł z czasem, znacznie wykraczając poza łączność podstawową lub szerokopasmową. Zestaw świadczonych usług może się znacznie różnić w zależności od dostawcy usług internetowych, ale wspólną cechą jest to, że Internet działa jako infrastruktura wspomagająca. Dostawcy usług internetowych zdobyli istotną rolę gospodarczą i społeczną w ostatnich dziesięcioleciach, będąc czynnikami sprzyjającymi innowacjom i pomagając przezwyciężyć przepaść cyfrową. W tym wpisie pokrótce przedstawiono historię dostawców usług internetowych, wymieniono świadczone usługi i omówiono główne wyzwania, przed którymi stoją obecnie dostawcy usług internetowych.

Historia

Internet zawdzięcza swoje istnienie projektowi wojskowemu, który rozwinął się w Stanach Zjednoczonych pod koniec lat 60. przemysłu technologicznego w sektorach obronnych w celu stworzenia alternatywnego narzędzia komunikacji na wypadek, gdyby globalna konfrontacja nuklearna zaszkodziła konwencjonalnym systemom komunikacji. Dlatego głównym celem było zbudowanie systemu sprzętowo-programowego opartego na komutacji pakietów protokołu (Network Control Protocol), oszczędzającego wykorzystanie długodystansowych linii telefonicznych i umożliwiającego komunikację między heterogenicznymi i oddalonymi geograficznie komputerami. Oficjalny debiut nowej sieci telekomunikacyjnej nastąpił w październiku 1972 roku. Był to nieoczekiwany sukces. W latach 70. jej średni wzrost to nowy komputer podłączany co 20 dni. W 1975 r. Sieć Agencji Zaawansowanych Projektów Badawczych (ARPANET) rozmnożyła się, dając początek innym sieciom. Umieszczono go pod kontrolę nad Agencją Łączności Obronnej Departamentu Obrony Stanów Zjednoczonych. Technologia ARPANET stała się podstawą programu Defense Data Network. Pod koniec lat sześćdziesiątych i na początku lat siedemdziesiątych inne ośrodki obliczeniowe, takie jak uniwersytety, ośrodki badawcze i agencje rządowe, zaczęły wykorzystywać innowacyjną technologię przełączania pakietów ARPANET do łączenia swoich systemów. 1 stycznia 1983 roku protokół kontroli sieci został oficjalnie wycofany, a ARPANET przeniósł swoje podstawowe protokoły sieciowe do bardziej elastycznego i wydajnego zestawu protokołów kontroli transmisji / protokołów internetowych (TCP / IP), ustanawiając podstawy nowoczesnego Internetu. W 1987 roku National Science Foundation (NSF) uruchomiła program promujący wykorzystanie superkomputerów, budując szereg specjalnych centrów w całych Stanach Zjednoczonych oraz szybką sieć szkieletową o nazwie NSFNET, aby umożliwić dostęp. Użytkownicy mogą łączyć się ze szkieletem za pośrednictwem pośredniego poziomu połączeń sieciowych, umieszczonych między grzbietową siecią NSFNET a organizacjami użytkowników. Różne firmy komercyjne i organizacje non-profit utworzone w celu zarządzania faktycznym tworzeniem i obsługą wielu z tych sieci; wiele z nich można lepiej zdefiniować jako internetowe IAP, będące organizacjami zapewniającymi tylko połączenia dial-up. Świadczenie dodatkowych usług, takich jak e-mail oparty na kopiowaniu Unix-to-Unix i Usenet News, charakteryzowało niektórych z nich jako dostawców usług internetowych. Pierwszym komercyjnym dostawcą usług internetowych na świecie był The World, który umożliwił pierwszemu klientowi zalogowanie się w listopadzie 1989 r. Po The World wielu nowych dostawców usług sieciowych zaczęło oferować dostęp do sieci klientom komercyjnym. W 1992 roku Kongres Stanów Zjednoczonych uchwalił ustawę o nauce i zaawansowanych technologiach, 42 U.S.C. § 1862(g), który zezwolił NSF na wspieranie dostępu społeczności badawczych i edukacyjnych do sieci komputerowych, które nie były wykorzystywane wyłącznie do celów badawczych i edukacyjnych, umożliwiając w ten sposób NSFNET łączenie się z sieciami komercyjnymi. Ustawa oficjalnie dała początek Internetowi - po raz pierwszy jako nazwa przez duże "ja"; przed ustawą "internet" był używany tylko jako techniczny termin określający pracę w sieci - rozumiany jako zestaw połączonych ze sobą otwartych sieci. NSFNET nie był już de facto szkieletem i punktem wymiany Internetu. Handlowy Internet eXchange, Metropolitan Area Exchanges, a później Network Access Points stały się głównymi połączeniami między wieloma sieciami. Ostateczne ograniczenia w prowadzeniu ruchu komercyjnego wygasły 30 kwietnia 1995 r., Kiedy NSF zakończyło sponsorowanie usługi szkieletowej NSFNET i usługa się zakończyła. NSF zapewnił początkowe wsparcie dla punktów dostępu do sieci oraz tymczasowe wsparcie, aby pomóc regionalnym sieciom badawczym i edukacyjnym w przejściu na komercyjnych dostawców usług internetowych. NSF sponsorowało również bardzo szybką usługę sieci szkieletowej, która nadal zapewniała wsparcie dla centrów superkomputerowych oraz badań i edukacji w Stanach Zjednoczonych. Wywołało to kontrowersje w środowisku naukowym i edukacyjnym, które obawiało się, że komercyjne wykorzystanie sieci może doprowadzić do tego, że Internet będzie mniej odpowiadał ich potrzebom, a także w społeczności komercyjnych dostawców sieci, którzy uważali, że dotacje rządowe dają niesprawiedliwą korzyści dla niektórych organizacji. Do pionierskich dostawców usług internetowych w Stanach Zjednoczonych należą America Online (AOL), CompuServe, Delphi i The World. AOL jest prawdopodobnie najbardziej znanym wczesnym ISP. Wprowadził innowacyjne strategie cenowe, wykorzystując miesięczny abonament zamiast stawek godzinowych, więc dla aktywnych użytkowników było to znacznie tańsze. AOL nadal żyje jako spółka zależna Verizon Communications. CompuServe to jeden z najstarszych dostawców usług internetowych, który wszedł na rynek pod koniec 1980 roku. Do 1997 roku CompuServe był własnością H&R Block, kiedy to został sprzedany firmie AOL, a obecnie jest częścią sieci Verizon. Firma Delphi została założona w 1981 roku, aby oferować dostęp telefoniczny do pierwszej na świecie skomputeryzowanej encyklopedii dostępnej na rynku. W 1992 roku zaczął zapewniać konsumentom krajowym dostęp do Internetu za pomocą usług takich jak poczta elektroniczna, protokół przesyłania plików, Telnet, Usenet, tekstowy dostęp do sieci, Multi-User Dungeons, Finger i Gopher. W 1993 roku firma Delphi została sprzedana News Corporation Ruperta Murdocha. Firma The World z siedzibą w Bostonie jako pierwsza na świecie zaoferowała usługę dostępu do Internetu wdzwanianego w 1989 r. Jest to jeden z dostawców usług internetowych, który nadal zapewnia dostęp do Internetu wdzwanianego pod tą samą nazwą. Jego strona internetowa jest prosta i pozbawiona ozdób, odpowiednia dla klientów korzystających z połączeń telefonicznych. W Europie kluczową rolę odegrała Europejska Organizacja Badań Jądrowych (CERN), która rozpoczęła się od instalacji i obsługi protokołu TCP/IP w celu połączenia głównych wewnętrznych systemów komputerowych, stacji roboczych, komputerów osobistych i systemu sterowania akceleratorem (CERNET) pomiędzy 1984 i 1988. W 1989 CERN otworzył swoje pierwsze zewnętrzne połączenia TCP/IP, co zbiegło się z utworzeniem Réseaux IP Européens. W 1990 roku European UNIX Network, duży holenderski dostawca usług z 250 punktami obecności, zaczął łączyć tysiące lokalizacji na całym kontynencie, w tym w krajach Europy Wschodniej. W tym samym roku Pipex był pierwszym komercyjnym dostawcą usług internetowych w Wielkiej Brytanii. W 1989 roku australijskie uniwersytety przyłączyły się do dążenia do wykorzystania adresów IP w celu ujednolicenia infrastruktury sieciowej. Australijska sieć akademicko-badawcza powstała w 1989 roku iw tym samym roku australijska sieć DIALix zaczęła oferować usługi komercyjne w Perth. Połączenie DIALix z Internetem stało się pełnym IP dopiero w latach 80. W maju 1982 roku Korea Południowa stała się drugim krajem, który pomyślnie skonfigurował sieć TCP/IP IPv4, a Japonia, która w 1984 roku zbudowała japońską sieć uniwersytecką, połączyła się z NSFNET w 1989 roku. -to-Unix Kopiuj łącza do międzynarodowej i intersieciowej komunikacji komputerowej. W sierpniu 1995 r. firma InfoMail Uganda Ltd. stworzyła pierwsze w Afryce natywne, szybkie satelitarne usługi internetowe oparte na protokole TCP/IP.

Usługi internetowe

Poniżej znajduje się niewyczerpująca taksonomia usług świadczonych przez dostawców usług internetowych:

•  Hosting aplikacji/oprogramowanie jako usługa
•  Usługa tworzenia kopii zapasowych
•  Tworzenie stron internetowych na zamówienie
• oo Blogi
•  Szerokopasmowy
•  Usługi w chmurze/sieci, w tym hosting, bazy danych, pliki, pamięć blokowa, komputer stacjonarny i Hadoop
•  Kolokacja
•  Sieć dostarczania treści
• Hosting dedykowany
•  Odzyskiwanie po awarii
•  Rejestracja domen, w tym interfejs programowania aplikacji i chroniony WHOIS
•  e-Commerce i koszyki
•  Hosting poczty e-mail
•  Zapora sieciowa
•  Darmowy hosting współdzielony
•  Zarządzanie internetem rzeczy
•  Adresowanie IPv6
•  Łącza dzierżawione
•  Równoważenie obciążenia
•  Usługi zarządzane, takie jak pakiety, konfiguracja oprogramowania i konserwacja zapory sieciowej
•  Monitorowanie
• oo Wiele centrów danych
•  Płatny hosting współdzielony
•  Usługi profesjonalne, takie jak usługi informatyczne lub administrowanie bazami danych
•  Hosting sprzedawcy
•  Bezpieczny dostęp Shell
•  Certyfikaty Secure Socket Layer
•  Przesyłanie strumieniowe/hosting podcastów
•  Tradycyjne usługi telekomunikacyjne, takie jak plany połączeń telefonicznych, dzierżawa linii, faks i umowy komórkowe
•  Wirtualne sieci prywatne
•  Wirtualne serwery prywatne
•  Voice over Internet Protocol
•  Poczta internetowa
•  Kreatory stron internetowych

Neutralność sieci

Niewątpliwie dostawcy usług internetowych przyczynili się do ogromnego rozwoju gospodarki cyfrowej i rywalizacji między nimi o utowarowienie Internetu poprzez obniżenie opłat za dostęp. Jednak współczesna obecność dużych, zasiedziałych oraz małych i średnich operatorów jest czynnikiem wpływającym na kwestię neutralności sieci. Termin ten odnosi się do sieci bez arbitralnych ograniczeń dotyczących podłączonych urządzeń i sposobu ich działania, czyli takiej, która jest niedyskryminująca w zakresie korzystania z różnych usług i treści sieciowych przez użytkownika końcowego. Zniekształcenia w odniesieniu do tej zasady mogą przynosić wyłączną korzyść dużym operatorom, którzy mogą dostarczać treści różniące się w zależności od zdolności użytkownika do pokrycia kosztów zatrudnienia związanych z przepustowością, a zatem ze szkodą dla małych operatorów i użytkowników końcowych. Debata na temat neutralności sieci miała siły po przeciwnych stronach, w tym dostawców usług internetowych i firmy telekomunikacyjne z jednej strony oraz orędowników "otwartej sieci" i stowarzyszeń konsumenckich z drugiej. W listopadzie 2014 roku ówczesny prezydent Barack Obama opowiedział się za przeklasyfikowaniem szerokopasmowego Internetu jako usługi publicznej, oferując cztery punkty, które otworzyłyby drzwi do cięższej interwencji regulacyjnej ze strony Federalnej Komisji Łączności (FCC). Punkty te są następujące:

1. Brak blokowania: jeśli użytkownik zażąda dostępu do witryny, a witryna jest legalna, dostawca usług internetowych nie może jej zablokować.
2. Brak ograniczania: dostawca usług internetowych nie może spowalniać dostępu do legalnej witryny na podstawie treści, aplikacji, usług lub nieszkodliwych urządzeń.
3. Przejrzystość: Zasady neutralności sieci muszą dotyczyć wszystkich punktów styku ISP z resztą Internetu, a nie tylko tzw. ostatniej mili, która odnosi się do ostatniego odcinka połączenia między konsumentem a ISP.
4. Brak płatnego ustalania priorytetów: Usługa nie może pozostawać na "wolnym pasie", ponieważ nie uiszcza wymaganej opłaty.

W 2015 r. FCC głosowała za przeklasyfikowaniem dostawców usług internetowych na zwykłych przewoźników zgodnie z tytułem II ustawy o łączności i przyjęła zasady gwarantujące, że dostawcy usług internetowych nie będą blokować treści zgodnych z prawem ani zapewniać "szybkich pasów" niektórym dostawcom treści online, a innym nie. W kwietniu 2017 r., kilka miesięcy po objęciu urzędu przez prezydenta Donalda Trumpa i mianowaniu Ajita Pai na przewodniczącego FCC, Pai przedstawił propozycję wycofania tych zasad. Propozycja była rozpatrywana od września 2017 r



Powrót


[ 115 ]