Światłowody i Internet



Światłowody i Internet Kable światłowodowe składają się z cienkich drutów szklanych lub plastikowych i stanowią podstawową technologię przesyłania informacji w Internecie. Kable światłowodowe przesyłają informacje za pomocą szybkich impulsów światła (do 200 bilionów na sekundę). Dzięki temu mogą przesyłać ogromne ilości danych znacznie szybciej niż inne technologie, takie jak satelity. Ponieważ kable światłowodowe są zasadniczo odporne na zakłócenia, są preferowanym sposobem przesyłania informacji dla dużych firm, mediów i rządów. Linie światłowodowe o dużej przepustowości są szczególnie ważne ze względu na dostęp do materiałów o dużej gęstości, takich jak treści graficzne w sieci World Wide Web. Dla użytkowników o dużym wolumenie (zwykle duże firmy usługowe dla producentów) te linie są absolutną koniecznością. Ten wpis otwiera krótka historia światłowodu. Następnie podsumowuje geografię światowych sieci światłowodowych i ich wpływ.

Historyczny rozwój światłowodu

Początki technologii światłowodowej sięgają eksperymentów z przewodnictwem świetlnym przeprowadzonych w 1841 roku przez Jeana-Daniela Colladona na Uniwersytecie Genewskim. Późniejsze badania, zwłaszcza przeprowadzone przez brytyjskiego fizyka Johna Tyndalla, wykazały, że światło może być z powodzeniem transmitowane przez zakrzywione pręty. W latach osiemdziesiątych XIX wieku Alexander Graham Bell wynalazł "fotofon", który mógł wysyłać sygnały głosowe za pomocą światła. Wielki przełom nastąpił w latach dwudziestych XX wieku, kiedy John Baird w Szkocji i Clarence Hansell w Stanach Zjednoczonych opatentowali wynalazek, który transmitował obraz za pomocą przezroczystych prętów, prekursora telewizji. Wczesnym zastosowaniem tej technologii było użycie takich prętów w chirurgii laparoskopowej, technika zapoczątkowana przez Briana O'Briena i Narindera Kapany'ego (który wynalazł termin "światłowód"). Technologia stale poprawiała się pod względem dokładności i niezawodności. Charles Kao, fizyk z Wielkiej Brytanii, wykazał w 1956 r., że tłumienie światła przechodzącego przez pręty było spowodowane zanieczyszczeniami w szkle; późniejsze ulepszenia przejrzystości prętów szklanych znacznie zmniejszyły ten problem. W 1960 roku Theodore Maiman z Hughes Research Laboratories zademonstrował pierwszy laser. W latach 60. laboratoria Bella w New Jersey poszły o krok dalej, stosując diody laserowe pulsujące przez mieszaninę helu i neonu. W latach siedemdziesiątych trzech badaczy z Corning Glass Works (obecnie Corning, Inc.) - Robert Maurer, Donald Keck i Peter Schultz - udoskonaliło ten projekt, stosując pręty z czystej krzemionki. Wkrótce potem wynalezienie gęstego multipleksowania z podziałem długości fal umożliwiło przesyłanie wielu długości fal przez tę samą linię światłowodową, znacznie zwiększając jej przepustowość. W tym czasie wojsko USA zainteresowało się technologią światłowodową. Północnoamerykańskie Dowództwo Obrony Powietrznej i Kosmicznej, zlokalizowane w Cheyenne Mountain w Kolorado, zaczęło łączyć komputery za pomocą światłowodów, aby umożliwić im komunikację w następstwie wojny nuklearnej. Rola wojska w technologii znacznie wyjaśnia niezawodność dzisiejszego Internetu. Rewolucja mikroelektroniczna lat 70. i 80. dodatkowo napędzała zapotrzebowanie na kable światłowodowe o coraz wyższych zdolnościach transmisyjnych. Rozwój transmisji światłowodowej na duże odległości był możliwy dzięki wynalezieniu repeaterów, które odtwarzają sygnały i minimalizować współczynniki tłumienia na odległość. Pierwsza generacja repeaterów wymagała jednego co 5 do 10 kilometrów (km); kolejne pokolenia można było umieścić w odległości nawet 50 km od siebie. W 1991 roku wynalezienie wzmacniaczy światłowodowych domieszkowanych erbem 100-krotnie poprawiło wydajność repeaterów, umożliwiając rozmieszczenie ich nawet w odległości 800 km. Te ulepszenia doprowadziły do powstania kabli zdolnych do przesyłania 50 terabajtów informacji na sekundę. Kable światłowodowe stawały się coraz bardziej kluczowe dla konkurencyjności obszarów miejskich, ponieważ klastry usług producentów wymagały tej technologii. Chicago było pierwszym miastem, które zainstalowało system światłowodowy w 1977 roku. Dostawcy usług telekomunikacyjnych na ogół preferują duże, gęste obszary metropolitalne ze względu na występujące tam korzyści skali, które znacznie obniżają koszty. Następnie kable światłowodowe zostały gęsto zaplątane pod ziemią praktycznie we wszystkich dużych miastach, w tym w miastach globalnych, takich jak Nowy Jork, Londyn, Paryż i Tokio, które tworzą centra dowodzenia i kontroli światowej gospodarki.

Globalna sieć kabli światłowodowych

Pojawienie się pod koniec XX wieku coraz bardziej zglobalizowanej, intensywnie korzystającej z informacji formy kapitalizmu doprowadziło do wzrostu zapotrzebowania na międzynarodowe łącza światłowodowe. Historia takich kabli sięga XIX-wiecznego systemu międzynarodowych linii telegraficznych. Długodystansowe, transoceaniczne kable światłowodowe są drogie w produkcji i układaniu oraz wymagają znacznych sum kapitału. Z tego powodu komercyjne łącza światłowodowe są na ogół produktem konsorcjów dużych firm telekomunikacyjnych, takich jak AT&T czy British Telecom, które wspólnie finansują produkcję kabli, urządzenia do lądowania i dzierżawę przepustowości innym użytkownikom. Na przykład AT&T, największy dostawca światłowodów oceanicznych na świecie, utrzymuje flotę sześciu statków do układania i naprawy kabli, które mogą zostać uszkodzone przez trzęsienia ziemi i lawiny podwodne. Większość kabli podmorskich nazywa się "samonaprawiającymi się", ponieważ mają duże możliwości przekierowania informacji w przypadku takich nieszczęść. Pierwszy transkontynentalny kabel światłowodowy, nazwany Telekomunikacją Transatlantycką (TAT-8), został położony w 1988 roku, łącząc północno-wschodnie Stany Zjednoczone z Wielką Brytanią i mógł transmitować 40 000 rozmów telefonicznych jednocześnie. Następna generacja, TAT-9 i TAT-10, miała dwukrotnie większą pojemność. Kolejne kable, wykorzystujące wzmacniacze światłowodowe domieszkowane erbem, wykazywały wykładniczy wzrost pojemności. Chociaż najwcześniejsza sieć transoceaniczna skupiała się na Oceanie Atlantyckim, nowy system zaczął przecinać Pacyfik w latach 90. W 1989 r. kabel transpacyficzny połączył Tokio i Los Angeles, a następnie rosnącą liczbę kabli łączących nowo uprzemysłowione kraje Azji Wschodniej ze Stanami Zjednoczonymi. W 2007 roku ogłoszono, że Google dołączy do kilku innych firm w projekcie o nazwie Unity, aby położyć system kablowy do transmisji danych na Pacyfiku. System o przepustowości do 4,8 terabajtów na sekundę został ukończony w 2010 roku. Dziś światowa sieć światłowodowa ma ponad 25 milionów km kabli, które łączą wszystkie kontynenty świata. Inne rynki światłowodowe zaczęły pojawiać się pod koniec lat 90. W 1997 roku kilka firm telekomunikacyjnych, na czele z AT&T, zainicjowało system łącza światłowodowego na całym świecie, który rozciągał się na ponad 55 000 km Oceanu Indyjskiego, łącząc Europę i Azję Południowo-Wschodnią. Ta linia miała kluczowe znaczenie dla rozwoju indyjskiego przemysłu oprogramowania i call center z siedzibą w Bangalore. W Azji Południowo-Wschodniej sieć kablowa Azji i Pacyfiku o długości 12 000 km połączyła "nowe tygrysy" regionu, na czele z Singapurem, centrum informacyjnym regionu. Na Karaibach linie Antillas 1 i Americas 1 zrobiły prawie to samo. Nawet Afryka - od dawna marginalizowana w globalnych sieciach telekomunikacyjnych - zaczęła otrzymywać światłowód. Pierwsze afrykańskie przedsięwzięcie, Africa ONE (Africa Optical NETwork), padło ofiarą krachu dot-comów na początku XXI wieku. Następnie AT&T, Sprint, Vodacom i Verizon połączyły siły, aby położyć sieć na zachodnim krańcu kontynentu, podczas gdy w Afryce Wschodniej kabel Seacom o długości 17 500 km, który został położony w 2008 r., łączy kilka krajów. W 2010 roku został uzupełniony o podmorski system kablowy Afryki Wschodniej. Na początku XXI wieku wzrost przepustowości światłowodów na całym świecie generował nadwyżkę, często nazywaną "ciemnym światłowodem". W efekcie ceny spadły, doprowadzając do bankructw kilku firm z branży. Skutki były odczuwalne we wszystkich sektorach, które opierają się na Internecie, w tym w firmach telefonicznych, w których ceny transmisji zasadniczo spadły do zera.

Znaczenie światłowodów

Współczesny Internet byłby niemożliwy bez światłowodów o dużej przepustowości, które mogą przesyłać ogromne ilości informacji z prędkością światła. Światłowód jest podstawową technologią szerokopasmowego Internetu i umożliwia transmisję dużych plików graficznych, takich jak wideo. Ponieważ zapewnia bezpieczeństwo i redundancję, a jego koszty gwałtownie spadły, światłowód stał się preferowanym sposobem transmisji dla firm telekomunikacyjnych na całym świecie. Rzeczywiście, światłowód jest prawdopodobnie definiującą technologią współczesnego neoliberalnego kapitalizmu, w którym pozyskiwanie i analiza informacji jest kluczem do konkurencyjności jednostek, miast i całych krajów.



Powrót

SMS-y



Pierwsza wiadomość tekstowa została wysłana w grudniu 1992 roku o treści "Wesołych Świąt". Od tego czasu ogólnoświatowe wykorzystanie wiadomości tekstowych lub usług krótkich wiadomości wzrosło w dramatycznym tempie, ponieważ coraz więcej osób uzyskało dostęp do telefonów komórkowych i używało ich do wymiany wiadomości elektronicznych. Do 2010 roku wiele krajów rozwiniętych osiągnęło "punkt nasycenia": było tyle (lub więcej) abonamentów na telefony komórkowe, ilu było ludzi. Do 2016 roku światowe nasycenie osiągnęło prawie 98%. Szybki wzrost liczby posiadaczy telefonów ustabilizował się w krajach rozwiniętych, ale przyspieszenie trwa w krajach rozwijających się i przewiduje się, że trend ten utrzyma się do około 2020 r. Korzystanie z telefonów komórkowych nie ogranicza się do nastolatków i dorosłych, ponieważ dzieci w coraz młodszym wieku zaczęły mieć do nich dostęp urządzenia. Ten wpis bada rozpowszechnienie wiadomości tekstowych, języki wysyłania wiadomości tekstowych, wpływ wiadomości tekstowych na umiejętność czytania i pisania oraz przyszłość wiadomości tekstowych.

Rozpowszechnienie

Najpopularniejszą aplikacją wykorzystywaną w telefonach komórkowych, a obecnie najpopularniejszą formą komunikacji pisemnej na świecie, są wiadomości tekstowe. Używa go codziennie prawie 90% światowej populacji. Szacunki dotyczące liczby wiadomości wysyłanych dziennie na całym świecie wahają się od 11 do 23 miliardów. Stosunkowo wcześnie wiadomości tekstowe przewyższyły popularność rozmów przez telefony komórkowe, szczególnie wśród młodych dorosłych. Badania na dużą skalę sugerują, że nastolatki i młodzi dorośli wysyłają SMS-y częściej niż ich starsi koledzy. Badania naukowe na mniejszą skalę, prowadzone głównie z młodymi dorosłymi, próbowały określić, ile wiadomości tekstowych ludzie wysyłają dziennie, z bardzo różnymi wynikami. Młodzież i młodzi dorośli uczestniczący w kilku badaniach zgłosili wysyłanie od 10 do 20 wiadomości dziennie, przy czym wskaźniki wysyłania stale spadają wraz z wiekiem. Wskaźniki wysyłania różnią się w zależności od kraju: Badanie przeprowadzone w 2010 roku przez Naomi S. Baron i Elise M. Campbell wykazało, że 44% koreańskich studentów zgłosiło wymianę ponad 30 wiadomości tekstowych poprzedniego dnia, ale ten nawyk wysyłania 30 lub więcej wiadomości dziennie został zgłoszony przez tylko 10% do 20% studentów włoskich, japońskich i amerykańskich oraz 1% Szwedów. Inne badania ujawniły wyższe wskaźniki wysyłania wiadomości, być może w odpowiedzi na tańsze plany i szybsze metody wprowadzania danych: około 24 dziennie w Australii i aż 40 do 70 dziennie w Ameryce Północnej. Mniej badań zebrało dane na temat liczby wiadomości wysyłanych przez dzieci, ale wydaje się, że liczba ta rośnie wraz z wcześniejszym zdobywaniem telefonów. Na przykład w badaniu przeprowadzonym w Wielkiej Brytanii przez Beverly Plester, Clare Wood i współpracowników oszacowano, że dzieci w wieku od 10 do 12 lat wysyłają średnio około 4 wiadomości dziennie. 2 lata później. Z kolei w badaniu z 2016 roku Chantal N. van Dijk i in. odkryli, że Holendrzy w wieku od 10 do 13 lat wysyłają około 28 wiadomości dziennie, a Underwood i współpracownicy (2011) podali, że 15-latkowie z Ameryki wysyłają około 54 wiadomości dziennie. Oczywiście jest to metoda komunikacji, którą młodzi ludzie przyjęli ze szczególnym entuzjazmem. Wiadomości tekstowe nie zostały zaprojektowane do długotrwałej korespondencji: limit długości wiadomości to krótkie 160 znaków, czyli około 16 słów. Ta maksymalna długość 160 znaków pozwala wiadomościom dopasować się do "pakietów" informacji przesyłanych między wieżami sieciowymi, a także pokrywa się ze średnią długością wiadomości zapisanej w staromodnych teleksach i pocztówkach. Jednak większość telefonów pokonuje teraz to ograniczenie, automatycznie dzieląc wiadomości na krótsze części podczas wysyłania i ponownie łącząc je po odebraniu. Pomimo tego złagodzenia limitów znaków, większość ludzi ma tendencję do utrzymywania stosunkowo krótkich wiadomości tekstowych. Liczne badania nad ostatnio wysłanymi przez dorosłych wiadomościami wykazały, że ich średnia długość wynosi od 8 do 14 słów. Ta średnia oczywiście będzie obejmować kilka bardzo krótkich, jedno- lub dwuwyrazowych odpowiedzi oraz kilka znacznie dłuższych wiadomości, ale ogólnie rzecz biorąc, średnie długości zgłaszanych wiadomości są niezwykle podobne we wszystkich badaniach. Ograniczenia długości wiadomości tekstowych nie były jedynymi ograniczeniami, z jakimi borykali się wcześniejsi użytkownicy. Oryginalne modele telefonów komórkowych miały stosunkowo mały ekran i klawiaturę alfanumeryczną. Aby utworzyć wiadomość, użytkownicy mogą skorzystać z systemu wprowadzania "wielokrotnego naciśnięcia", naciskając każdy klawisz numeryczny od jednego do czterech razy, aby wybrać żądaną literę (np. naciskając raz 2 dla a lub dwa razy dla b). Chociaż doświadczeni tekściarze opanowali ten styl wprowadzania, nadal był on pracochłonny i czasochłonny. Wprowadzenie systemów predykcyjnego wprowadzania danych pomogło przyspieszyć i ułatwić tworzenie wiadomości tekstowych, ponieważ wymagają one tylko jednego naciśnięcia klawisza na literę. Telefon porównał poprzednie naciśnięcia klawiszy z wewnętrznym słownikiem i zasugerował prawdopodobne słowa (np. 2, 6, 6, 5 może oznaczać cool, book lub cook). W nowszych modelach telefonów ominięto wiele wyzwań związanych z wprowadzaniem tekstu. Smartfon ma większy ekran i pełną klawiaturę QWERTY, dzięki czemu użytkownicy mogą wybrać konkretny klawisz dla żądanej litery, cyfry czy symbolu. Coraz bardziej wyrafinowane systemy predykcyjne mogą sugerować nie tylko bieżące słowo, ale także przyszłe słowa i znaki interpunkcyjne, dzięki czemu pisanie wiadomości jest szybsze i płynniejsze (rysunek 1). Do 2014 roku na świecie było 2,6 miliarda smartfonów, a przewiduje się, że do 2020 roku liczba ta wzrośnie do 6,1 miliarda, czyli 70% światowej populacji.

Język wiadomości tekstowych

Biorąc pod uwagę ograniczenia związane z wcześniejszymi wiadomościami tekstowymi, nie jest zaskakujące, że ludzie zaczęli pisać wiadomości tekstowe w skróconym stylu. Ten styl pisania nie tylko zawierał rodzaje skrótów i akronimów, które były używane od kilku lat w komunikacji za pośrednictwem komputera, ale także zawierał nowe sposoby oszczędzania długości, takie jak zmniejszenie liczby spacji, a także mnóstwo kreatywnych respellingi. Ten skrócony, niekonwencjonalnie pisany, przypadkowy rejestr stylu pisania został nazwany textspeak, techspeak, textish, a przyjęty tutaj termin textese. Skróty, powtórzenia i symbole składające się na teksty są często nazywane tekstizmami. Uczeni zastosowali kilka metod, aby sklasyfikować rodzaje tekstów, których używają ludzie. Jednak wielu badaczy skupia się obecnie na typologii około tuzina kategorii, które wydają się obejmować większość zmian wprowadzonych w standardowej pisowni, przynajmniej w czasie, gdy prowadzono ich badania. Typologia ta została opracowana przez Crispina Thurlowa i Alexa Browna (2006) na podstawie prostszego systemu autorstwa Tima Shortisa (2001), ale obecnie jest rozwijana i wykorzystywana przez badaczy w wielu krajach, w różnych grupach wiekowych. Kategorie te składają się ze skrótów polegających na pominięciu liter na początku lub na końcu wyrazów (np. przyczyna, ponieważ, poss na możliwe), skrótów, które pomijają litery wewnętrzne słowa (np. np. comin oznacza nadejście), pojedyncze lub złożone homofony literowo-cyfrowe (np. u 2 dla ciebie też, 4get dla zapomnij), stylizacja akcentowa (np. didja dla did you, wiv dla z), pominięte apostrofy i pominięte wielkie litery (np. , im jak jestem), inicjalizacje oznaczające słowo lub frazę (np. gf dla dziewczyny, btw dla przy okazji), symbole zawierające symbole (np. xx dla pocałunków) i emotikony (np. J) oraz pozornie zamierzone , często niestandardowa pisownia fonetyczna (np. skool dla szkoły) i pozorne błędy ortograficzne (np. uniwersytet dla uniwersytetu). Niektórzy badacze uwzględnili dodatkowe kategorie, aby uwzględnić rosnącą kreatywność obserwowaną w wielu wiadomościach tekstowych, zwłaszcza zmiany wprowadzone poza pisownią poszczególnych słów. Na przykład Abbie Grace, Nenagh Kemp, Frances H. Martin i Rauno Parrila (2014) dodali kategorie dla dodatkowych wielkich liter (YEAH), dodatkowych znaków interpunkcyjnych (czy to dobrze???!!), dodatkowych liter (proszęeeeeee) i dodatkowych słowa (fajnie, fajnie), a Fiona Lyddy i in. (2014) uwzględnili kategorię tekstyzmów "onomatopeicznych/wyjaśniających", takich jak ha i argh. Wszystkie podane tutaj przykłady dotyczą wiadomości tekstowych w języku angielskim, ale oczywiście tekst nie jest unikalny dla tego języka. W językach, w których ludzie komunikują się za pomocą środków cyfrowych, zaobserwowano stosowanie tekstówizmów. Wydaje się, że tekstyzmy są konstruowane w podobny sposób w różnych językach, z przykładami skrótów (np. włoski cmq dla comunique; francuski pr dla pour, for), inicjalizmów (np. chiński mm dla meimei, ounger siostra; niemiecki MfG dla Mit freundlichem Grun, z poważaniem) i homofony literowe/cyfrowe (np. francuskie c jak c′est, it′s; hiszpańskie t2 jak todos, wszystkie; chińskie 555, wuwuwu, [dźwięk] płaczu). Pominięte znaki interpunkcyjne, a także dodatkowe znaki interpunkcyjne, dodatkowe litery i emotikony są również powszechne w wielu językach. Powyższe przykłady pokazują, że choć wiele tekstyzmów ogranicza liczbę znaków, to inne ją zwiększają, często w celu zwiększenia emocjonalnej i ekspresyjnej wartości przekazu. Popularnym sposobem na to jest wstawienie emotikonu (połączenie emocji i ikony) - graficznego przedstawienia wyrazu twarzy. Emotikony zostały po raz pierwszy zaproponowane przez informatyka Scotta Fahlmana w 1982 roku w celu oznaczenia żartu lub sarkazmu w komunikacji online. Znaczenie takiego oznakowania szybko stało się oczywiste ze względu na brak kontekstowych i niewerbalnych wskazówek do zrozumienia natury wiadomości dostarczanej drogą elektroniczną. Wcześniejsze emotikony były budowane z sekwencji naciśnięć klawiszy, takich jak :-) i :-(, ale dzisiejsi użytkownicy smartfonów mogą wybierać spośród emotikonów (zwanych emoji, gdy wyglądają jak obrazki z kreskówek), przedstawiających dziesiątki wyrażeń, a także szereg Jak zauważono wcześniej, większe ekrany, pełne klawiatury, szybsze systemy wprowadzania tekstu oraz tanie lub darmowe teksty we współczesnych telefonach oznaczają, że nie ma już realnej zachęty do zmniejszania liczby znaków w wiadomościach tekstowych. Jednak nawet jeśli ludzie odchodzą od skrótów, skrótów i inicjałów tak popularnych we wczesnych latach SMS-owania, nadal piszą w sposób niestandardowy. Bardziej powszechne są obecnie tekstyzmy zwiększające liczbę znaków i ekspresyjną treść przekazu: użycie nie tylko emotikonów, ale także dodatkowe znaki interpunkcyjne, wielkie litery i litery. Jednocześnie ludzie nadal pomijają niektóre elementy standardowego pisma, ale dziś są to prawdopodobnie znaczniki gramatyczne, takie jak (nieekspresyjna) interpunkcja i duże litery. Oczywiście w wielu przypadkach system słownikowego wprowadzania tekstu przywróci takie znaczniki, ale w niejednoznacznych przypadkach, gdy tak się nie stanie, użytkownik prawdopodobnie pozostawi frazy bez interpunkcji i bez wielkich liter (np. znaki tutaj dla Marka tutaj). Powszechnym sposobem badania używania tekstu przez ludzi jest poproszenie ich o podanie przykładów "naturalistycznych" wiadomości tekstowych: wiadomości, które już napisali i wysłali. Wykorzystanie tekstyzmu jest zwykle zgłaszane jako stosunek lub procent liczby tekstyzmów do liczby słów w zestawie wiadomości. Jedno słowo może być napisane z więcej niż jednym tekstizmem (np. Im dla I′m oznacza zarówno brakującą wielką literę, jak i brakujący apostrof), a tekstyzmy mogą objawiać się jako pominięcia (np. Interpunkcja) lub jako dodatki wykraczające poza liczbę słów (np. dodanie xx). Tak więc wiadomość LovelyJ źle ją zapisz!!! ma stosunek tekstyzmu do słowa równy 1 (lub 100%), ponieważ ma cztery tekstyzmy dla czterech słów. Obliczono, że średnie użycie tekstuizmu w naturalistycznych wiadomościach tekstowych w języku angielskim dorosłych wynosi od 5% do 6% lub od 25% do 28%. Jednak wiele badań zbiega się w szacunkach między 10% a 20%. Kemp i Grace (2017) zauważyli ponadto, że użycie tekstów wydaje się zmniejszać i zmieniać w czasie, przynajmniej w ich próbie siedmiu kohort studentów pierwszego roku na australijskim uniwersytecie w latach 2009-2015. Ogólne użycie tekstów spadło w tych latach z około 25% do poziomu około 12% w ostatnich kilku latach. tutaj nie było tak wielu badań nad naturalistycznymi wiadomościami dzieci, częściowo z powodu większych problemów etycznych związanych z proszeniem dzieci (i ich rodziców) o pozwolenie na podanie przykładów wiadomości, które wysłały. Zamiast tego w niektórych badaniach poproszono dzieci o przetłumaczenie standardowych wiadomości w języku angielskim na sposób, w jaki napisałyby je w wiadomości tekstowej lub wiadomości, które zostały wywołane w odpowiedzi na określone scenariusze. Metody te, na tym wczesnym etapie wysyłania SMS-ów, zaowocowały bardzo wysokim wykorzystaniem tekstizmów (34-50%) wśród brytyjskich 10-12-latków, jak ocenili Plester, Wood i współpracownicy w latach 2008-2009. Nieco późniejsze badania , zarówno przetłumaczonych, jak i naturalistycznych wiadomości, dostarczyły szacunków użycia tekstyzmu na około 13% do 16% dla dzieci w szkole podstawowej i liceum.

Czy SMS-y rujnują umiejętność czytania i pisania?

Intensywne korzystanie z SMS-ów przez dzieci to temat, który wzbudził ogromne zaniepokojenie ze strony popularnych mediów, nauczycieli i rodziców. Niektóre z tych obaw są bardzo realne. Na przykład koncentracja na telefonie komórkowym podczas spaceru po ulicy zwiększa o 40% prawdopodobieństwo potrącenia przez samochód. Praktyka "sekstingu", czyli wysyłania wiadomości lub zdjęć o charakterze jednoznacznie seksualnym, niesie ze sobą potencjalne wstyd, upokorzenie i reperkusje prawne, podczas gdy "cybernękanie" (nękanie za pomocą komunikacji cyfrowej) może powodować szereg problemów ze zdrowiem psychicznym, od lęku po samookaleczenie, a nawet samobójstwo. Oprócz silnych obaw związanych z tymi fizycznymi i psychicznymi zagrożeniami, pojawiła się jednak konsternacja co do możliwego wpływu używania tekstu na umiejętność czytania i pisania przez młodych ludzi. Widok młodych pisarzy, którzy pomijają litery i zastępują słowa literami i cyframi (r u ppl comin 2?!), tworzy fonetyczne powtórzenia (skool sux) i zaskakujące inicjalizmy (brb), skłonił wielu dorosłych do przypuszczenia, że teksty muszą rujnować dziecięcą pisownię. umiejętność czytania. Rzeczywiście, analiza przeprowadzona przez Thurlow (2006) stu doniesień medialnych na temat dyskursów zapośredniczonych komputerowo (w tym wiadomości tekstowych) ujawniła, że ogólne tematy były w przeważającej mierze negatywne, przedstawiając tekst jako przyczynę nie tylko upadku języka angielskiego, ale także standardów moralnych również. Dowody empiryczne dostarczyły jednak zupełnie innego obrazu związku między używaniem przez dzieci tekstów a ich konwencjonalnymi umiejętnościami czytania i pisania. Dwa ważne wczesne badania przeprowadzone przez Plestera, Wooda i współpracowników w 2008 i 2009 roku ujawniły, że tendencja dzieci w wieku od 10 do 12 lat do używania tekstów (w przetłumaczonych i wywoływanych wiadomościach) była pozytywnie związana z ich umiejętnościami werbalnymi, ortograficznymi i czytaniem. Kilka późniejszych badań potwierdziło te pozytywne związki między używaniem tekstów a wynikami umiejętności czytania i pisania. Kontynuacja prac podłużnych i interwencyjnych Wooda i współpracowników w 2011 r. wykazało, że używanie tekstuizmu było ogólnie związane z lepszą pisownią i mogło odpowiadać za niewielki, ale znaczący wzrost umiejętności ortograficznych w ciągu roku. Odkrycia te sugerują, że używanie tekstu może faktycznie pomóc poprawić umiejętności ortograficzne dzieci. Może się to zdarzyć na kilka sposobów. Rozszyfrowywanie i tworzenie tekstów, zwłaszcza tekstów fonetycznych, które są popularne wśród tych dzieci, może zapewnić ćwiczenie w manipulowaniu dźwiękami języka, umiejętności niezbędnej do płynnego czytania i ortografii. Decyzja, kiedy i jak napisać dany tekst, może pomóc zwiększyć świadomość metajęzykową dzieci. Co więcej, korzystanie ze słownikowego wprowadzania tekstu może zapewnić dodatkowe informacje zwrotne dotyczące pisowni, a zwiększony kontakt z językiem pisanym, jaki niektóre dzieci zyskują dzięki korzystaniu z telefonu, może pomóc w poprawie umiejętności językowych, które leżą u podstaw umiejętności czytania i ortografii. Poza tymi potencjalnymi zaletami kontaktu z językiem tekstowym, być może nie jest zaskakujące, że dzieci nie zapominają, jak czytać lub pisać poszczególne słowa. Słowa, które ludzie piszą w języku tekstowym, są zwykle bardzo powszechne, takie jak u dla ciebie i txt dla tekstu, i wydaje się mało prawdopodobne, aby nawet dzieci nie były w stanie zapamiętać swojej zwykłej pisowni, nawet jeśli często mają kontakt z ich formami tekstowymi. Co więcej, pisanie w języku tekstowym nie polega tylko na powtarzaniu pojedynczych słów. Zwłaszcza w ostatnich latach pisarze są bardziej skłonni do wprowadzania zmian na poziomie zdań, takich jak pomijanie wielkich liter i znaków interpunkcyjnych, pomijanie nieistotnych słów (np. dodatkowe znaki interpunkcyjne. W związku z tym garstka badaczy rozważała również, czy ekspozycja na teksty może zamiast tego wpływać na zdolności gramatyczne dzieci na poziomie zdań. Amerykańskie badanie Drew Cingela i S. Shyama Sundara (2012) wykazało ujemną korelację między liczbą tekstów używanych przez dzieci w klasach 6, 7 i 8 a ich wynikami w zadaniu gramatycznym. Jednak dzieci zakodowały swoje własne wiadomości tekstowe, metoda, która wydaje się być podatna na błędy, zwłaszcza przez dzieci o najsłabszych umiejętnościach gramatycznych. Brytyjskie dzieci zarówno w szkole podstawowej, jak i średniej popełniały liczne naruszenia gramatyczne w wysyłanych wiadomościach tekstowych badanych przez Kempa, Wooda i współpracowników w 2014 r., ale (z jednym, negatywnym wyjątkiem) nie miały one spójnego wzorca relacji z wynikami kilku zadań gramatycznych. Uczestnicy ci zostali ponownie przebadani rok później, a naruszenia gramatyczne w wiadomościach tekstowych nie przewidywały rozwoju ich umiejętności gramatycznych w ciągu roku. W próbie holenderskich dzieci z klas 5 i 6 jeden rodzaj tekstuizmu - pomijanie nieistotnych słów - przewidywał rdzenie dzieci w zadaniu powtarzania wypowiedzianych zdań. Autorzy badania, van Dijk i współpracownicy (2016), sugerują, że myślenie o tym, które słowa można pominąć w wiadomości, może pomóc w szkoleniu mówionego systemu gramatycznego. Ogólnie rzecz biorąc, odkrycia te sugerują, że ekspozycja na tekst nie zawsze szkodzi gramatyce dzieci. Wzorce powiązań między używaniem tekstów a umiejętnościami czytania i pisania wydają się być znacznie bardziej zróżnicowane u nastolatków i dorosłych. Niektóre badania nie wykazały wyraźnego związku, podczas gdy inne wykazały związek negatywny lub związek pozytywny. Badania, w których zbadano większą liczbę miar umiejętności czytania i pisania, wykazały bardziej zróżnicowany zakres pozytywnych i negatywnych relacji. Badania, które koncentrowały się na zdolnościach gramatycznych, dały pewne sugestie, że dorośli, którzy popełniają więcej naruszeń gramatycznych w wysyłanych wiadomościach tekstowych i którym trudniej jest poprawiać błędy gramatyczne innych, mogą mieć mniejsze umiejętności w tej dziedzinie, ale wyniki te były nie spójne we wszystkich zadaniach gramatycznych. W związku z tym ekspozycja na teksty nie wydaje się szkodzić umiejętnościom czytania i pisania dzieci (lub dorosłych), aw niektórych okolicznościach może nawet je poprawiać. Należy jednak zauważyć, że wiele z tych badań prowadzono w czasach, gdy tekstylia charakteryzowały się zabawnymi, często fonetycznymi, powtórzeniami i wymagały od dzieci zastanowienia się nad tym, jak zapisują słowa. Co więcej, dzieci te nie otrzymały swojego pierwszego telefonu tak wcześnie, jak dzieci dzisiaj. Jest więc prawdopodobne, że ci pierwsi uczestnicy mieli większy kontakt ze standardowym językiem angielskim niż z tekstem, w porównaniu z poziomem kontaktu z tekstem, jaki ma obecnie wiele dzieci, zwłaszcza jeśli widzą tekst w innych mediach, takich jak Facebook lub komunikatory . Dzisiejsze dzieci otrzymują telefony w młodszym wieku i są narażone na bardziej pisemną komunikację cyfrową, a dzisiejsza tekstyka obejmuje bardziej zróżnicowane struktury językowe wyższego poziomu niż pojedyncze słowa. Dlatego nie można zakładać, że wnioski z ostatnich dziesięcioleci będą nadal aktualne i potrzebne będą ciągłe badania.

Czynniki społeczne w używaniu SMS

Zarówno dzieci, jak i dorośli nadal używają tekstu w swoich wiadomościach, mimo że bardziej wyrafinowane telefony i systemy wprowadzania tekstu oznaczają, że słowa i zdania można łatwo komponować w całości. Jednym z powodów nieprzerwanej popularności tekstu, zwłaszcza ekspresyjnego lub emocjonalnego, jest to, że zwiększa on społeczne znaczenie wiadomości tekstowych i wzmacnia poczucie intymności z innymi. Wydaje się również, że ludzie lubią "bawić się" językiem w celowo kreatywny sposób, co może również pomóc w poprawie relacji społecznych. Jednak chociaż taka kreatywność językowa może ułatwiać komunikację między przyjaciółmi, może mieć również negatywny wpływ, jeśli jest używana w bardziej formalnych kontekstach. Ludzie wydają się zgadzać, że bardziej odpowiednie jest używanie tekstu w komunikacji nieformalnej, na przykład w wiadomości tekstowej do przyjaciela, niż w bardziej formalnych wiadomościach, takich jak e-mail do wykładowcy uniwersyteckiego. Rzeczywiście, w badaniu z 2006 roku Gary Lewandowski i Samantha Harrington stwierdzili, że studenci uważają rówieśników, którzy używali tekstu w e-mailach do nauczycieli akademickich, za mniej inteligentnych, mniej odpowiedzialnych i mniej pracowitych niż rówieśnicy, którzy pisali takie e-maile standardowym angielskim. Podobnie wykazano, że ludzie oceniają (fikcyjnych) innych jako mniej kompetentnych, mniej zdolnych do zatrudnienia, mniej sumiennych i mniej inteligentnych, gdy popełniają błędy gramatyczne lub używają nawet niskiego poziomu tekstu w swoich e-mailach, postach na Facebooku lub podaniach o pracę w porównaniu z pisaniem w standardowym języku angielskim. Te poglądy na temat stosowności tekstu tekstowego w różnych sytuacjach znajdują również odzwierciedlenie w zachowaniach ludzi związanych z wysyłaniem SMS-ów. Na przykład w badaniu z 2016 roku Kemp i Jennifer Clayton wykazali, że studenci uniwersytetów używali więcej tekstu w wiadomościach do przyjaciół niż do rówieśników i do rówieśników niż do przełożonych (wykładowca lub szef) zarówno w wiadomościach wywołanych, jak i naturalistycznych. Co więcej, ludzie zmieniają swój styl językowy, wybór słów i użycie emotikonów, aby dostosować je do swoich odbiorców, w wiadomościach błyskawicznych i postach online na grupach dyskusyjnych. Innym czynnikiem, który może wpływać na korzystanie przez ludzi z SMS-ów i tekstów, jest płeć. We wszystkich językach i grupach wiekowych kobiety i dziewczęta wysyłają dziennie więcej wiadomości tekstowych niż mężczyźni i chłopcy. Jeśli chodzi o użycie samego tekstizmu, niektórzy badacze nie zauważyli żadnych różnic między płciami, chociaż ten ogólny brak efektu może maskować różne wzorce używania różnych typów tekstuizmu. Bardziej powszechnym odkryciem było to, że kobiety używają więcej tekstówyzmów niż mężczyźni. Ten wzorzec zaobserwowano zarówno u dzieci, jak i dorosłych, w tym pod względem liczby emotikonów i ekspresyjnych tekstów. Częstsze korzystanie przez kobiety z tekstów, zwłaszcza tych o znaczeniu emocjonalnym, prawdopodobnie odzwierciedla tendencje na większą skalę do większej swobody (lub oczekiwań) kobiet niż mężczyzn w wyrażaniu emocji i ciepła społecznego w ich interakcjach społecznych. Z uwagi metodologicznej, wiele badań nad zachowaniami związanymi z wysyłaniem SMS-ów obejmowało przewagę kobiet w swoich próbkach. Ponieważ wydaje się, że kobiety piszą więcej wiadomości i używają więcej wiadomości tekstowych niż mężczyźni, ważne jest, aby zgłaszać wszelkie dysproporcje płci uczestników, ponieważ w przeciwnym razie szacunki dotyczące wiadomości tekstowych i wiadomości tekstowych mogłyby zostać sztucznie zawyżone

Przyszłość SMS-ów

Wraz z rozwojem technologii samo przesyłanie wiadomości tekstowych zostanie zastąpione nowymi, ale równie popularnymi formatami szybkiej komunikacji elektronicznej. Wydaje się, że prawdopodobnie pozostanie swobodny, niestandardowy, często kreatywny styl pisania, który nadal jest szeroko rozpowszechniony w komunikacji cyfrowej. Wcześniejsze skupienie się na zmniejszeniu liczby znaków zostało teraz zastąpione naciskiem na pisanie tak, jak można by mówić, z całą ekspresją emocjonalną i swobodą rozmowy mówionej, bez konieczności przestrzegania wszystkich elementów tradycyjnie pisanego języka. Zamiast zastępować, a nawet "zrujnować" konwencjonalny formalny język pisany, ten nowszy styl pisania wydaje się zapewniać skuteczny i często zabawny alternatywny sposób komunikowania się za pomocą środków cyfrowych. Tak długo, jak pisarze będą w stanie rozdzielić te dwa rejestry, nie stracą zdolności pisania konwencjonalnego, ale zyskają dodatkowy sposób szybkiego i sensownego porozumiewania się w języku pisanym.



Powrót

Sieć semnatyczna



Sieć semantyczna to wizja, inicjatywa i nieustanne wysiłki prowadzone przez konsorcjum World Wide Web Consortium (W3C), mające na celu uczynienie informacji w sieci bardziej dostępnymi i łatwiejszymi do przetwarzania przez maszyny. Według Tima Bernersa-Lee, wynalazcy zarówno sieci semantycznej, jak i istniejącej sieci World Wide Web (WWW), ta pierwsza nie jest odrębną jednostką, ale raczej rozszerzeniem obecnej sieci, w której informacjom nadaje się dobrze zdefiniowane znaczenie, co z kolei umożliwia bardziej efektywną współpracę komputerów i ludzi. Innymi słowy, sieć semantyczna nie ma być zamiennikiem lub substytutem obecnej sieci WWW, ale raczej ewolucją tej ostatniej, w której znaczenie danych jest wyraźnie zdefiniowane w sposób zrozumiały dla agentów oprogramowania, co pozwala na łatwiejsze ponownego wykorzystania, udostępniania i integracji w różnych aplikacjach i kontekstach. Ten wpis definiuje sieć semantyczną i bada jej historię, korzyści, zasady, technologie, zastosowania i wyzwania.

Sieć semantyczna zdefiniowana

WWW, w swojej obecnej formie, jest zasadniczo siecią dokumentów opublikowanych i przeznaczonych do konsumpcji i przetwarzania przez ludzi. Większość informacji publikowanych obecnie w Internecie ma postać tekstów, obrazów i filmów, które są indeksowane przez obecne wyszukiwarki i uzyskiwane za pomocą wyszukiwania opartego na słowach kluczowych. Typowe zadanie wyszukiwania informacji na dany temat obejmuje sformułowanie zapytania zawierającego odpowiednie słowa kluczowe, filtrowanie listy wyników w celu znalezienia najbardziej odpowiednich dokumentów, a na koniec wyodrębnienie, przetworzenie i zintegrowanie potrzebnych informacji z tych dokumenty. Obecnie, gdy dane przechowywane w sieci rosną wykładniczo, a wszystkie poprzednie zadania muszą być wykonywane ręcznie przez użytkownika, potrzeba zautomatyzowanych procesów wykorzystujących to bogactwo informacji jest większa niż kiedykolwiek. W tym miejscu wkracza wizja sieci semantycznej, która obiecuje nową generację sieci, w której agenci oprogramowania będą mogli wykonywać złożone zadania bez jakiejkolwiek interwencji ze strony użytkowników. Realizację wizji Sieci Semantycznej umożliwia zestaw technologii i standardów wprowadzonych przez W3C, międzynarodową organizację opracowującą standardy, takie jak hipertekstowy język znaczników, centralny system komputerowy oraz rozszerzalny język znaczników (XML), zapewniający długoterminowe wzrost sieci. Standardy te tworzą stos technologii, zapewniając wspólne ramy dla udostępniania, przeszukiwania i ponownego wykorzystywania danych w różnych aplikacjach. Pomimo wprowadzenia nowego stosu implementacji sieci semantycznej, zgodnie z przewidywaniami badaczy i zwolenników tej ostatniej, podstawowa idea leżąca u podstaw sieci nowej generacji pozostaje niezmienna: umożliwić nawigację po dokumentach przechowywanych w sieci za pomocą definicji łączących je powiązań. Tak jak sieć w swojej pierwszej formie, lub Web 1.0, jak się ją często nazywa, została zbudowana wokół pojęcia hiperłączy między dokumentami, umożliwiając użytkownikom przemieszczanie się od dokumentu do dokumentu, sieć semantyczna będzie wykorzystywać ustanowione powiązania między danymi, umożliwiając w ten sposób maszynom do wykrywania powiązanych danych w zautomatyzowany sposób. Podczas gdy powiązania między dokumentami w sieci WWW nie mają żadnego szczególnego znaczenia, powiązania między danymi w sieci semantycznej opisują naturę lub innymi słowy semantykę relacji między nimi. Ta funkcja umożliwia komuś powiązanie, na przykład, autora z jedną z jego książek za pomocą odpowiedniej właściwości "napisał", tworząc w ten sposób proste logiczne stwierdzenie. Przejście od dzisiejszej sieci WWW do sieci semantycznej zasadniczo przekształci istniejącą sieć dokumentów w nową sieć danych, w której proste twierdzenia logiczne są łączone w celu utworzenia uniwersalnego grafu danych.

Historia Sieci Semantycznej

W 2001 roku Tim Berners-Lee, James Hendler i Ora Lassila opublikowali w Scientific American artykuł, który zdefiniował wizję Semantic Web. Ten artykuł, poprzez zgrubny szkic zadań, które typowy cyfrowy asystent osobisty będzie w stanie wykonać w następnej generacji sieci, przedstawił niektóre z głównych elementów, które pomogłyby ulepszyć obecną sieć dzięki zrozumieniu znaczenia publikowanych dokumentów. Te bloki konstrukcyjne obejmowały ramy opisu zasobów (RDF) i XML do ustrukturyzowanego opisu opublikowanych informacji, ontologie do logicznego uzasadnienia znaczenia danych i agentów do przetwarzania danych, rozumowania z nimi i odpowiedniego działania. W kolejnych latach W3C opublikowało szereg standardów, które są uważane za podstawowe technologie sieci semantycznej, takie jak model RDF, język ontologii sieciowej (OWL), język ontologii i jego następca OWL 2, SPARQL (protokół SPARQL i język zapytań RDF) oraz język rodziny reguł wymiany formatów (RIF). W międzyczasie wprowadzono ogromną liczbę ontologii w różnych dziedzinach, z których wiele jest nadal aktywnie wykorzystywanych w rozwijającej się sieci danych. Wszystkie te technologie, wraz z kilkoma dodatkowymi i kilkoma ontologiami domenowymi, posłużyły jako fundamenty powstającej Sieci Semantycznej. W 2006 roku na pierwszy plan wysunął się termin połączone dane, opisujący podstawowe zasady i najlepsze praktyki publikowania i uruchamiania sieci danych. Prace projektu społeczności Linking Open Data zaowocowały publikacją i udostępnieniem kilku połączonych zestawów danych z różnych dziedzin jako dane RDF. Ruch Linked Data nabrał rozpędu, demonstrując praktyczne wyniki i skupiając się bardziej na tym, jak udostępniać dane w formie łatwej do udostępniania i ponownego wykorzystania, a mniej na aspekcie rozumowania agentów wykonujących zautomatyzowane zadania. Inicjatywa Linked Data stanowi udany przykład przewidywanej sieci danych, ponieważ dostępność wystarczająco dużych ilości ustrukturyzowanych danych jest niezbędna do realizacji pełnej wizji sieci semantycznej.

Korzyści z sieci semantycznej

W artykule, który przedstawił Semantic Web w 2001 roku, Berners-Lee wyobraził sobie sieć, w której złożona wiedza jest wymieniana i przetwarzana przez inteligentnych agentów, którzy pomagają ludziom w ich codziennych zadaniach. Chociaż pogląd ten jest optymistyczny, obejmuje kilka oczekiwań i korzyści, jakie sieć semantyczna może przynieść, nie tylko w kontekście WWW, ale także w domenach i aplikacjach wykraczających poza granice sieci. Lepsze i wydajniejsze wyszukiwanie. Wyszukiwanie w sieci tradycyjnie opierało się na indeksowaniu słów kluczowych dokumentów i dopasowywaniu do nich słów kluczowych w celu uzyskania najtrafniejszych wyników. W dobie Sieci Semantycznej oczekuje się, że indeksowanie i wyszukiwanie będzie opierać się nie tylko na słowach kluczowych, pozwalających wyszukiwać pojęcia z jednego lub kilku słowników czy taksonomii, ale także uwzględniać spersonalizowane preferencje użytkownika. W rzeczywistości można już zauważyć, że obecnie większość głównych wyszukiwarek przechodzi na bardziej zaawansowane semantyczne modele wyszukiwania, które znacznie wykraczają poza typowe dopasowanie słów kluczowych. Łatwiejsza integracja danych i interoperacyjność z różnych źródeł. Każdego dnia publikowanych jest coraz więcej informacji, które w różnych formach stają się dostępne w sieci. W większości przypadków praktycznych zastosowań łączenie informacji z różnych źródeł danych jest podstawowym zadaniem, którego nie można jeszcze w pełni zautomatyzować, nawet w przypadkach, gdy informacje są dostarczane w formie przetwarzalnej maszynowo. Przyjęcie standardów Semantic Web, modeli danych i słowników do wyrażania danych i wiedzy w formach czytelnych maszynowo znacznie ułatwi i umożliwi płynną integrację danych z heterogenicznych źródeł danych. Automatyczne wykrywanie danych maszyny. Bezpośrednią konsekwencją wyrażania danych w standardowych formatach do odczytu maszynowego jest automatyczne wykrywanie, pobieranie i przetwarzanie danych z agentów oprogramowania, które będą wykorzystywać tylko te dane, których potrzebują do wykonywania różnych zadań. Inteligentne udostępnianie usług. Sieć semantyczna to wizja, w której znaczenie danych sieciowych jest wyrażane w formie zrozumiałej dla maszyn, umożliwiając im rozumowanie na podstawie istniejących danych i wnioskowanie o nowych informacjach. Korzystając z takich możliwości rozumowania, agenci oprogramowania będą w stanie odkrywać usługi, koordynować je, przesyłając wyniki jednego do drugiego, a tym samym wykonywać złożone zadania, aby w pełni zrealizować wizję Sieci Semantycznej.,

Zasady sieci semantycznej

Sieć semantyczna jest zgodna z wieloma zasadami projektowania, z których wiele jest również podstawowymi zasadami sieci WWW, czyniąc z niej idealną podstawę do rozwoju i ewolucji pierwszej. Te zasady projektowania obejmują:

Standaryzowane adresowanie zasobów. Najbardziej podstawową jednostką w Sieci Semantycznej jest pojęcie zasobu, które może reprezentować wszystko, co można opisać lub o czym można mówić, na przykład obiekt, osobę, lokalizację, a nawet pojęcie abstrakcyjne. Każdy taki zasób powinien być identyfikowalny za pomocą jednolitego identyfikatora zasobów (URI), aby zezwolić na jednoznaczne skierowanie do konkretnego podmiotu. Najbardziej rozpowszechnioną formą identyfikatorów URI są adresy URL (Uniform Resource Locators), które określają adres danego zasobu i umożliwiają pobranie jego reprezentacji za pośrednictwem protokołu internetowego, takiego jak HTTP (ang. Hypertext Transfer Protocol).
Mały zestaw poleceń protokołu. Podobnie jak w przypadku WWW, gdzie mały zestaw powszechnie znanych poleceń HTTP określa dozwolone działania, które można wykonać na zasobie, Sieć Semantyczna może korzystać z małego, dobrze zdefiniowanego zestawu poleceń obsługiwanych przez istniejące serwery WWW .
Zdecentralizowana, bezstanowa architektura. Jedną z przyczyn sukcesu i powszechnego wykorzystania sieci WWW jest brak centralnej kontroli publikowanych stron internetowych, gdyż każdy może swobodnie dodawać nowe strony i zasoby, pod warunkiem, że ma dostęp do serwera WWW. Co więcej, skalowalność sieci jest częściowo wspierana przez fakt, że większość transakcji jest bezstanowa i dlatego nie wymaga więcej informacji niż te, które są zawarte w żądaniu HTTP, co z kolei ma pozytywny wpływ na wydajność systemów sieciowych.
Otwartość, częściowa informacja. Zdecentralizowany charakter Sieci Semantycznej i brak centralnej kontroli pozwalają każdemu wypowiedzieć się na dowolny temat. W związku z tym nie gwarantuje się ani spójności wypowiedzi na temat danego podmiotu, ani kompletności informacji na jego temat. Jednak ilość informacji na temat zasobu może zmieniać się z czasem, w miarę publikowania nowych zestawień. Te zasady projektowania Sieci Semantycznej w naturalny sposób dopasowują się do istniejącej struktury i protokołów WWW i uzasadniają wybór zbudowania tego pierwszego na drugim, ponownego wykorzystania i wykorzystania dojrzałych technologii leżących u jego podstaw. Oprócz tych ogólnych zasad projektowania Sieci Semantycznej zaproponowano inny zestaw bardzo istotnych zasad dotyczących publikacji połączonych danych, zbiór najlepszych praktyk w zakresie publikowania danych w formie które można ponownie wykorzystać w nowej sieci danych. Te cztery zasady, wprowadzone przez Bernersa-Lee w 2006 roku, można podsumować w następujący sposób:

1. Używaj identyfikatorów URI do identyfikacji zasobów.
2. Użyj identyfikatorów URI, które przyjmują schemat HTTP, aby umożliwić dostęp do reprezentacji zasobów, do których się odwołuje.
3. Gdy ktoś odwiedza URI, informacje o zasobie, do którego się odwołuje, muszą być podane przy użyciu standardów Sieci Semantycznej, takich jak RDF.
4. Podaj linki i nawiąż relacje z innymi zasobami, aby zbudować wykres danych.

Tych wskazówek można przestrzegać przy publikowaniu dowolnego zestawu danych w połączonym formularzu danych, nawet jeśli ten zestaw danych jest przeznaczony wyłącznie do użytku wewnętrznego w jakiejś korporacji. Jednak aby zestaw danych stał się częścią sieci semantycznej i mógł być wykrywany i ponownie wykorzystywany przez innych użytkowników i agentów oprogramowania, musi być również dostępny na otwartej licencji, która nie nakłada żadnych ograniczeń na jego swobodne ponowne wykorzystanie. W 2010 roku Berners-Lee zaproponował prosty 5-gwiazdkowy system oceny otwartych, bezpłatnych zbiorów danych wielokrotnego użytku publikowanych jako Linked Open Data (LOD). Każda kategoria w tym schemacie opiera się na poprzedniej, wprowadzając dodatkowe ograniczenie jakości. W związku z tym można wyróżnić zbiory danych następujących kategorii:

1 gwiazdka: wszelkie dane dostępne w sieci na otwartej licencji
2 gwiazdki: dane wyrażone w ustrukturyzowanej formie nadającej się do odczytu maszynowego
3 gwiazdki: dane wyrażone w otwartym formacie nadającym się do odczytu maszynowego
4-gwiazdkowe: 3-gwiazdkowe dane wykorzystujące standardy W3C do identyfikacji zasobów
5-gwiazdkowe: 4-gwiazdkowe dane, które zawierają linki do innych zasobów, prawdopodobnie z innych zestawów danych.

Semantyczne technologie sieciowe

Wizja Sieci Semantycznej i jej podstawowe zasady są realizowane poprzez zestaw technologii i otwartych standardów pod nadzorem W3C. Technologie te są zorganizowane w architekturę warstwową , znaną jako stos sieci semantycznej (patrz rysunek 1), w której każda warstwa wykorzystuje i wykorzystuje technologie niższych warstw. Główne warstwy stosu sieci semantycznej to:

URI/IRI: Unikalna identyfikacja jednostek jest kamieniem węgielnym stosu sieci semantycznej, aby zapewnić jednoznaczne odniesienie się do konkretnej rzeczy, koncepcji, osoby lub lokalizacji. Międzynarodowe identyfikatory zasobów (IRI) są uogólnieniem koncepcji URI, dopuszczając również znaki Unicode.
XML: XML jest jednym z najbardziej rozpowszechnionych języków znaczników służących do opisywania danych strukturalnych w sieci. XML jest zarówno czytelny dla maszyn, jak i dla ludzi, aw kontekście sieci semantycznej jest używany głównie jako format wymiany dla języków i standardów wyższych warstw, takich jak RDF i OWL.
RDF: RDF jest podstawowym standardem i modelem stosu Sieci Semantycznej, umożliwiającym definiowanie prostych stwierdzeń o zasobach w formacie nadającym się do odczytu maszynowego. Wyrażenie, zwane także trójką, ponieważ składa się z podmiotu, orzeczenia i dopełnienia, jest najbardziej podstawowym elementem modelu RDF, który pozwala określać fakty dotyczące bytów. RDF jest specyfikacją W3C opartą na modelu grafowym, ponieważ każdy zestaw instrukcji RDF zasadniczo tworzy graf. Do reprezentacji wykresu RDF można używać zarówno formatów tekstowych, jak i XML. RDF stanowi uniwersalny model, któremu powinny odpowiadać wszystkie dane, aby mogły być częścią Sieci Semantycznej.
Języki definicji ontologii: Podczas gdy RDF pozwala na definiowanie prostych stwierdzeń dotyczących zasobu, semantyka tych stwierdzeń jest zapewniana przez jedną lub więcej ontologii. Ontologia jest w rzeczywistości modelem konceptualnym, który definiuje koncepcje, relacje i aksjomaty dotyczące określonej dziedziny wiedzy i dostarcza niezbędnego słownictwa do użycia przez instrukcje RDF. Ontologia, ze względu na zawarte w niej aksjomaty logiczne, zapewnia niezbędną podstawę logiczną do prowadzenia rozumowania na grafie RDF, a tym samym do wnioskowania o nowych faktach na podstawie istniejących. RDF Schema to najprostszy język ontologii znormalizowany przez W3C, umożliwiający definiowanie prostych hierarchii pojęć i właściwości oraz ograniczeń domen i zakresów dla właściwości. Z drugiej strony OWL to rodzina bardziej zaawansowanych języków, opartych na teorii logiki opisu, z których każdy ma swoją własną wyrazistość i złożoność rozumowania. OWL zapewnia zaawansowane konstrukcje reprezentacji wiedzy, takie jak złożone wyrażenia definicji pojęć, zawierające operatory logiczne oraz kwantyfikatory uniwersalne i egzystencjalne, aksjomaty liczności i rozłączności, klasy wyliczeniowe i tak dalej.
SPARQL: SPARQL jest głównym językiem zapytań dla grafów RDF, ustandaryzowanym przez W3C. SPARQL to zaawansowany język zapytań z kilkoma funkcjami, takimi jak opcjonalne dopasowywanie wykresów, agregaty i podzapytania. Specyfikacja SPARQL zawiera również język aktualizacji, który umożliwia aktualizowanie, tworzenie i usuwanie grafów RDF. Oczekuje się, że aplikacje sieci semantycznej będą pobierać i aktualizować dane z grafów RDF za pośrednictwem odpowiednich żądań SPARQL.
RIF: RIF to rodzina języków definicji reguł, znanych również jako dialekty. Reguły to stwierdzenia, które mówią, że wniosek jest ważny zawsze, gdy spełniony jest dany warunek i stanowią alternatywny sposób określania wiedzy dziedzinowej. Języki regułowe mogą mieć większą ekspresyjność niż języki ontologiczne, ale wiąże się to również z największą złożonością przetwarzania.
Logika i dowód: warstwy logiki i dowodu są odpowiedzialne za świadczenie usług wnioskowania na niższych warstwach stosu, które są odpowiedzialne za kodowanie dostępnej wiedzy w formie przetwarzalnej maszynowo. Zadania rozumowania są teoretycznie ugruntowane na logice opisu i logice pierwszego rzędu i obejmują sprawdzanie spójności zestawu stwierdzeń w odniesieniu do jednej lub więcej ontologii i zestawów reguł, a także wnioskowanie o nowych konsekwencjach logicznych ze zbioru stwierdzonych faktów. Kryptografia: Mechanizmy kryptograficzne obejmują technologie szyfrowania i uwierzytelniania, których można używać w całym stosie Sieci Semantycznej w celu zagwarantowania bezpiecznej wymiany danych. Ponadto weryfikacja certyfikatów cyfrowych jest kluczowa dla zapewnienia pochodzenia danego oświadczenia. Zaufanie: Warstwa zaufania obejmuje wszystkie te mechanizmy, które określają wiarygodność danego zbioru danych lub usługi, w oparciu o niezawodność i poziom zaufania do określonego wydawcy danych lub usługodawcy. Jak dotąd jest to jedna z najmniej zbadanych warstw w stosie sieci semantycznej.

Semantyczne aplikacje internetowe

Od czasu powstania Sieci Semantycznej w 2001 r. absorpcja i poziom adopcji technologii i specyfikacji semantycznych były powolne i bardziej ograniczone niż początkowo oczekiwano. Nadal wydaje się, że jest jeszcze sporo do zrobienia, zwłaszcza w dziedzinie sztucznej inteligencji i przetwarzania języka naturalnego, w celu realizacji futurystycznych scenariuszy przewidzianych przez Bernersa-Lee, ale to nie znaczy, że nie ma kilku przykładów aplikacji, które z powodzeniem demonstrują efekty wykorzystania technologii semantycznych w praktyce. Jednym z najbardziej udanych przykładów ładowania początkowego i wdrażania sieci danych jest inicjatywa Linking Open Data, której celem jest publikowanie w sieci różnych otwartych zbiorów danych w formacie RDF w oparciu o zasady powiązanych danych oraz ustanawianie powiązań RDF między podmiotami z różnych zbiory danych. Te połączone zestawy danych RDF tworzą tak zwaną chmurę LOD, która w 2014 roku zawierała około 1000 zestawów danych i odnosiła się do 8 milionów podmiotów. Zbiory danych, które składają się na chmurę LOD, obejmują szeroki zakres domen, od zbiorów danych geograficznych, biologicznych i edukacyjnych po zbiory danych z domen mediów, administracji i handlu. Różnorodność domen objętych zbiorami danych LOD Cloud, a także rosnąca tendencja organizacji do publikowania swoich danych jako Linked Data to pozytywne oznaki, że masa krytyczna danych RDF potrzebnych aplikacjom Semantic Web do zaprezentowania ich potencjału jest już dostępny. Wśród zbiorów danych wchodzących w skład LOD Cloud niektóre zasługują na szczególne wyróżnienie nie tylko ze względu na swoją wielkość i udział w ogólnej liczbie gromadzonych trójek RDF, ale przede wszystkim ze względu na liczbę linków przychodzących z innych zbiorów danych. Te zestawy danych zazwyczaj zawierają dużą liczbę podmiotów, które są również obecne w innych zestawach danych, a ze względu na dużą liczbę łączy przychodzących pełnią centralną rolę w chmurze LOD i zwiększają stopień jej wzajemnych powiązań. Takie zestawy danych obejmują DBpedia, zestaw danych automatycznie wyodrębniony z publicznie dostępnych zrzutów Wikipedii. Międzydomenowy charakter informacji zawartych w Wikipedii uzasadnia centralną rolę DBpedii w chmurze LOD. Podobnie Geonames i LinkedGeoData to dwa zestawy danych, które służą jako centra dla innych zestawów danych, ponieważ dostarczają fakty o milionach lokalizacji geograficznych do LOD Cloud. Wybitne przykłady dużych zbiorów danych RDF obejmują również różne katalogi bibliotek narodowych, zbiory danych statystycznych agencji rządowych, a także zbiory danych organizacji nadawczych, gazet i mediów społecznościowych. Innym udanym przykładem zastosowania technologii semantycznych jest restrukturyzacja różnych stron internetowych BBC (British Broadcasting Corporation). Wykorzystanie modelu RDF w całym ekosystemie serwisów BBC pozwala na lepszą ich integrację i wzajemne powiązanie. Unikalne identyfikatory są przypisywane nie tylko do każdego programu BBC, ale także do innych podmiotów będących przedmiotem zainteresowania, takich jak artyści muzyczni, sportowcy, a nawet gatunki biologiczne. Pozwala to na grupowanie treści odnoszących się do tego samego podmiotu w całej rodzinie witryn BBC, usprawnia wyszukiwanie użytkowników i ułatwia odkrywanie treści. Dziedziną nauk przyrodniczych i ochrony zdrowia jest kolejna dziedzina, w której zastosowano technologie semantyczne. Opracowano kilka odpowiednich ontologii, takich jak uogólniona architektura języków, encyklopedii i nomenklatur (GALEN), ułatwiająca integrację heterogenicznych biologicznych i zdrowotnych baz danych, a tym samym umożliwiająca interoperacyjność semantyczną w ramach tej samej lub między różnymi organizacjami i przedsiębiorstwami.

Wyzwania sieci semantycznej

Pomimo niezwykłych wysiłków i postępów w realizacji wizji Sieci Semantycznej, wciąż istnieje wiele wyzwań, którym należy sprostać w tej dziedzinie. Po pierwsze, w odniesieniu do ilości dostępnych danych semantycznych, chociaż w LOD Cloud są miliardy trójek RDF, pochodzą one głównie z danych ustrukturyzowanych lub częściowo ustrukturyzowanych, takich jak dane relacyjne, dokumenty XML czy arkusze kalkulacyjne. Jednak duża część ludzkiej wiedzy znajduje się w tekstach napisanych w języku naturalnym i nadal pozostaje w dużej mierze ukryta przed maszynami, ponieważ nie jest wyrażona w formie przetwarzalnej przez maszyny. Ekstrakcja wiedzy z tekstów w języku naturalnym jest wyzwaniem, z którym powinni zmierzyć się badacze Sieci Semantycznej, ponieważ pozwoli to na uwolnienie jeszcze większej ilości informacji w LOD Cloud. Specyficzne problemy pojawiające się w tej kategorii obejmują wykrywanie bytów w zdaniu, identyfikację ich typu oraz uzgodnienie z bytem w istniejącym zbiorze danych, takim jak DBpedia. Inny ściśle powiązany problem dotyczy identyfikacji osobistych opinii i uczuć w tekście naturalnym. Rozwiązanie tego problemu pozwoli na analizę stale rosnącej liczby wpisów w sieci społecznościowej, odnoszących się do różnych dziedzin, takich jak turystyka, handel, rozrywka czy edukacja. Przetwarzanie języka naturalnego jest kluczowym wyzwaniem nie tylko w zakresie analizy wolnego tekstu i wydobywania z niego informacji, ale także w odniesieniu do zdolności systemów do rozumienia pytań użytkowników w języku naturalnym. Odpowiadanie na pytania wyrażone w różnych językach naturalnych w źródłach danych, które obejmują oba te źródła . Źródła danych RDF i dokumenty tekstowe to problem, który wymaga dalszych badań, aby jeszcze bardziej zbliżyć się do ideału Sieci Semantycznej. Rozpowszechnianie danych RDF stwarza również poważne wyzwania związane z opracowywaniem odpowiednich zestawów metod i narzędzi do wydajnego przechowywania danych, zarządzania nimi i wykonywania zapytań. Istniejące ramy, metodologie i narzędzia dużych zbiorów danych, takie jak MapReduce i Apache Hadoop, które skutecznie radzą sobie z problemami z heterogenicznością, dostępnością i przetwarzaniem danych, należy odpowiednio dostosować do zarządzania, wysyłania zapytań za pomocą SPARQL i wnioskowania na temat dużych połączonych danych. Kwestia ta staje się jeszcze trudniejsza, gdy weźmie się pod uwagę źródła danych i aplikacje generujące strumienie danych: tak jest w przypadku danych pochodzących z sieci czujników, mediów społecznościowych oraz dzienników aplikacji lub sieci. Rozumowanie strumieniowe to proces wnioskowania o nowych faktach ze strumieni stwierdzonych faktów, a także wymaga ciągłego sprawdzania strumieni i generowania wyników za każdym razem, gdy dostępne są nowe dane wejściowe. Badania w tej dziedzinie obejmują definiowanie nowych modeli i algorytmów opartych na czasie, aby ułatwić wnioskowanie z rozproszonymi strumieniami danych, jednocześnie minimalizując wymagania dotyczące przechowywania danych.



Powrót

Seksizm i Internet



Seksizm internetowy to zjawisko dyskryminacji ze względu na płeć w Internecie. Płeć odnosi się do społecznie i kulturowo skonstruowanych aspektów męskości i kobiecości, w przeciwieństwie do biologicznych określeń mężczyzny i kobiety. Normy dotyczące męskiego i kobiecego zachowania są zakorzenione w każdej części społeczeństwa. W społeczeństwach patriarchalnych, w których mężczyźni sprawują większość władzy społecznej, kulturowej, ekonomicznej i politycznej, seksizm dyskryminuje kobiety, a także osoby niebinarne, które nie identyfikują się ani z mężczyznami, ani z kobietami. Seksizm w Internecie przejawia się w znaczący sposób, na przykład poprzez agresywne nękanie kobiet lub wykluczanie ich z rozmów online; w niezamierzony sposób, na przykład mężczyźni będący głównymi autorami informacji online; lub w subtelny sposób, na przykład założenie, że kobiety i osoby niebinarne mają mniejszą wiedzę i doświadczenie niż mężczyźni. Kultura online jest częścią szerszej kultury patriarchalnej. Tanja Carstensen identyfikuje wiele elementów patriarchalnego społeczeństwa, które kultywuje seksizm, w tym podział pracy ze względu na płeć, różnice w płacach, nierówne docenianie czynności związanych z płcią, niedostateczną reprezentację kobiet w mediach i życiu publicznym oraz normy, symbole i dyskursy związane z płcią. Wszystkie te czynniki składają się na kontekst społeczno-kulturowy, w którym role płciowe i seksizm przenikają Internet. Ten wpis analizuje rozwój Internetu i seksizmu online, sposób, w jaki seksizm kształtuje komunikację online i tworzenie treści oraz opór wobec seksizmu w Internecie.

Rozwój i seksizm internetowy

Nowe technologie często wiążą się z optymizmem, że nastąpi zmiana różnic społecznych, takich jak płeć. Ale zakorzenione role płciowe i seksizm nadal istnieją, ponieważ żadnej technologii nie można oddzielić od kontekstu społeczno-kulturowego. Internet był początkowo rozwijany w kontekście wojskowym, naukowym i akademickim, a jego pierwszymi użytkownikami byli prawie wyłącznie mężczyźni. Istnieją wyjątki od tego wzorca, takie jak zadania biurowe związane z programowaniem komputerów w latach czterdziestych XX wieku, które były w większości wykonywane przez kobiety. Jednak mężczyznom przypisuje się w dużej mierze tworzenie początkowych kultur użytkowania związanych z Internetem i chociaż korzystanie z Internetu stało się mniej więcej równo podzielone między mężczyzn i kobiety, wiedza specjalistyczna w takich dziedzinach, jak programowanie i projektowanie stron internetowych, nadal jest kojarzona z męskością. Według Vivienne Waller konsekwencją wczesnych kontekstów Internetu było to, że Internet ma wpisaną dominację mężczyzn w jego produkcję i użytkowanie. Dzięki zdecentralizowanym sieciom i technologiom Web 2.0 oferującym narzędzia do tworzenia treści kobiety zyskały możliwość łączenia się ze sobą i dzielenia się rozmowami, zasobami i wsparciem. Oprócz tych możliwości feministyczne poglądy i dyskusje często spotykały się z wrogością. Adrienne Shaw twierdzi, że Internet nie wynalazł seksizmu i mizoginii, ale seksistowskie i mizoginistyczne poglądy są udostępniane, wspierane i bronione online.

Komunikacja online i seksizm internetowy

Początkowo istniały nadzieje, że Internet zdestabilizuje dyskryminację ze względu na płeć, ponieważ platformy tekstowe, takie jak tablice ogłoszeń i czaty, umożliwiają komunikację z osobami, których wygląd nie jest znany. Powszechna wizja wśród wczesnych feministycznych dyskursów na temat Internetu utrzymywała, że tekstowa, w większości pseudonimowa, geograficznie rozproszona komunikacja zlikwidowałaby nierówności, takie jak seksizm, rasizm, zdolność i status społeczny. Niektórzy uważali, że brak fizycznej obecności w komunikacji online zbagatelizowałby lub nawet wymazał płeć jako czynnik w rozmowach i związkach. Ale ludzie szybko znaleźli sposoby na ustalenie płci online, używając nazwy użytkownika, stylu języka lub rozpoczynając rozmowę, pytając rozmówcę o jego wiek, płeć i lokalizację, zwykle w skrócie do pytania "a/s/l ?" Chociaż ignorowanie płci było możliwe, płeć nigdy nie zmniejszyła się jako punkt odniesienia przy poznawaniu kogoś online. W miarę dodawania do Internetu większej liczby funkcji multimedialnych ludzie mogli tworzyć i przesyłać swoje cyfrowe obrazy, aby wysyłać je innym lub wykorzystywać jako zdjęcia profilowe na swoich osobistych kontach w mediach społecznościowych. Poszło to w pewnym stopniu w kierunku przywrócenia wizualnego komponentu tożsamości na platformach komunikacyjnych. Internet nie zakończył seksizmu; często zapewniało to kolejny kanał komunikacji dla przywrócenia zakorzenionego seksizmu. Seksizm internetowy wykracza poza przestrzeń komunikacyjną Internetu, obejmując kontakty towarzyskie, tworzenie sieci, gry, wyszukiwanie, przeglądanie lub, co ważne dla dynamiki płci, tworzenie platform i treści. Historycznie kobiety były wykluczane ze środków produkcji i tak jest również w Internecie. Branża technologiczna składa się z znacznie większej liczby mężczyzn niż kobiet, wpływając na projektowanie platform i kulturę internetową na niezliczone sposoby. Gdy zakłada się, że tworzenie technologii jest domeną mężczyzn, pozostawia im to możliwość kształtowania urządzeń, platform, kanałów komunikacji i informacji.

Tworzenie treści i seksizm w Internecie

Przykłady seksizmu w Internecie sięgają od nieproporcjonalnego poziomu nękania kobiet i osób niebinarnych w Internecie, poprzez zakładanie, że kultura gier wideo jest domeną mężczyzn i nie jest otwarta na udział kobiet, po dominację wykształconych białych mężczyzn piszących wpisy na Wikipedii. Jako jedno z największych repozytoriów wspólnych informacji w sieci, ci, którzy biorą udział w tworzeniu treści na temat Wikipedii. To, że kobiety są autorkami tak niewielu wpisów w Wikipedii, to tylko jeden ze sposobów wzmacniania systemowego seksizmu i uprzedzeń przez kulturę internetową. W tym przypadku zidentyfikowanie seksizmu leżącego u podstaw systemu edycji jest pierwszym krokiem w kierunku ponownego zajęcia się brakiem równowagi. Wikipedia organizuje teraz atony edycyjne dla kobiet i utworzyła grupę zadaniową ds. różnic płci, starając się zachęcić więcej kobiet do pisania i redagowania artykułów. Kiedy kobiety i osoby niebinarne napotykają systemowe bariery w uczestnictwie w tworzeniu technologii internetowych i wytwarzaniu informacji, tracimy ich głos i wkład. W 1995 roku Dale Spender napisał, że kobietom przeszkadzano w rozmowach i zastraszano ich ze strony mężczyzn. Ponad 20 lat później media społecznościowe nadal stanowią zbiór platform, na których często dochodzi do agresywnego wzmacniania ról płciowych. Ale w przestrzeni komunikacyjnej Internetu rozkwita również odrzucenie seksizmu, a także bardziej zróżnicowane spojrzenie na płeć.

Odporność na seksizm internetowy

Jedną wadą rozważania seksizmu internetowego lub badania mężczyzn i kobiet korzystających z Internetu jest to, że rozwija to ideę, że istnieją tylko dwie płcie. Komunikacja internetowa może łączyć ludzi z różnych kontekstów społeczno-kulturowych, a platformy mediów społecznościowych w szczególności dały ludziom narzędzia do tworzenia własnych treści oraz dostosowywania stron internetowych i profili. Podczas gdy wiele platform sieci społecznościowych wyraźnie prosi ludzi, aby identyfikowali się jako mężczyźni lub kobiety, na platformie blogowej Tumblr ludzie entuzjastycznie opracowali i wyświetlali różnorodne etykiety reprezentujące ich płeć i orientację seksualną. Jak odkryła Abigail Oakley, ci blogerzy wyszli poza binarność męsko-żeńską, aby zakłócić hegemoniczne wyobrażenia o płci. Używając zróżnicowanych etykiet, w tym transgender, genderqueer, genderfluid, non-binary i agender, pomogli poszerzyć szersze pojęcie płci i seksualności. Publiczne używanie etykiet dla różnych płci podważa normy społeczne, zwłaszcza jeśli przejawiają się one w projektowaniu platform za pomocą pól wyboru lub rozwijanych menu, które oferują ograniczone opcje płci. Pomimo sprzeciwu, dyskryminacja ze względu na płeć i seksizm są nadal powszechne. Internet zapewnia sposoby wzmacniania i zwalczania seksizmu. W przyszłości rozwój Internetu, technologia i komunikacja staną przed wyzwaniem większego zaangażowania na rzecz równości płci.



Powrót

Seksting



Pojawienie się Internetu i platform mediów społecznościowych w połączeniu z rosnącą popularnością telefonów komórkowych umożliwiło ludziom łatwiejsze nawiązywanie kontaktów i dzielenie się doświadczeniami życiowymi poprzez transmisję obrazów. Seksting to jedna z wielu nowych form interakcji, które pojawiły się w wyniku tych zmian technologicznych. Seksting można zdefiniować jako wysyłanie, otrzymywanie lub przekazywanie wiadomości lub obrazów o charakterze jednoznacznie seksualnym innym osobom za pośrednictwem środków elektronicznych (np. telefonów komórkowych) i staje się on potencjalnie poważnym problemem zdrowia publicznego. Należy zauważyć, że podczas gdy badacze, nauczyciele i rodzice określają to zachowanie jako "seksting", nastolatki i młodzi dorośli powszechnie określają je jako "nagie" lub "seksowne selfie". Ten wpis analizuje rozpowszechnienie sekstingu, motywacje do angażowania się w tę praktykę oraz związane z nią czynniki ryzyka i konsekwencje prawne, emocjonalne i społeczne.

Rozpowszechnienie

Identyfikacja rozpowszechnienia sekstingu jest trudna, ponieważ definicje i miary sekstingu znacznie się różnią. Na przykład definicje zachowań seksualnych mogą obejmować wysyłanie, otrzymywanie i/lub dystrybucję obrazów o charakterze jednoznacznie seksualnym. Jednak niektóre definicje i badania obejmowały również wiadomości tekstowe o charakterze jednoznacznie seksualnym (niezawierające obrazów). Należy również zauważyć, że większość badań przeprowadzono na wybranych przez siebie, wygodnych próbach, które nie są reprezentatywne dla populacji ogólnej. Ponadto, ponieważ większość badań przeprowadzono w Stanach Zjednoczonych, możliwość uogólnienia wyników na inne części świata jest ograniczona. Z powodu tych ograniczeń metodologicznych zgłaszane wskaźniki rozpowszechnienia sekstingu znacznie się różnią. Na przykład badanie przeprowadzone w 2014 roku przez Biancę Klettke, Davida J. Hallforda i Davida J. Mellora oszacowało, że 11,9% nastolatków wysłało sekst oparty na obrazie, a 15,6% go otrzymało. Szacunki te różnią się znacznie w zależności od tego, czy próba jest reprezentatywna, czy nie i czy uczestnicy zostali wybrani losowo, na podstawie czego wskaźnik wysyłania oszacowano na 15,5%, a wskaźnik odbierania na 35,4%. Co więcej, im starszy nastolatek, tym większe prawdopodobieństwo, że uprawia seks. Badania nad rozpowszechnieniem sekstingu wśród dorosłych były na ogół oparte na próbkach w wieku od 18 do 30 lat i wykazały, że częstość wysyłania sekstów opartych na obrazach w niereprezentatywnych lub nielosowych badaniach wynosi 48,6%, a wskaźnik otrzymywania sekstów wynosi 56%. Jedno badanie oparte na reprezentatywnej próbie wykazało, że wskaźnik rozpowszechnienia wysyłania wyniósł 33%. Co ciekawe, większość badań wykazała, że wiek nie wydaje się być czynnikiem wpływającym na zachowania seksualne wśród dorosłych; jednak jedno badanie wykazało, że wysyłanie sekstów zmniejszało się wraz ze starszym wiekiem (w próbie w wieku do 50+).

Motywacje

Jednym z najważniejszych pytań do zbadania jest to, dlaczego ludzie angażują się w zachowania seksualne. Badania wykazały, że niektóre z głównych motywacji to bycie seksownym lub inicjowanie aktywności seksualnej w celu osiągnięcia korzyści zwrócić na siebie uwagę partnera lub być zabawnym i zalotnym. W przypadku nastolatków samoocena popularności i potrzeba popularności zostały również zidentyfikowane jako motywacje do udziału w sekstingu. Inną motywacją do sekstingu przez młodzież jest to, że niektóre osoby postrzegają udział w zachowaniach seksualnych jako alternatywę dla fizycznej aktywności seksualnej, podczas gdy inne obejmowały nudę, nawiązanie intymnego kontaktu z płcią przeciwną, autoprezentację, sprostanie presji rówieśników lub partnera lub wywierania wpływu na innych. Wydaje się, że pewną rolę odgrywa również charakter relacji między nadawcą a odbiorcą, ponieważ Michelle Drouin i współpracownicy odkryli, że uprawianie seksu z powodu nieobecności partnera było drugim najczęstszym powodem w zaangażowanych związkach (26%), podczas gdy 13% osób w zdradzający związek wskazywał nudę jako motywację. W przypadku osób pozostających w przypadkowych związkach partner proszący o seks był najczęstszym motywatorem (38%). Chociaż może wydawać się intuicyjne, że seksting może wzmacniać związek, późniejsze badania wykazały, że kobiety heteroseksualne, które nie odwzajemniają seksu, zgłaszają niższą satysfakcję ze związku. W innym badaniu stwierdzono, że presja ze strony przyjaciół lub mężczyzny jest częstym czynnikiem motywującym do udziału w sekstingu w przypadku dorastających kobiet i okazała się silniejsza w przypadku dziewcząt. Podobnie badania wykazały, że dziewczęta są znacznie częściej proszone o sekst niż chłopcy, podczas gdy chłopcy znacznie częściej proszą o sekst. Spośród tych, którzy wysłali sekst, 61% wskazało, że byli przynajmniej do tego zmuszani raz, według MTV i Associated Press. Co jeszcze poważniejsze, może istnieć związek między przemocą domową i seksualną a zachowaniami seksualnymi.

Czynniki ryzyka

Najbardziej znaczącym czynnikiem przyczyniającym się do zachowań związanych z sekstingiem jest to, czy dana osoba otrzymała lub wysłała wcześniej sekst lub zna kogoś, kto angażuje się w seksting. W szczególności ci, którzy zgłosili posiadanie otrzymali sekst, 23 razy częściej wysyłali sekst. I odwrotnie, ci, którzy wysłali sekst, byli również 23 razy bardziej skłonni do jego otrzymania, co wskazuje, że istnieje dwukierunkowa zależność między wysyłaniem a odbieraniem sekstów. Co więcej, nastolatki, których rówieśnicy angażują się w zachowania związane z seksem, również częściej angażowały się w seksting. Ponadto młodzież, która uczestniczy w zachowaniach związanych z seksem, została powiązana ze zwiększonym prawdopodobieństwem udziału w kilku ryzykownych zachowaniach seksualnych, problemach z zachowaniem oraz różnych konsekwencjach emocjonalnych i psychospołecznych. W szczególności stwierdzono, że nastolatki uprawiające seks są bardziej skłonne do uprawiania seksu bez zabezpieczenia i spożywania alkoholu lub nielegalnych narkotyków przed stosunkiem seksualnym. Młodzież, która angażuje się w zachowania seksualne, została również zidentyfikowana jako bardziej skłonna do oglądania pornografii i angażowania się w zachowania "przestępcze". Ponadto nastolatki uprawiające seks mają bardziej pozytywne nastawienie do sekstingu, a osoby uprawiające seks częściej znają kogoś, kto uprawia seks niż osoby, które nie uprawiają seksu. Ponadto zasugerowano, że zachowania związane z seksem są bardziej widoczne w mniejszościach, starszych nastolatkach oraz w gospodarstwach domowych, w których nie ma dwojga rodziców. Zachowania seksualne wiążą się również z poważnymi konsekwencjami prawnymi, społecznymi i emocjonalnymi.

Prawny

W przypadku nastolatków najpoważniejszą konsekwencją prawną sekstingu jest to, że tworzenie lub dystrybucja sekstów może stanowić produkcję lub dystrybucję pornografii dziecięcej. Przepisy dotyczące seksu różnią się w zależności od jurysdykcji i chociaż w niektórych statystykach dobrowolne uprawianie seksu między nastolatkami zostało zdekryminalizowane, dystrybucja sekstów jest generalnie nielegalna we wszystkich krajach, zarówno w przypadku nastolatków, jak i dorosłych, którzy mogą zostać oskarżeni na podstawie przepisów dotyczących pornografii dziecięcej lub przepisów dotyczących pornografii zemsty.

Emocjonalny

Oprócz konsekwencji prawnych zidentyfikowano również szereg konsekwencji emocjonalnych związanych z zachowaniami seksualnymi. Chociaż kilka badań nie wykazało bezpośredniego związku między sekstingiem a zdrowiem psychicznym, większość badań wskazała na szereg negatywnych skutków dla zdrowia psychicznego, które są związane z zachowaniami seksualnymi. Te konsekwencje emocjonalne obejmują poczucie wstydu i winy, wyższy poziom depresji i myśli samobójcze. Na przykład w badaniu z 2012 roku Joseph Dake i współpracownicy stwierdzili, że nastolatki, które uprawiały seksting, znacznie częściej odczuwały smutek lub beznadziejność. Konkretnie, nastolatki, które uprawiały seks, były ponad pięć razy bardziej narażone na próby samobójcze. W badaniu z 2014 roku Timothy Yeung i współpracownicy również zgłosili związek między aktywnym wysyłaniem sekstów a dokonaniem samobójstwa w wielu przypadkach. W związku z tym konsekwencje zachowań seksualnych mogą mieć szerszy zasięg i potencjalnie poważnie zaszkodzić przyszłemu samopoczuciu zarówno nadawcy, jak i odbiorcy.

Społeczny

Zidentyfikowano również szereg konsekwencji społecznych związanych z zachowaniami seksualnymi. Należą do nich cybernękanie; negatywne piętno społeczne, takie jak bycie nazywanym "dziwką"; oraz możliwość utrudnienia przyszłych perspektyw zatrudnienia, jeśli seksty będą rozpowszechniane. Jest to szczególnie godne uwagi, biorąc pod uwagę, że według Sary Smith 88% wszystkich samodzielnie generowanych treści pojawi się na pasożytniczych stronach w Internecie. Ponadto, zgodnie z artykułem na stronie internetowej McAfee, 10% byłych dorosłych partnerów grozi opublikowaniem intymnych zdjęć w Internecie, a 60% z nich postępuje zgodnie z tymi groźbami. Co więcej, badania wykazały, że osoby, których zdjęcia zostały przesłane bez ich zgody, zgłosiły, że w konsekwencji doświadczyły "upokorzenia" lub "zszarganej reputacji". W badaniu opublikowanym w 2014 roku przez Heidi Strohmaier, Megan Murphy i Davida DeMatteo 71% respondentów stwierdziło, że zna inne osoby, które doświadczyły negatywnych konsekwencji seksu, w tym upokorzenia, zastraszania/szyderstwa i nadszarpniętej reputacji. Podobnie Dake i współpracownicy zgłosili związek między wysyłaniem seksualnego obrazu siebie a byciem zastraszanym i napotykaniem siły fizycznej w związku. Oczywiście zachowania związane z seksem często wiążą się z negatywnymi skutkami prawnymi, emocjonalnymi i społecznymi dla nadawcy i/lub odbiorcy. Jednak chociaż badania nadal wskazują, że seksting pozostaje poważnym problemem, szczególnie wśród nastolatków, zdecydowana większość badań ma charakter przekrojowy i potwierdzono niewiele związków przyczynowych między sekstingiem a negatywnymi skutkami. Przyszłe badania Chociaż sam seksting był przez niektórych uważany za po prostu kolejny wyraz seksualności, rozgrywany za pośrednictwem Internetu lub platform mediów społecznościowych, badania powiązały seksting z wieloma czynnikami ryzyka i negatywnymi konsekwencjami, zwłaszcza dla nastolatków. Podczas gdy obecne badania poczyniły postępy w identyfikowaniu korelatów sekstingu, ważne jest, aby przyszłe badania stosowały spójną definicję i zaczęły koncentrować się na ustalaniu związków przyczynowych przewidujących zachowania związane z sekstingiem. Wyniki tych badań można następnie wykorzystać do opracowania programów interwencji opartych na dowodach.



Powrót

Skype



Telefonia internetowa, czyli Voice over Internet Protocol (VoIP), staje się coraz bardziej popularna od początku XXI wieku. Zdecydowanie najpopularniejszą na świecie aplikacją VoIP jest Skype. Nazwa pochodzi od "Sky peer-to-peer", które zostało skrócone do Skyper, a następnie do Skype. W tym wpisie omówiono pochodzenie, rozwój, zastosowania i wpływ Skype′a.

Rozwój Skype′a

Skype został założony w 2003 roku, w najwcześniejszych latach VoIP, przez dwóch skandynawskich przedsiębiorców, Szweda Niklasa Zennströma i Duńczyka Janusa Friisa, twórców systemu telefonii peer-to-peer (P2P) Kazaa, przy użyciu oprogramowania opracowanego przez estońskich inżynierów Ahti Heinla, Priit Kasesalu i Jaan Tallinn, którzy byli architektami sieci udostępniania plików Kazaa. Rzeczywiście, wiele technologii używanych w Skype zostało pierwotnie opracowanych dla Kazaa. Z siedzibą w Luksemburgu, w dużej mierze opiera się na inżynierach oprogramowania zlokalizowanych w Tallinie i Tartu w Estonii. W 2005 roku eBay zapłacił 2,6 miliarda dolarów za zakup Skype′a, a następnie sprzedał go inwestorom w 2009 roku. Microsoft, zwabiony potencjalnym przyszłym rozwojem Skype′a i potencjałem reklamy typu "kliknij, aby połączyć", nabył go w 2011 roku za 8,5 miliarda dolarów; Skype został następnie włączony jako oddział firmy Microsoft. W 2011 roku Skype nawiązał współpracę z Comcast, aby umożliwić użytkownikom Comcast korzystanie z usług wideo Skype. Skype zasadniczo połączył VoIP z przetwarzaniem P2P, co stanowi odejście od tradycyjnych modeli klient-serwer, a jego aplikacja SkypeOut/SkypeIn zapoczątkowała przejście od VoIP między komputerami w celu włączenia PSTN (Public Switched Telephone Networks). Hierarchiczna sieć P2P składa się z kilku węzłów zwanych klientami Skype i jest ogólnie uważana za bezpieczną. Jej protokół nie jest jawny. Od 2012 roku jest zasilany przez superwęzły obsługiwane przez Microsoft. Opracowała własne kodeki lub algorytmy zapewniające wysoką jakość komunikacji. Użytkownicy logują się do Skype′a na jego serwerze, który przechowuje nazwy i hasła, gdzie następuje uwierzytelnienie użytkownika, a system dba o to, aby identyfikacja była niepowtarzalna. Sieć Skype jest siecią nakładkową. Opiera się na zastrzeżonych protokołach, które szeroko wykorzystują kryptografię. Wymaga szybkiego dostępu do Internetu, co czyni go bezużytecznym dla osób bez łącza szerokopasmowego i komputera z mikrofonem. Ma kilku konkurentów, takich jak Google Hangout, Apple FaceTime, LINE, Cisco WebEx i chiński WeChat. W Chinach użytkownicy próbujący pobrać Skype′a są przekierowywani do TOM Online, wspólne przedsięwzięcie Skype′a i chińskiej firmy bezprzewodowej, które poddaje się chińskiej cenzurze internetowej.

Funkcje Skype′a

Skype umożliwia użytkownikom wykonywanie bezpłatnych połączeń z innymi posiadaczami konta Skype (model "freemium") lub na zwykłe telefony za symboliczną opłatą za pośrednictwem bramek VoIP-PSTN. Płacący użytkownicy polegają na system kont debetowych o nazwie Skype Credit. Do 2010 roku Skype zajmował środki na kontach, które nie były wykorzystywane do płacenia za połączenia przez 180 dni. W Stanach Zjednoczonych średnia miesięczna opłata za usługę wynosi mniej niż 6,00 USD. To, co zaczęło się jako zestaw bezpłatnych usług, rozszerzyło się o usługi płatne, w tym wideo, przesyłanie plików, pocztę głosową, komunikatory, połączenia konferencyjne i listy kontaktów. W większości krajów Skype nie może być używany do nawiązywania połączeń ze służbami ratunkowymi. Początkowo większość rozmów przez Skype′a odbywała się przy użyciu komputerów osobistych. Jednak staje się coraz bardziej popularny wśród użytkowników smartfonów; aplikacja została pobrana ponad miliard razy, a kolejne 500 milionów w Google Play. Jest szczególnie popularny wśród młodych. Skype obsługuje do 50 języków w tłumaczeniu tekstu na tekst. W 2009 roku Skype wprowadził własny telefon komórkowy o nazwie 3 Skypephone, chociaż nie ma przeglądarki internetowej. Połączenia wideo również zyskały na popularności wśród użytkowników Skype′a i od 2016 roku stanowią 40% wolumenu połączeń. W 2015 roku Skype wprowadził możliwość dołączania mojis (krótkich filmów przypominających emotikony), a w 2016 roku wprowadził bezpłatne mobilne grupowe wideorozmowy. Ponieważ rozmowy wideo zużywają znacznie więcej przepustowości niż połączenia głosowe, Skype wykorzystuje znaczne ilości przepustowości Internetu. Niektóre korporacje zakazały nawet Skype′a za niewłaściwe użycie lub za dużą przepustowość, którą zarządza.

Stosowanie

Liczba użytkowników Skype′a jest trudna do określenia, ponieważ wielu użytkowników ma wiele kont. Ze względu na swoją strukturę P2P żaden węzeł sieci nie może przeglądać ruchu między dowolnymi dwoma hostami Skype. Szacunki dotyczące wielkości Skype′a opierają się na miarach, takich jak liczba kont użytkowników, indywidualni "prawdziwi użytkownicy", liczba jednoczesnych użytkowników oraz wielkość ruchu Skype. W obszernej literaturze podjęto próbę oszacowania użytkowników na różne sposoby. W 2016 roku Skype oszacował, że było około 700 milionów zarejestrowanych użytkowników i ponad 300 milionów aktywnych użytkowników miesięcznie, którzy spędzają z nim 3 miliardy minut dziennie. W sumie około 560 milionów ludzi korzystało z niego w tym czy innym czasie, a każdego dnia korzysta z niego ponad 30 milionów ludzi. W 2016 roku jego ruch wzrósł o 30%, dodając setki tysięcy osób dziennie. Skype jest szczególnie ważny w telefonii międzynarodowej, ponieważ jest obecnie największym na świecie międzynarodowym dostawcą usług telefonicznych. Połowa rozmów przez Skype′a odbywa się między krajami i stanowi jedną czwartą wszystkich połączeń międzynarodowych. W 2016 roku Skype poinformował, że odpowiada za 40% światowych minut połączeń telefonicznych międzynarodowych, czyli ponad połowę globalnej liczby minut połączeń VoIP, przyćmiewając około 2000 konkurentów na całym świecie (z których połowa znajduje się w Stanach Zjednoczonych).

Wpływ na współczesne komunikaty

Zadziwiająco mało napisano o społecznych i przestrzennych konsekwencjach Skype′a. Wiadomo, że stało się to ważne dla prowadzenia handlu: ponad 35% rozmów Skype jest związanych z biznesem za pośrednictwem usługi Skype dla firm. Anegdotyczne dowody sugerują, że podobnie jak telefony komórkowe, jest on również popularny wśród imigrantów, którzy używają go do utrzymywania kontaktu z krajami ojczystymi. Na przykład w 2010 roku Monika Metykova poinformowała, że migranci z Europy Wschodniej mieszkający w Wielkiej Brytanii intensywnie z niego korzystają. W Australii Skype stał się popularny wśród wiejskich gospodarstw domowych, dla których jest gotowym antidotum na samotność i izolacja odludzia. W tym kontekście Skype zwiększył głośność i jakość (dzięki wideo) połączeń międzymiastowych. Mówiąc szerzej, Skype zachęcił nową generację rozwiązań opartych na P2P do dostarczania treści multimedialnych przez Internet. W 2013 r. Point Topic, firma badawcza śledząca dostępność łączy szerokopasmowych na całym świecie, poinformowała: "Innym oczywistym wnioskiem, jaki można wyciągnąć z danych Skype, jest zapotrzebowanie na rozmowy wideo. Ale Skype stworzył oczekiwanie, że jest to bezpłatna usługa". Skype jest często postrzegany jako rewolucyjna technologia w dziedzinach takich jak edukacja, w tym wirtualne wycieczki terenowe. Na przykład został wykorzystany do ułatwienia wymiany językowej między użytkownikami różnych języków. Badanie przeprowadzone w 2013 roku przez Sarah Roseberry, Kathy Hirsh-Pasek i Robertę M. Golinkoff wykazało, że jest to przydatny sposób zachęcania małych dzieci do mówienia w różnych kontekstach społecznych. Skype wywarł również wpływ na przeprowadzanie wywiadów, wideokonferencje oraz telekonsultacje medyczne i psychoterapię. Wreszcie jest to sposób na obejście niektórych form cenzury internetowej za pomocą programu steganograficznego o nazwie YouSkyde.



Powrót

Slaktywizm



Slaktywizm definiuje się jako gotowość do stosunkowo bezkosztowego i bezwysiłkowego okazywania poparcia dla sprawy społecznej, przy towarzyszącym jej braku chęci do poświęcenia znacznego wysiłku na rzecz wprowadzenia bardziej znaczących zmian. Słowo slacktivism zostało pierwotnie ukute, aby odzwierciedlić połączenie terminów próżniak i aktywizm. Organizacje charytatywne i grupy rzeczników w całym kraju wykorzystały różne formy kampanii wsparcia tokenów, które pozwalają konsumentom zaangażować się w stosunkowo łatwe formy wsparcia dla celów. Typowe przykłady slacktywizmu obejmują takie zachowania, jak podpisywanie petycji online w celu poparcia sprawy, polubienie grupy na Facebooku, która odzwierciedla organizację charytatywną lub cel społeczny, tymczasowa zmiana zdjęcia profilowego w mediach społecznościowych w celu wsparcia problemu lub sprawy społecznej lub przesyłanie dalej tweeta prospołecznego wiadomości, niekoniecznie wnosząc znaczący wkład w działalność organizacji. Podczas gdy zachowania związane z symbolicznym wsparciem mogą mieć charakter fizyczny (np. po prostu noszenie szpilki lub bransoletki w celu wsparcia sprawy), zdolność do angażowania się w symboliczne wsparcie rozpowszechniła się w ustawienia internetowe. Rzeczywiście, szacuje się, że 98% zarejestrowanych organizacji non-profit w Stanach Zjednoczonych korzysta z co najmniej jednej formy mediów społecznościowych (np. Facebook, Twitter) do generowania obsługi tokenów. Biorąc pod uwagę, jak łatwo jest zaangażować się w symboliczne formy wsparcia, pojawia się pytanie, czy ten symboliczny gest faktycznie prowadzi do bardziej znaczącego wsparcia w przyszłości - aktywizmu - czy też wsparcie kończy się na "lajkuniu" - slacktywizmie. Ten wpis analizuje związek slacktywizmu z marketingiem, publiczny i prywatny charakter wsparcia oraz kto czerpie korzyści ze slacktywizmu.

Slaktywizm i marketing

Praktycy marketingu i eksperci mediów społecznościowych przedstawiają sprzeczne poglądy na temat tego, w jaki sposób tego rodzaju symboliczne wsparcie konsumenckie wpływa na późniejsze znaczące działania na rzecz sprawy. Z jednej strony krytycy sugerowali, że udział w symbolicznych aktach wsparcia niekoniecznie musi prowadzić do większego prawdopodobieństwa zaangażowania się w bardziej znaczące wsparcie dla sprawy w przyszłości. W rzeczywistości zasugerowano, że takie symboliczne akty wsparcia mogą zrobić więcej, aby uczestnicy czuli się dobrze ze sobą, niż wpływać na rzeczywistą zmianę. Z drugiej strony, niektórzy obserwatorzy wychwalali te symboliczne rekomendacje jako pozytywne odskocznie w kierunku bardziej znaczących form zaangażowania społecznego w przyszłości. Podczas gdy wiele organizacji wydaje się zachęcać do obsługi tokenów, inne tak promowanie poglądu, że darczyńcy powinni angażować się w mniej symboliczne wsparcie i bardziej znaczące działania, na przykład UNICEF Sweden, który wprowadził kampanię "Lubię to nie ratuje życia". Ta kampania wyraźnie sprzeciwiała się prostym zachowaniom wsparcia symbolicznego (np. polubieniu strony na Facebooku) i zamiast tego zachęcała ludzi do dokonywania znaczących datków finansowych wymaganych do pomocy dzieciom w krajach rozwijających się.

Publiczny kontra prywatny charakter wsparcia

Kirk Kristofferson, Katherine White i John Peloza (2014) starali się pogodzić pozornie niespójne poglądy dotyczące tego, czy angażowanie się w symboliczne wsparcie zwiększa, czy zmniejsza późniejsze znaczące wsparcie dla sprawy społecznej lub organizacji charytatywnej. Badając slacktywizm, sugerują, że to, czy początkowy akt symbolicznego wsparcia doprowadzi do przyszłego znaczącego wsparcia dla sprawy, zależy od tego, jak zauważalny jest ten symboliczny akt. Rzeczywiście, kampanie wspierające tokeny różnią się pod względem ich widoczności dla innych. Na przykład ludzie mogą podpisywać petycje online i albo wyświetlać (publiczne), albo nie wyświetlać swoich nazwisk (prywatne), albo dołączać do publicznych lub prywatnych grup na Facebooku. W tych badaniach uczestnicy byli najpierw zapraszani do zaangażowania się w stosunkowo symboliczny akt wsparcia dla sprawy (np. przyjęcie darmowej szpilki lub magnesu, podpisanie petycji, dołączenie do grupy na Facebooku), która miała charakter bardziej publiczny lub bardziej prywatny. Następnie poproszono respondentów o zrobienie czegoś bardziej znaczącego dla sprawy, na przykład o przekazanie pieniędzy lub poświęcenie czasu na wolontariat. Badanie to wykazało, że publicznie obserwowalny charakter początkowego aktu symbolicznego wsparcia determinował prawdopodobieństwo zapewnienia znaczącego wsparcia dla sprawy. Kiedy początkowy akt symbolicznego wsparcia był bardzo zauważalny przez innych (publiczność), uczestnicy nie byli już bardziej skłonni do pomocy, gdy następnie poproszono ich o przekazanie pieniędzy lub czasu wolontariatu. W rzeczywistości zwolennicy tokenów publicznych nie byli bardziej skłonni do zapewnienia znaczącego wsparcia niż osoby w stanie kontrolnym, które otrzymały tylko większe żądanie. Jednak gdy początkowy akt wsparcia tokena był prywatny, uczestnicy byli bardziej skłonni do późniejszej pomocy w odpowiedzi na bardziej znaczącą prośbę. Kristofferson i współpracownicy przedstawili również dowody z dwóch powodów leżących u podstaw aktywisty kontra zachowanie slacktywistyczne. Po pierwsze, zapewnienie publicznego wsparcia za pomocą tokenów zaspokaja chęć dobrego wyglądu w oczach innych (motywy zarządzania wrażeniem), co sprawia, że ludzie są mniej skłonni do późniejszej zgody na zapewnienie znaczącego wsparcia. Innymi słowy, kiedy osoby publicznie "polubią" stronę organizacji charytatywnej na Facebooku, przesyłają dalej wezwanie grupy politycznej do działania lub noszą przypinkę organizacji, zakładają, że inni już widzieli, jak angażują się w wsparcie sprawy, co zmniejsza prawdopodobieństwo, że to zrobią. zapewnić dodatkowe znaczące wsparcie dla sprawy (np. poprzez darowiznę lub wolontariat). Jednakże, zapewniając bardziej prywatne wsparcie tokenów, wspierający token wnioskuje, że początkowo wspierał sprawę, ponieważ jego wartości są postrzegane jako zgodne z przyczynami. To wyrównanie wartości prowadzi zwolennika tokena do zrobienia następnego kroku i zaangażowania się w bardziej znaczące działania.

Kiedy działa obsługa tokenów?

Podczas gdy badania badające slacktywizm wykazały, że publiczne zachowania symboliczne mogą prowadzić do zmniejszenia chęci zaangażowania się w późniejsze znaczące wsparcie dla sprawy, inne badania sugerują, że slacktivism może mieć inne pozytywne konsekwencje. Na przykład badania sugerują, że osoby angażujące się w działania slacktywistyczne łącznie mają moc rozpowszechniania przesłań aktywistów i zwiększania świadomości sprawy lub problemu. Tak więc, jeśli celem kampanii w mediach społecznościowych jest stworzenie sprzyjającego środowiska i zwiększenie świadomości, tokenowe zachowania wspierające mogą okazać się bardzo skuteczne. Ponadto interwencje, które skupiają symbolicznych zwolenników na tym, w jaki sposób wartości sprawy są zgodne z ich własnymi wartościami, zmniejszają tendencje slaktywistyczne i sprawiają, że jednostki są bardziej skłonne do zaangażowania się w znaczące wsparcie dla sprawy. Wreszcie, zapewnienie publicznego wsparcia symbolicznego może prowadzić do bardziej znaczącego wsparcia wśród osób silnie emocjonalnie związanych z sprawą. Przywiązanie do sprawy definiuje się jako poziom afektywnego zaangażowania i identyfikacji jednostki z misją i celem sprawy społecznej. Tak więc, jeśli organizacje mogą pielęgnować poczucie związku ze sprawą wśród osób angażujących się w symboliczne wsparcie, takie "slaktywistyczne" zachowania mogą z czasem doprowadzić do znaczących działań.



Powrót

Smartfony



Smartfony stały się najpowszechniejszą formą podłączonych urządzeń komputerowych na świecie. Wiele osób ma tylko jedno podłączone urządzenie, a ze względu na koszty i wygodę smartfon jest często wybieranym urządzeniem. Jest to szczególnie widoczne w krajach rozwijających się, gdzie sieci bezprzewodowe ewoluują znacznie szybciej niż alternatywy przewodowe, co oznacza, że smartfon zapewnia dostęp nie tylko do Internetu, ale także do sieci komunikacyjnych, które w innym przypadku byłyby bardzo ograniczone. Współczesny smartfon jest podstawowym przykładem konwergentnego urządzenia technologicznego, łączącego funkcje telefonu komórkowego i osobistego asystenta cyfrowego (PDA) z przenośnym odtwarzaczem muzycznym i aparatem cyfrowym typu "wskaż i zrób zdjęcie". Ta kombinacja okazała się tak potężna, że Apple iPhone jest obecnie najczęściej używanym aparatem na świecie, o czym świadczą zdjęcia udostępniane w Internecie, a wyszkolone odtwarzacze muzyczne i urządzenia PDA stały się przedmiotami specjalnymi na małym rynku lub nawet przestały istnieć. W tym wpisie omówiono rozwój palmtopów, historię smartfonów, rozwój iPhone′a i BlackBerry oraz innych popularnych modeli smartfonów, a także trwającą konkurencję między urządzeniami z systemem iOS i Android.

Osobisty asystent cyfrowy

Pod koniec lat 90. kilka firm zaczęło produkować produkt znany jako PDA. Te małe, kieszonkowe urządzenia umożliwiały użytkownikom śledzenie kalendarzy, kontaktów, notatek, a nawet dokumentów w łatwym do przenoszenia formacie. Późniejsze wersje tych urządzeń miały również łączyć się z sieciami bezprzewodowymi, umożliwiając dostęp do Internetu i usług takich jak poczta elektroniczna. Produkty te obejmowały Newton firmy Apple, który został wprowadzony na rynek w 1993 r., oraz oryginalny PalmPilot, wprowadzony na rynek w 1997 r. Oba te urządzenia wymagały użycia rysika lub innego narzędzia podobnego do pióra do wprowadzania tekstu i wybierania elementów na ekranie dotykowym. Biorąc pod uwagę powszechne użycie rysika, wiele modeli pozwalało na podstawową interpretację pisma odręcznego do cech tekstu. Podczas gdy Apple zaprzestało produkcji Newtona w 1998 r., PalmPilot i inne podobne urządzenia działające w systemie operacyjnym Palm (np. Handspring) były używane przez cały rok 2000. Urządzenia te były prekursorem i podstawą wielu funkcji współczesnego smartfona.

Historia smartfona

Pierwsze próby połączenia funkcjonalności PDA z telefonem komórkowym podjęła kanadyjska firma BlackBerry, która powstała w 1996 roku i początkowo produkowała pagery i technologię pagerów. Wczesne urządzenia BlackBerry były dwukierunkowymi pagerami z prostym ekranem widoku, który umożliwiał użytkownikowi zwracanie krótkich wiadomości głosowych do dzwoniącego. W 2003 roku BlackBerry dostarczył coś, co zostało określone jako pierwszy smartfon konwergentny, który łączył technologie z kilku platform, takich jak poczta elektroniczna, wiadomości tekstowe, przeglądanie stron internetowych i inne możliwości internetowe, z funkcjonalnością PDA (np. kalendarz, lista kontaktów) . Urządzenia BlackBerry i wyspecjalizowane, bezpieczne usługi przesyłania wiadomości świadczone przez firmę stały się filarami dla użytkowników korporacyjnych w Ameryce Północnej i Europie, a także w innych częściach świata. W latach 2003-2012 urządzenia Black-Berry były powszechnie przydzielane pracownikom zarówno dużych korporacji, jak i agencji rządowych ze względu na koncentrację firmy na bezpieczeństwie i możliwość zdalnego sterowania przez scentralizowane działy informatyczne, aktualizować i kasować urządzenia. W latach 1996-2000 Microsoft pracował również nad mobilnym systemem operacyjnym, początkowo skierowanym na rynek PDA. W latach 2000-2002 firma wydała wersje Pocket PC OS, które zawierały funkcje komórkowe. Do 2003 roku wypuszczono kilka powszechnie dostępnych smartfonów z nowym systemem operacyjnym Windows Mobile, które zaczęły odnotowywać szybki wzrost udziału użytkowników w rozwijającym się rynku smartfonów. Wczesne urządzenia z systemem Windows często nie miały ekranu dotykowego i były zaprojektowane do obsługi za pomocą klawiatury, aby umożliwić łatwą obsługę jedną ręką. Do 2007 roku smartfony z systemem operacyjnym Windows Mobile były najczęściej używanymi smartfonami w Stanach Zjednoczonych, ustępując jedynie smartfonom z systemem Symbian OS na całym świecie w tamtym czasie. Symbian był początkowo systemem operacyjnym o zamkniętym kodzie źródłowym przeznaczonym do użytku na urządzeniach PDA, kiedy został wydany w 1998 roku. Do 2002 roku opracowywano wczesne wersje smartfonów opartych na Symbianie. Kilku producentów telefonów opracowało urządzenia z Symbianem w latach 2001-2011, w tym Samsung, Motorola, Sony Ericsson i Nokia. Każdy z tych producentów stworzył własny interfejs oprogramowania do użytku z Symbianem, co doprowadziło do znacznego zróżnicowania poziomu funkcjonalności i rozwoju oprogramowania. Jednak ze względu na szerokie przyjęcie podstawowej platformy Symbian stał się najpopularniejszym systemem operacyjnym dla smartfonów na świecie w latach 2005-2010, wyprzedzając Windows Mobile tylko w Stanach Zjednoczonych w tym okresie. Kiedy system operacyjny Android stał się powszechnie dostępny dla producentów sprzętu, a platforma Apple iOS zaczęła odnotowywać szybki wzrost, użycie Symbiana zaczęło gwałtownie spadać. Do 2008 roku Nokia przejęła własność systemu operacyjnego i wraz z innymi producentami telefonów pomogła założyć Symbian Foundation, próbując stworzyć bezpłatną wersję systemu operacyjnego. Jednak różne poglądy na temat przyszłego rozwoju platformy skłoniły niektórych początkowych zwolenników do opuszczenia grupy do 2010 roku, co dodatkowo otworzyło drzwi dla Androida i stało się głównym aspektem upadku platformy Symbian. Ostatnim smartfonem wyprodukowanym z wykorzystaniem Symbiana była Nokia 808 PureView w 2012 roku. Od tego czasu wszelkie komercyjne prace nad Symbianem zostały przerwane. Ostatnim dużym graczem we wczesnej erze smartfonów był Palm Inc. i opracowane przez niego platformy systemu operacyjnego, Palm OS i Webos. Palm był wczesnym graczem na rynku PDA, a przeniesienie jego platformy na smartfony było naturalnym postępem. W 2003 roku Handspring, firma wydzielona z Palm, później ponownie wchłonięta przez firmę, wypuściła Treo 600, jeden z najwcześniejszych w pełni funkcjonalnych smartfonów. Telefon zawierał pełną klawiaturę QWERTY (podobną do tych, które można znaleźć w urządzeniach BlackBerry), ekran dotykowy i rysik. Urządzenie stało się popularne wśród osób chcących kupić smartfon do użytku osobistego, ponieważ było łatwiej dostępne niż urządzenia BlackBerry, które były przeznaczone dla użytkowników korporacyjnych i rządowych. Palm wypuścił później następców Treo 600, w tym modele Treo 650, 680 i 700. Wszystkie te urządzenia zachowywały podobny wygląd fizyczny do klawiatury i wprowadzania rysika oraz wykorzystywały odmiany systemu Palm OS. Palm zaczął również wypuszczać wersje tych telefonów dla Windows Mobile, począwszy od 700w w 2006 roku. Później Palm opracował Webos i wypuścił smartfony korzystające z tej platformy, ale były one oferowane tylko przez jednego operatora w USA (Sprint), co poważnie ograniczyłoby możliwy rynek udostępniać i sprzedawać. W latach 2008-2010 takie ustalenia doprowadziły do szybkiego spadku akcji spółki i braku zainteresowania platformą przez społeczność zewnętrznych programistów, co ostatecznie doprowadziło do zaprzestania produkcji zarówno Palm, jak i WebOS projekt po przejęciu firmy Palm przez Hewlett-Packard w 2010 roku.

iPhone: nowy paradygmat

W społeczności technologicznej krążyły pogłoski, że Apple po cichu opracowuje nowy typ potencjalnie rewolucyjnego smartfona przez cały rok 2005 i 2006. W styczniu 2007 roku dyrektor generalny Apple, Steve Jobs, zaprezentował iPhone′a na targach Mac-World Expo w San Francisco w Kalifornii. IPhone był urządzeniem wyłącznie z ekranem dotykowym, bez fizycznej klawiatury ani rysika, co znacznie różniło się od któregokolwiek z wcześniejszych smartfonów, z których wszystkie miały jakąś formę klawiatury. Jobs reklamował zdolność programistów do tworzenia niestandardowych klawiatur i przycisków przy użyciu platformy iPhone′a i systemu operacyjnego (później oznaczonego jako iOS) i stwierdził, że używanie rysika zwiększa złożoność zwykłego używania palca do manipulowania elementami na ekranie. Wczesny iPhone wprowadził również koncepcję wielodotyku, polegającą na jednoczesnym używaniu dwóch lub więcej palców do wykonywania określonych zadań, takich jak powiększanie i przesuwanie ekranu. IPhone trafił do sprzedaży 29 czerwca 2007 roku z wielką pompą, aw sklepach firmowych Apple i AT&T często ustawiały się długie kolejki kupujących. Wstępne recenzje iPhone′a były pozytywne, ale i ostrożne. Wielu recenzentów miało pewien sceptycyzm co do nowego paradygmatu wprowadzania danych i tego, czy użytkownicy głównego nurtu byliby zadowoleni z braku fizycznej klawiatury na nowym urządzeniu. Jednak nawet biorąc pod uwagę dość wysoką cenę początkową 599 USD i dostępność urządzenia ograniczoną do AT&T, iPhone okazał się popularny wśród zwykłych użytkowników, a sprzedaż oryginalnego iPhone′a wyniosła ponad 6 milionów, zanim został zastąpiony przez iPhone′a 3G w 2008 roku. W tamtym czasie ten poziom sprzedaży smartfona był uważany za ogromny, zwłaszcza biorąc pod uwagę, że było to zupełnie nowe urządzenie z niesprawdzoną metodą wprowadzania danych. Wydanie iPhone′a miałoby również znaczący wpływ na inne platformy smartfonów, w szczególności Androida, który wciąż był w fazie rozwoju, oraz BlackBerry. Ani programiści Androida w Google, ani w BlackBerry nie spodziewali się pełnoekranowej funkcjonalności iPhone′a, co skłoniło każdą grupę do ponownego rozważenia planów rozwoju przyszłych urządzeń. Podczas gdy firma Black-Berry zdecydowała się zachować klawiaturę sprzętową jako główny tryb wprowadzania danych w swoich urządzeniach, programiści Androida w Google zdecydowali się na pełnoekranową funkcjonalność, którą można znaleźć w urządzeniach z systemem iOS i Apple. Wiele wczesnych urządzeń z Androidem miało zarówno klawiaturę sprzętową, jak i pełnoekranowy tryb wprowadzania, co było kompromisem między wczesnymi planami urządzenia z klawiaturą sprzętową a szybka zmiana kierunku, w jakim Google obrał wypuszczenie iPhone′a.

Rozwój iOS i rozwój Androida

Wpływ na rynek smartfonów nastąpił szybko po wypuszczeniu pierwszego iPhone′a w 2007 roku i kolejnych modeli w latach 2008-2010. W szczególności platformy Palm i Symbian zaczęły być dotknięte rosnącą popularnością iOS. Wpływy te ostatecznie przyczyniły się do wycofania tych platform, zwłaszcza w połączeniu z rozwojem platformy Android po tym, jak stała się ona szerzej dostępna w latach 2009-2010. W latach 2008-2010 firma Apple wypuściła trzy modele iPhone′a: 3G, 3GS i iPhone 4. Każde z tych urządzeń okazało się bardziej popularne niż poprzedni model, a wraz z iPhonem 4 firma Apple wprowadziła również niestandardowy układ procesora Advanced RISC Machine, Apple A4. Od iPhone′a 4 każdy kolejny model iPhone′a był wypuszczany ze zaktualizowaną wersją procesora Apple Axe. Decyzja Apple o zaprojektowaniu własnej, zastrzeżonej wersji chipa Advanced RISC Machine umożliwiła firmie dostosowanie i dostrojenie zarówno samego chipa, jak i oprogramowania iOS, aby współpracowały ze sobą najefektywniej. Podczas gdy Apple mógł skupić się na ściśle kontrolowanej kombinacji sprzętu i oprogramowania, inni twórcy mobilnych systemów operacyjnych, tacy jak Google, uznali za konieczne opracowanie swojego oprogramowania, aby mogło działać na wielu możliwych kombinacjach sprzętu, co znacznie komplikuje proces rozwoju. Apple zawsze rozwijał swoje produkty jako wysokiej klasy lub ekskluzywne urządzenia, podobnie jak producenci luksusowych samochodów, tacy jak BMW i Mercedes. W tym celu firma nigdy nie opracowała tańszego ani tańszego iPhone′a. Po wypuszczeniu iPhone′a 5 firma udostępniła poprzedni model telefonu ze zniżką w wysokości 100 USD, ale nie było przeceny ani podstawowego modelu obecnego iPhone′a w ciągu dekady od premiery urządzenia. To przeciwdziałałoby rozwojowi urządzeń z Androidem, z których wiele jest tworzonych z myślą o szerszej, bardziej świadomej kosztowo bazie klientów. Android zaczął jako niezależny programista w 2003 roku i został przejęty przez Google w 2005 roku w celu opracowania szeroko stosowanego mobilnego systemu operacyjnego. W tym czasie rynki telefonów komórkowych i smartfonów były zdominowane przez BlackBerry, Symbian i Windows, ale założyciel Androida, Andy Rubin, uważał, że istnieje potencjalny rynek dla otwartego i szeroko stosowanego systemu operacyjnego, który spełniałby wspólny zestaw standardów. Google również wierzył w ten cel, a po przejęciu Androida wraz z Rubinem i jego zespołem programistów firma zapewniła zasoby potrzebne do opracowania konkurencyjnego mobilnego systemu operacyjnego. W latach 2006 i 2007 zespół programistów Androida został zaskoczony wypuszczeniem LG Prada, a później bardzo oczekiwanego iPhone′a i systemu iOS, które obejmowały wprowadzanie na pełnym ekranie bez klawiatury sprzętowej. Do tego momentu Google testował Androida na urządzeniach, które były dość porównywalne z urządzeniami BlackBerry z pełną klawiaturą QWERTY, więc te zmiany wymagały gruntownej przeróbki interfejsu, aby dostosować go zarówno do modeli klawiatury, jak i pełnoekranowych. Podczas tej przebudowy Google dołączyło również do Open Handset Alliance, konsorcjum firm technologicznych, w skład którego wchodzą zarówno twórcy oprogramowania, jak i sprzętu. Celem Open Handset Alliance było stworzenie zestawu otwartych standardów dla wszystkich urządzeń mobilnych oraz zachęcenie firm zajmujących się sprzętem, oprogramowaniem i telekomunikacją do przestrzegania tych standardów. Podczas gdy Apple, Microsoft BlackBerry i inne firmy zaangażowane w branżę mobilną rozwijały własne oprogramowanie i sprzęt, ta grupa zachęcała do bardziej otwartego podejścia, w którym wszyscy uczestnicy tworzyli produkty, które działały w ramach otwartych standardów przedstawionych przez konsorcjum. 22 października 2008 roku wypuszczono HTC Dream, co czyni go pierwszym komercyjnie dostępnym smartfonem z Androidem. Podążając za marzeniem, inni producenci sprzętu wypuścili smartfony z Androidem, w szczególności Samsung i Motorola. Operatorzy komórkowi z siedzibą w Stanach Zjednoczonych, tacy jak Verizon, Sprint i T-Mobile, szukali alternatyw dla iPhone′a, który był dostępny wyłącznie w AT&T do 2011 roku. W okresie, gdy iPhone był dostępny wyłącznie w AT&T, kilku operatorów mocno reklamowało alternatywne urządzenia z Androidem, zwłaszcza Verizon, który stworzył własny pseudonim marketingowy w ofercie telefonów z Androidem "Droid". Reklama stała się tak wszechobecna, że wielu użytkowników używało terminów Droid i Android jako synonimów, mimo że Droid był znakiem towarowym Verizon i odnosił się tylko do niewielkiej liczby smartfonów Motorola i HTC, które Verizon zdecydował się sprzedawać w ten sposób. W styczniu 2010 r. firma Google wykonała nowy krok w marketingu systemu operacyjnego Android, współpracując z firmą HTC w celu opracowania Nexus One, pierwszego telefonu sprzedawanego bezpośrednio przez firmę Google i opracowanego zgodnie z preferowanymi standardami. Linia Nexus była sprzedawana i sprzedawana głównie jako urządzenie programistyczne przeznaczone do użytku przez zewnętrznych twórców oprogramowania. Nexus One i kolejne urządzenia Nexus otrzymywały aktualizacje oprogramowania bezpośrednio od Google, bez nadzoru operatorów komórkowych, co często prowadziło do opóźnień w procesie aktualizacji. Dzięki bardziej bezpośredniemu procesowi aktualizacji telefony te stały się popularne nie tylko wśród twórców oprogramowania, ale także ogólnie entuzjastów Androida i przez wielu były uważane za jedyne prawdziwe telefony z Androidem, ponieważ były bezpośrednio powiązane dla Google tym, czym iPhone był dla Apple. W tym wczesnym okresie rozwoju Androida nie tylko opracowano najnowocześniejsze urządzenia, ale także zaczęto dostrzegać rynek przecenionych smartfonów. Kilka firm sprzętowych, zwłaszcza te promujące się na rynkach rozwijających się, stworzyłoby urządzenia z wolniejszymi lub mniej wydajnymi procesorami, ekranami o niższej jakości i mniejszymi pojemnościami pamięci masowej, aby sprostać niższym cenom wymaganym w wielu gospodarkach o niższych dochodach. Podczas gdy Google tworzył linię Nexus, a inni producenci sprzętu produkowali urządzenia o zaawansowanych specyfikacjach, takie wykorzystanie ogólnodostępnego systemu operacyjnego Android również stwarzałoby pewne problemy w procesie rozwoju. Ze względu na dużą różnorodność sprzętu używanego przez producentów urządzeń koncepcja fragmentacji stała się istotnym problemem w społeczności Androida i dla Google. Fragmentacja to duże zróżnicowanie wersji oprogramowania używanych w danym momencie, powodujące złożoność dla zewnętrznych twórców oprogramowania, jak również dla tych, którzy utrzymują sam system operacyjny. Podczas gdy Apple uniknął wielu problemów z fragmentacją dzięki ścisłej kontroli środowiska sprzętowego i programowego iPhone′a, był to dokuczliwy problem dla Google i programistów pracujących nad aplikacjami na Androida

Upadek BlackBerry

W latach 2009-2012 udział urządzeń BlackBerry w szybko rozwijającym się rynku smartfonów znacznie spadł. Podczas gdy niektóre korporacje i agencje rządowe preferowały BlackBerry ze względu na funkcje bezpieczeństwa i centralną kontrolę, szerszy rynek konsumencki skupił się na łatwiejszych, a czasem tańszych alternatywach, jakie można znaleźć w systemach Android i iOS. Ponadto, gdy Apple i Google otworzyły zewnętrzne "sklepy z aplikacjami" w celu łatwej dystrybucji nowych i unikalnych aplikacji i gier na swoje platformy, BlackBerry utrzymało swoje stanowisko w zakresie marketingu produktywności i bezpieczeństwa w środowisku korporacyjnym i nie zachęcało szerokich tworzenie aplikacji firmowych. BlackBerry uważał również, że użytkownicy, zwłaszcza użytkownicy korporacyjni, zawsze będą woleli smartfony z klawiaturami sprzętowymi, które były podstawą wszystkich urządzeń BlackBerry. Nawet po sukcesie iPhone′a i urządzeń z Androidem, które korzystały z pełnoekranowego paradygmatu wprowadzonego przez Apple w 2007 roku, kierownictwo BlackBerry nadal twierdziło, że pozostanie skupione na klawiaturach sprzętowych i BlackBerry OS, mimo że iOS i Android rosły w bezprecedensowe stawki. Firma skupiała się nadal na rynku przedsiębiorstw i ostatecznie nie udało jej się przyciągnąć zainteresowania znacznie większego ogólnego rynku konsumenckiego. Ten ostatni błąd można porównać z decyzją IBM z lat 80. i 90., by skupić się na rachunkach biznesowych, nie wierząc, że istnieje szeroki rynek konsumencki komputerów stacjonarnych. Do 2013 roku udział w rynku sprzedaży smartfonów BlackBerry w Stanach Zjednoczonych spadł poniżej 10%, a spadek ten będzie nadal spadał do poziomu poniżej 1% rynku do 2016 roku. Podczas gdy BlackBerry otworzyło rynek sklepów z aplikacjami i dodało kompatybilność z powszechnie dostępnych aplikacji na Androida, okazało się, że jest już za późno, ponieważ programiści i klienci porzucili BlackBerry na rzecz jednej z innych, bardziej popularnych platform OS. Firma kontynuowała budowę urządzeń z klawiaturami sprzętowymi, a także rozpoczęła produkcję pełnoekranowego urządzenia wejściowego podczas tego upadku. Do 2015 roku sprzedaż BlackBerry spadła do poziomu, który zmusił firmę do rozważenia sprzedaży, wydania lub rezygnacji z BlackBerry OS i zastąpienia go znacznie bardziej popularnym systemem operacyjnym Android lub ewentualnie Windows Mobile. Pod koniec 2015 r. firma BlackBerry wypuściła PRIV, smartfon z systemem Android, wyposażony zarówno w pełny ekran wejściowy, jak i wysuwaną klawiaturę, który zebrał pozytywne recenzje, ale jego sprzedaż była ograniczona.

Apple kontra Samsung

W latach 2011-2016 Apple i Samsung nie tylko były zaangażowane w liczne procesy sądowe dotyczące patentów i własności intelektualnej, ale także stały się dominującymi dostawcami smartfonów na całym świecie i w Stanach Zjednoczonych. Samsung zaczął oferować smartfony z systemem Android w 2009 i 2010 roku, w tym wczesne modele bardzo popularnej linii Galaxy S. W 2011 roku Apple uważał, że projekt sprzętu i implementacja oprogramowania w wielu z tych wczesnych smartfonów Samsung bezpośrednio kopiowała projekt odpowiednio iPhone′a i iOS, i zdecydował się wszcząć te procesy sądowe, a do 2012 roku firmy zostały uwikłane w więcej ponad 50 podobnych spraw sądowych na całym świecie. W sierpniu 2012 roku Apple wygrał ważną decyzję w amerykańskim sądzie przeciwko Samsungowi, który zobowiązał koreańskiego producenta do zapłacenia Apple ponad 400 milionów dolarów odszkodowania. Samsung następnie odwołał się od tej decyzji, która pozostawała w sądzie do 2016 r., kiedy to Sąd Najwyższy Stanów Zjednoczonych uchylił pierwotną decyzję i odesłał ją do sądów okręgowych w celu ponownego rozpatrzenia, z jednoznaczną definicją, które aspekty projektu powinny zostać uwzględnione w projekcie. decyzja. Trybunał doszedł do wniosku, że aspekty projektu urządzeń nie zostały dobrze określone w pierwotnym procesie i że należy to uwzględnić przy ustalaniu odszkodowania. Apple i Samsung podzielili wiele innych decyzji na całym świecie, a każdy z nich odniósł kluczowe zwycięstwa w niektórych regionach świata. Od wielu z tych decyzji nadal toczy się apelacja, a ostateczne rozpatrzenie sprawy może zająć wiele lat. Jednak te dwie firmy nadal dominują na rynku smartfonów w Stanach Zjednoczonych i na całym świecie, zwłaszcza w odniesieniu do zysków i sprzedaży smartfonów. W niektórych kwartalnych okresach sprawozdawczych praktycznie wszystkie zyski ze smartfonów są gromadzone przez Apple i Samsunga. Samsung udowodnił, że od 2010 roku odnosi największe sukcesy w produkcji smartfonów z Androidem pod względem sprzedaży i zysków. Linia smartfonów Galaxy S z Androidem sprzedała się w milionach egzemplarzy w Stanach Zjednoczonych i na całym świecie, a ta linia napędza zyski, jakie Samsung osiąga ze smartfonów obroty. Jednak Samsung sprzedaje wiele innych, bardziej oszczędnych smartfonów z Androidem, skierowanych głównie na rynki rozwijające się poza Europą i Ameryką Północną. Samsung był również pierwszym producentem smartfonów, który z powodzeniem wprowadził na rynek smartfony z dużymi ekranami lub "phabletami", począwszy od października 2011 roku, kiedy to Samsung Galaxy Note. Seria Note wprowadziła na rynek nie tylko pierwsze cieszące się dużym powodzeniem smartfony z ekranami o przekątnej większej niż 5 cali, ale także nowy typ rysika. Do tego czasu zdecydowana większość smartfonów miała ekrany o przekątnej od 3,5 do 4,25 cala, więc ten rozmiar był znaczącym odejściem od smartfonów, które znali klienci. Ponadto, podczas gdy wiele wczesnych smartfonów, takich jak linia Palm Treo, wymagało rysika do wszystkich form wprowadzania, rysik z linii Note był przeznaczony do pisania odręcznego i rysowania, podczas gdy większość regularnych danych nadal można było wprowadzać palcami. Linia Note okazała się znacznie bardziej popularna, niż oczekiwało wielu krytyków, co skłoniło wielu innych producentów do opracowania urządzeń z dużym ekranem. Podczas gdy prawie wszyscy producenci telefonów komórkowych produkujący smartfony z Androidem opracowali urządzenia z większym ekranem do 2014 r., Apple opierał się wychodzeniu poza 4-calowy rozmiar, który zastosował w iPhonie 5 pod koniec 2012 r. Jednak pod koniec 2014 r. Apple wypuściło dwa nowe modele iPhone′a, 4,7-calowy iPhone 6 i 5,5-calowy iPhone 6 Plus. Te nowe, większe iPhone′y okazały się niezwykle popularne, zaspokajając stłumione zapotrzebowanie, które wielu użytkowników iPhone′ów wyraziło po obejrzeniu użyteczności większych telefonów z Androidem. Apple kontynuował tę strategię dwóch rozmiarów w 2015 roku, wprowadzając iPhone′a 6S i 6S Plus, aw 2016 roku wypuszczając iPhone′a 7 i iPhone′a 7 Plus. Podczas gdy Apple przygotowywał się do wypuszczenia modeli iPhone′a 7 pod koniec 2016 roku, Samsung szybko wprowadził na rynek najnowsze urządzenie Note, próbując zdobyć większy udział w rynku, pokonując nowego iPhone′a na rynku. Galaxy Note 7 okazał się krytycznym sukcesem, szeroko chwalonym w branżowych publikacjach technologicznych i wyglądał na potencjalnego dużego sprzedawcę Samsunga w ostatnim kwartale 2016 roku. pod względem zysków na rynku smartfonów dzięki temu premierowemu flagowemu urządzeniu, które w Stanach Zjednoczonych kosztuje ponad 800 USD. Jednak wkrótce po wydaniu telefonu zaczęły pojawiać się doniesienia o zapaleniu się i/lub eksplozji telefonów, powodując drobne obrażenia i uszkodzenia mienia. Podczas gdy Samsung początkowo niezdarnie radził sobie z sytuacją, jeśli chodzi o możliwe wycofanie lub poprawki, ostatecznie Note 7 został formalnie wycofany na całym świecie i został zakazany w samolotach i innych środkach transportu w wielu krajach, w tym w Stanach Zjednoczonych.

iOS i Android: udział w rynku lub udział w zyskach

Do 2015 roku smartfony z systemem Android stanowiły 80% lub więcej sprzedaży smartfonów na całym świecie i nieco ponad 50% sprzedaży w Stanach Zjednoczonych. Apple stanowiło około 15 proc sprzedaży na całym świecie, ale od 42% do 44% sprzedaży w Stanach Zjednoczonych. Jednak do połowy 2016 r. Apple wygenerował około 75% wszystkich zysków ze smartfonów, a w drugiej połowie 2016 r. udział zysków trafiających do Apple wyniósł ponad 90%. Wzrost można przypisać problemom marketingowym Samsunga w związku z wycofaniem Note 7 i wpływem, jaki miało to na zyski ze smartfonów Samsunga. Ze względu na istnienie wielu bardzo tanich i przynoszących niskie zyski smartfonów z systemem Android, zwłaszcza w krajach rozwijających się, średnia marża zysku dla smartfonów z systemem Android jest ograniczona. Pozwoliło to jednak platformie stać się dominującym mobilnym systemem operacyjnym pod względem udziału w rynku i liczby użytkowników pod koniec 2016 r. Apple zdecydowało się pozostać wiernym swojej długoterminowej praktyce sprzedaży wyłącznie wyższej klasy, a tym samym wyższych zysków , smartfony, generując znacznie większe zyski zarówno na telefon, jak i ogólnie, niż wszyscy, z wyjątkiem odnoszących największe sukcesy dostawców smartfonów z Androidem, takich jak Samsung. Jednym z obszarów, w którym wszystkie smartfony odniosły sukces, jest udostępnianie Internetu i komunikacji ludziom na całym świecie. Do 2016 roku przeglądarki na smartfonach stały się najpopularniejszą formą dostępu do internetu, a więcej wyszukiwań w Google było przeprowadzanych na urządzeniach mobilnych niż w jakimkolwiek innym formacie. W miarę jak smartfony będą coraz bardziej wydajne i dodawane będą nowe funkcje, takie jak te związane z rozszerzoną/wirtualną rzeczywistością, a dostęp do sieci stanie się bardziej rozpowszechniony, smartfony najprawdopodobniej staną się jeszcze bardziej popularne. Rozwój nowoczesnych smartfonów sprawił, że komputery i Internet stały się znacznie bardziej dostępne dla wielu ludzi na całym świecie. Smartfon stał się również nieodzownym narzędziem zarówno do użytku biznesowego, jak i osobistego, zapewniając milionom użytkowników wiele form komunikacji sieciowej i rozrywki. Podobno ostatecznym życzeniem Google jest zapewnienie każdemu dostępu do Internetu. Istnienie smartfonów, zwłaszcza tych tańszych, może to umożliwić. W ten sposób smartfony pomagają zapewnić łatwy dostęp do Internetu ludziom na całym świecie, niezależnie od poziomu dochodów.



Powrót

Spam



Spam to nieodpowiednie, niechciane i nieistotne treści lub wiadomości internetowe. Internet zapewnia liczne platformy do wyszukiwania informacji i gromadzenia wiedzy za pośrednictwem poczty elektronicznej (medium komunikacyjne), blogów (dzienniki online), wiki (bazy wiedzy), forów internetowych (pokoje czatowe) i społeczności internetowych (sieci społecznościowe). Platformy te napędzają ciągły wzrost ilości informacji w Internecie; jednak łatwość, z jaką takie treści są publikowane (na stronach internetowych) lub komunikowane (poprzez e-mail) w Internecie równie łatwo można tworzyć nieodpowiednie, niechciane i nieistotne treści. Spam nie stanowi wartości dodanej dla internauty ani użytkownika poczty elektronicznej. Spam składa się po prostu z niechcianych i niechcianych wiadomości. W tym wpisie opisano pochodzenie spamu i wyjaśniono różne rodzaje spamu. Ten wpis analizuje również społeczno-ekonomiczny, środowiskowy i techniczny wpływ spamu oraz przedstawia kilka podejść do ograniczania jego obiegu.

Pochodzenie terminu Spam

Pochodzenie terminu spam wywodzi się z popularnego programu telewizyjnego z lat 70., Latający Cyrk Monty Pythona. W 25. odcinku klient zamawia posiłek w Green Midget Café w Bromley (fikcyjna restauracja). Ciekawostką tego odcinka jest to, że menu kawiarni zawiera w każdym z serwowanych dań wstępnie przetworzone mięso o nazwie Spam. Kelnerka restauracji nalega na serwowanie klientom niechcianego spamu. W wyniku programu termin spam został powiązany z czymś niechcianym.

Rodzaje spamu

Spam e-mailowy jest najbardziej znaną formą spamu, ale spam jest również obecny w wiadomościach błyskawicznych, telefonach komórkowych i wyszukiwarkach w telefonii internetowej i aplikacjach Web 2.0. Spamer to podmiot rozpowszechniający spam, którym może być osoba lub program.

Spam e-mailowy

Spam e-mailowy (znany również jako niechciana poczta e-mail lub niechciana poczta masowa) obejmuje jednoczesne wysyłanie niechcianych wiadomości e-mail do dużej grupy przechwyconych adresów e-mail. Stanowi ponad 50% wszystkich e-maili wysyłanych na całym świecie. Botnety (sieć zainfekowanych maszyn) są zazwyczaj wykorzystywane do wysyłania spamu e-mailowego. Spam e-mailowy stale rośnie od wczesnych lat 90., ponieważ (a) spamerzy stali się bardziej skuteczni w zbieraniu adresów e-mail z wielu źródeł internetowych, takich jak strony internetowe, fora dyskusyjne, sieci społecznościowe i strony główne; (b) spam e-mail kosztuje niewiele; oraz (c) spamerzy potrzebują dostępu jedynie do niezawodnego połączenia internetowego i bazy danych poczty elektronicznej. Spam e-mailowy niekorzystnie wpływa na sieć i infrastrukturę ze względu na zajmowaną dodatkową przepustowość i pamięć masową. Jest to również irytujące dla użytkowników, którzy muszą przeglądać setki e-maili wysyłanych bezpośrednio na ich adres e-mail.

Spam w komunikatorze błyskawicznym

Spam w programach do przesyłania wiadomości błyskawicznych, takich jak Skype, Yahoo Messenger i WhatsApp, jest określany jako SPIM, a spamerzy nazywani są spimmerami. Użytkownicy komunikatora często otrzymują niechciane wiadomości i łącza, ponieważ spamerzy mogą zbierać informacje demograficzne z ich profili użytkowników i wysyłać ukierunkowane niechciane wiadomości. Użytkownicy mogą blokować SPIM za pomocą białej listy. WhatsApp umożliwia wysyłanie wiadomości od nieznanych kontaktów, a użytkownik ma możliwość dodania ich do swoich kontaktów lub zablokowania. Pod pewnymi względami SPIM jest podobny do spamu e-mailowego, ponieważ często zawiera reklamy, zwykle link do strony internetowej, który jest sprzedawany, ale niektórzy użytkownicy uważają SPIM za bardziej irytujący i natrętny, ponieważ otrzymują SPIM w czasie rzeczywistym, na swoim komputerze lub na ich urządzenie mobilne. SPIM może być również bardziej ryzykowny, ponieważ użytkownicy komunikatorów nie oczekują, że wiadomości będą pochodzić

Mobilny spam

Spam mobilny to niewłaściwe wykorzystanie usługi krótkich wiadomości tekstowych (SMS) w telefonach w celu rozprzestrzeniania spamu. Staje się popularną formą spamu z kilku powodów. Po pierwsze, nie wszystkie kraje mają lub ściśle egzekwują przepisy antyspamowe. Po drugie, udoskonalone systemy filtrowania antyspamowego zmniejszają zyski ze spamu e-mailowego. Po trzecie, zwiększona świadomość dotycząca spamu e-mailowego pomogła użytkownikom wiedzieć, które e-maile należy ignorować lub usuwać. Po czwarte, spadają koszty wysyłania i odbierania SMS-ów, aw niektórych krajach abonamenty na telefony komórkowe obejmują nielimitowane SMS-y. Wreszcie wskaźniki odpowiedzi na spam SMS-owy są znacznie wyższe w porównaniu ze spamem e-mailowym. Spam SMS stał się poważnym problemem w krajach takich jak Indie, Chiny i Pakistan (w szczególności szacuje się, że 20-30% ruchu SMS w Indiach i Chinach to spam). Wraz ze spadkiem kosztów wysyłania SMS-ów spodziewany jest wzrost spamu SMS-owego.

Spam internetowy

Spam internetowy to rodzaj spamu, w ramach którego spamerzy projektują strony internetowe w celu oszukania wyszukiwarek w celu uzyskania wysokiej pozycji w wynikach wyszukiwania. Celem jest oszukanie wyszukiwarek, aby oferować użytkownikom końcowym wprowadzających w błąd wyników wyszukiwania. Ten rodzaj spamu jest również znany jako spamdexing lub black hat SEO (optymalizacja wyszukiwarek), ponieważ jego celem są algorytmy SEO. Algorytmy SEO są to techniki mające na celu poprawę rankingu witryny internetowej poprzez przestrzeganie wytycznych etycznych (np. większa liczba linków przychodzących do witryny poprawia jej pozycję w rankingu). Jednak spamerzy wykorzystują SEO, dostosowując strony internetowe w celu nieetycznego podniesienia pozycji w rankingach. Spam internetowy jest dość rozpowszechniony, a wyszukiwarki stale usuwają spamerskie witryny ze swoich indeksów wyszukiwania. Jednak spamerzy nadal tworzą nowe strony internetowe, które ponownie trafiają do indeksu wyszukiwania. Ogólnie rzecz biorąc, istnieją trzy klasy spamdexingu: (1) spam treściowy, (2) spam linków i (3) maskowanie. Spam dotyczący treści ma na celu manipulowanie zawartością strony internetowej poprzez ukrywanie niewidocznego tekstu, upychanie słów kluczowych, upychanie tagów metadanych i obracanie artykułów. Upychanie słów kluczowych to technika SEO polegająca na osadzaniu strony internetowej z nieistotnymi słowami kluczowymi i tagami metadanych w celu niesprawiedliwego podniesienia pozycji witryny w wyszukiwarkach. Spinanie artykułów to kolejna technika SEO, w której istniejąca treść jest zmieniana poprzez zastępowanie słów i fraz synonimami w celu wygenerowania niewielkiej liczby inna wersja treści Wszystkie te metody mają na celu zaprojektowanie strony internetowej, która uzyska wyższy ranking w wyszukiwarkach. Spam linków ma na celu manipulowanie liczbą linków przychodzących do docelowej witryny ponieważ wyszukiwarki oceniają jakość serwisu na podstawie tej liczby. Tutaj metody takie jak ukryte linki, farmy linków i blogi ze spamem (lub splogami) są używane do zwiększania liczby przychodzących linków. Ukryte linki nie są widoczne dla ludzi, ale robot wyszukiwarki może je zobaczyć; dlatego ta technika jest używana do ukrywania linków lub nieistotnych słów kluczowych w celu podniesienia pozycji w rankingu. Farmy linków i blogi spamowe (splog) odnoszą się do stron internetowych (lub blogów) tworzonych w celu podniesienia pozycji strony docelowej w wynikach wyszukiwania. Maskowanie to metoda polegająca na oferowaniu pająkom wyszukiwarek innej treści niż użytkownikom ludzkim w celu podniesienia pozycji w rankingu.

Spam przez telefonię internetową

Voice over Internet Protocol (VoIP) to protokół komunikacyjny, który ułatwia komunikację głosową i multimedialną za pośrednictwem protokołu internetowego. W przypadku spamu za pośrednictwem telefonii internetowej (SPIT) spamerzy wykorzystują usługi VoIP do nawiązywania połączeń z celami. SPIT oferuje spamerom niedrogi sposób na prowadzenie niezamówionego marketingu do nieograniczonej liczby użytkowników. Jest również popularny wśród żartownisiów, którzy mogą manipulować połączeniem, dodając fałszywe pakiety danych głosowych. SPIT niepotrzebnie zwiększa ruch w sieci, co skutkuje niską jakością dźwięku podczas prawdziwych połączeń VoIP. W tej chwili SPIT nie jest rozpowszechniony, ale oczekuje się, że w miarę jak połączenia VoIP staną się głównym nurtem, SPIT nabierze rozpędu. Przewidując wpływ SPIT, amerykańska firma Qovia złożyła dwa patenty, aby zatrzymać SPIT.

Spam w aplikacjach Web 2.0

Spam w aplikacjach Web 2.0 lub Spam 2.0 to rozpowszechnianie niechcianych, anonimowych, masowych treści w celu infiltracji legalnych aplikacji Web 2.0. Web 2.0 oferuje użytkownikom możliwość jednoczesnego generowania i konsumowania treści za pomocą funkcji odczytu i zapisu, na przykład na blogach, w serwisach społecznościowych, witrynach do udostępniania multimediów i wiki. Chociaż funkcja odczytu i zapisu oferuje prawdziwym użytkownikom możliwość współtworzenia sieci, otwiera ona również sieć dla ataków spamerów na niechciane treści. Spamer może zarejestrować się na takich platformach, a następnie rozpowszechniać treści spamowe. W Spamie 2.0 spamerzy nie zarządzają własnymi serwerami pocztowymi ani serwerami internetowymi, ale ich spam jest publikowany na innych autentycznych stronach internetowych. Wiadomość spamowa może być na przykład komentarzem na czyimś blogu, fałszywym przyciągającym wzrok profilem w serwisie społecznościowym, promocyjną recenzją produktu, odpowiedzią na wątek na forum internetowym zawierającym niechciane treści lub zmanipulowaną stroną wiki . Spam 2.0 wiąże się z kilkoma wyzwaniami. Zawartość spamu w legalnej witrynie jest często postrzegana przez użytkowników jako bardziej godna zaufania niż spam znajdujący się w izolacji na nieznanej stronie internetowej. Ponieważ zawartość spamu 2.0 ma charakter pasożytniczy (znajduje się w innej witrynie internetowej), wiarygodność witryny hosta może zostać zmniejszona, ponieważ autentyczni użytkownicy mogą zostać oszukani w celu pobrania złośliwego oprogramowania i wirusów lub oszustw. Ponadto identyfikowanie i usuwanie spamu z oryginalnej treści hostowane na legalnych witrynach internetowych stanowią wyzwanie dla wyszukiwarek - a wyszukiwarki mogą nawet umieszczać na czarnej liście legalną witrynę hostującą. Korzystając z wyrafinowanych zautomatyzowanych narzędzi, spamerzy atakują dużą liczbę hostów w bardzo krótkim czasie, a przejęte przez nich wykorzystanie zasobów, takich jak przepustowość, pamięć masowa, przetwarzanie i moc, może wpłynąć na wrażenia użytkowników , prawdziwych użytkowników sieci. Co więcej, niektóre dowody sugerują, że ludzie z krajów rozwijających się są zatrudniani do rozsyłania spamu przez ludzi.

Wpływ spamu

Spam jest tworzony w złych intencjach i powoduje szereg negatywnych skutków społeczno-ekonomicznych i środowiskowych. W poniższych sekcjach opisano te skutki.

Skutki społeczne

Wpływ społeczny to wpływ jakiejkolwiek działalności na tkankę społeczną społeczności lub na dobro jednostki. W przypadku spamu skutki społeczne odnoszą się do negatywnych skutków społecznych związanych z rozprzestrzenianiem się spamu w Internecie, takich jak oszustwa internetowe, oszustwa i kradzież tożsamości.

Oszustwa internetowe

Oszustwa internetowe są zazwyczaj rozpowszechniane za pomocą wiadomości spamowych, które nakłaniają użytkowników do przelania pieniędzy lub udostępnienia poufnych danych osobowych, które są następnie wykorzystywane do popełniania oszustw, kradzieży tożsamości lub wymuszeń. Oszuści łapią ludzi, wykonując bezpośrednie połączenia telefoniczne, wysyłając SMS-y z pogróżkami, publikując fałszywe listy lub niezapłacone faktury, tworząc fałszywe sklepy internetowe, które nigdy niczego nie wysyłają, pozostawiając komentarze online, a nawet komunikowanie się za pośrednictwem osobistych wiadomości w sieciach społecznościowych. Pracują bardzo ciężko, aby pozostawić użytkownikom wrażenie, że oszustwo jest autentyczne i autentyczne (np. rozmowy mogą zawierać następującą wiadomość: "Ta rozmowa jest nagrywana w celach szkoleniowych" lub wiadomości e-mail mogą zawierać logo firmy). Oszustwa i oszustwa internetowe, takie jak oszustwo nigeryjskie, oszustwo spadkowe, loteria, oszustwa związane z pracą i zatrudnieniem, oszustwa ransomware, oszustwa randkowe i oszustwa inwestycyjne, spowodowały utratę milionów dolarów. Na przykład doniesiono, że w 2015 i 2016 roku Australijczycy stracili odpowiednio 83 miliony dolarów i 70 milionów dolarów na rzecz oszustów, przy czym każdego roku zgłaszanych jest ponad 100 000 przypadków. Dwa najpopularniejsze oszustwa to programy randkowe/romansowe i inwestycyjne. Osoby, które zostały najbardziej dotknięte, były w wieku od 45 do 65 lat i były atakowane przez telefon i Internet. Ze względu na wpływ społeczny rządy podjęły inicjatywy mające na celu zwiększenie świadomości na temat spamu, oszustw i oszustw internetowych (np. Australasian Consumer Fraud Taskforce lub National Consumer Fraud Week).

Kradzież tożsamości

Niektórzy spamerzy mogą również angażować się w kradzież tożsamości, wykorzystując informacje identyfikujące osobę (np. imię i nazwisko, datę urodzenia, numer ubezpieczenia społecznego, numer karty kredytowej, paszport, prawo jazdy, numer identyfikacji podatkowej, dane bankowości internetowej) w celu popełnienia oszustwa. Taka kradzież tożsamości może być dokonywana przez spamerów, którzy projektują złośliwe oprogramowanie (złośliwe oprogramowanie przeznaczone do zdalnej kontroli systemu komputerowego) i trojany (przeznaczone do wykonywania ukrytych funkcji, np. wykorzystywane do rozsyłania spamu bez wiedzy właściciela komputera. Gdy spamer zainfekuje maszynę złośliwym oprogramowaniem lub trojanem, maszyna może rozpocząć wysyłanie spamu, a także zbierać informacje o tożsamości w celu kradzieży tożsamości. Złośliwe oprogramowanie lub trojany mogą zainfekować komputer, gdy użytkownik instaluje bezpłatne oprogramowanie, takie jak wygaszacze ekranu, paski narzędzi lub załączniki do wiadomości e-mail lub klika łącza reklamowe. W rezultacie ofiary kradzieży tożsamości mogą ponieść znaczne straty finansowe.

Wpływ na reputację marki

Spam i spamerzy poważnie wpływają na reputację marek poprzez ukierunkowane ataki phishingowe i przeprowadzanie przeciwko nim ataków typu spam opiniotwórczy.

Ataki phishingowe

Ataki phishingowe mają na celu zebranie krytycznych informacji, w tym identyfikatorów użytkowników, haseł i numerów kart kredytowych, działając jako zaufany podmiot, taki jak bank. W takim przypadku spamer wysyła e-maile lub pozostawia na blogu komentarz z informacją prowokującą użytkownika do odwiedzenia strony internetowej i podzielenia się poufnymi informacjami (np. e-mailem lub komentarzem informującym, że numer karty kredytowej ofiary jest skradziony i należy pilnie zalogować się na stronie banku w celu dezaktywacji karty kredytowej). Zwodniczy link (wskazujący na fałszywą, ale autentycznie wyglądającą witrynę banku) jest udostępniany użytkownikom, którzy mogą kliknąć i zalogować się. Gdy użytkownik zaloguje się przy użyciu swoich prawdziwych danych uwierzytelniających, atak phishingowy zakończy się sukcesem, ponieważ spamer może zarejestrować dane logowania i przeprowadzić atak polegający na kradzieży tożsamości. Ataki phishingowe przynoszą straty w wysokości milionów dolarów rocznie i mogą znacząco zaszkodzić reputacji marki legalnej firmy oraz operacji biznesowych (np. klienci mogą wahać się przed użyciem bankowości internetowej skutkującej większym ruchem w oddziałach banków). Firmy mogą pomóc chronić swoich klientów przed atakami typu phishing, informując ich o takich atakach i ich konsekwencjach.

Stronnicze recenzje/spam opinii

Innym sposobem, w jaki reputacja marki może zostać naruszona, jest umieszczanie przez spamerów stronniczych recenzji produktów lub usług w witrynach służących do dzielenia się opiniami. Duża liczba negatywnych komentarzy publikowanych przez spamera, który być może jest zatrudniony przez konkurencję, może znacząco wpłynąć na biznes marki, ponieważ wielu kupujących online czyta recenzje przed dokonaniem zakupu. Nadmiar negatywnych komentarzy może nawet skłonić klientów do zmiany firmy na alternatywną markę. W takiej sytuacji firmy mogą zażądać usunięcia recenzji spamu. Wymaga to jednak współpracy hostujących witryn internetowych, co może zająć trochę czasu, aby przeanalizować takie żądania przed podjęciem działań. Chociaż dostępna jest technologia antyspamowa do wykrywania fałszywych recenzji i reagowania na nie, jest ona wciąż w stadium młodzieńczym; w związku z tym może być potrzebne połączenie podejść automatycznych i ręcznych. Jakość informacji i zaufanie w Internecie Ludzie polegają na Internecie, aby regularnie uzyskiwać dostęp do wysokiej jakości informacji; Jednakże, wraz ze wzrostem ilości spamu na platformach Web 2.0 (np. blogach, forach) może to mieć wpływ na jakość treści, doświadczenia online i zaufanie do Internetu. Osoby szukające informacji mogą w rzeczywistości zostać przekierowane do spamu za pośrednictwem wyszukiwarek (np. spamdexing). Dostawcy treści muszą zająć się spamem, aby upewnić się, że na ich portalach znajdują się wyłącznie oryginalne treści i uniknąć kar dla wyszukiwarek. Administratorzy sieci muszą radzić sobie z niepotrzebnym ruchem spamowym, który pochłania zasoby sieciowe, a firmy hostingowe mogą marnować swoje zasoby pamięci masowej. Może to również wpłynąć na produktywność, ponieważ ludzie mogą spędzać więcej czasu na przeglądaniu niepotrzebnych treści, a wyszukiwarki muszą regularnie ponownie indeksować swoje informacje, aby usunąć spam. Ponadto poziom zaufania do Internetu może zostać obniżony również z powodu negatywnych recenzji i rozpowszechniania fałszywych wiadomości. Na przykład fałszywe wiadomości o bankructwie United Airlines doprowadziły do gwałtownego spadku ceny jej akcji.

Skutki niedogodności

CAPTCHA to metoda wykorzystywana przez wiele stron internetowych do kontrolowania ataków typu spam 2.0. Wymaga od użytkowników zidentyfikowania zdeformowanego tekstu lub liczb na obrazach i wprowadzenia ich na stronie logowania/rejestracji. Ludzie mogą z łatwością odczytać taki tekst, ale komputerom trudno jest go przeanalizować. Jednak ostatnio obrazy te stały się jeszcze trudniejsze do odczytania dla ludzi, zwłaszcza osób niepełnosprawnych, a algorytmy komputerowe znacznie poprawiły się w rozszyfrowywaniu takiego tekstu. Chociaż CAPTCHA dobrze radzi sobie ze spamem, ma również negatywny wpływ na rzeczywisty ruch, ponieważ niektórzy użytkownicy mogą nie być w stanie rozwiązać silnego CAPTCHA. Stawia to administratorów sieci przed dylematem: wdrożyć silne CAPTCHA i utracić prawdziwy ruch lub użyć słabego CAPTCHA i narazić się na ataki spamowe. Staje się ważnym kompromisem.

Skutki ekonomiczne

Koszt zasobów


Spam jest kosztowny, ponieważ wpływa na organizacje na wiele sposobów, na przykład wymagając dodatkowych zasobów w postaci dodatkowej pamięci masowej, zwiększonej przepustowości, większych możliwości obliczeniowych, inwestycji w ochronę przed spamem narzędzi, częstsze szkolenia użytkowników końcowych, dodatkowa konserwacja i więcej pracowników do obsługi spamu. Niektóre badania pokazują również, że spam e-mailowy zmniejsza produkt krajowy brutto i produktywność. Utrata klientów online Klienci online lub użytkownicy dowolnej strony internetowej (np. blogi i fora) są źródłem przychodów z reklam. Wiele witryn internetowych polega na przychodach z reklam jako jedynym źródle dochodu. Takie witryny są w znacznym stopniu narażone na spam, ponieważ spam może odstraszyć tych klientów, co ma bezpośredni wpływ finansowy na przychody z reklam. Klienci online mają bardzo wysoki wskaźnik rezygnacji (tj. bardzo szybko zmieniają usługodawcę, jeśli stwierdzą, że jakość informacji jest obniżona z powodu spamu). W takim przypadku usługodawca traci podwójnie: po pierwsze przez utratę klientów i wynikającą z tego utratę przychodów z reklam, a po drugie przez czas i wysiłek potrzebny do oczyszczenia strony ze spamu.

Manipulacja giełdą

Spamerzy wykazali się umiejętnością manipulowania giełdami. Takie zjawisko nazywa się "Pump and Dump" i działa w trzech krokach. W pierwszym etapie spamerzy identyfikują akcje o niskich cenach i kupują je (pompują) w dużych ilościach. W drugim kroku spamerzy rozpowszechniają pogłoski lub nieprawidłowe informacje o tych akcjach za pośrednictwem spamu e-mailowego lub forów dyskusyjnych i oczekują, że ludzie je kupią . W trzecim etapie, gdy wiele osób kupuje te akcje, a ich cena rośnie, spamerzy sprzedają (wyrzucają) te akcje dla zysku.

Wpływ na środowisko

Spam jest jedną z przyczyn emisji gazów cieplarnianych, a kilka badań wykazało ślad węglowy spamu e-mailowego. Szacuje się, że w 2008 roku wysłano 62 biliony e-maili ze spamem. Zużyło to 33 miliardy kilowatogodzin (KWh) lub 33 terawatogodziny (TWh), co w przybliżeniu odpowiada zużyciu energii przez 2,4 miliona amerykańskich domów. Generował emisje podobne do spalenia 2 miliardów galonów benzyny przez 3,1 miliona pojazdów. Firma WebpageFX zajmująca się marketingiem internetowym opracowała infografikę, która pokazuje, że pojedyncza wiadomość spamowa zawiera 0,3 grama dwutlenku węgla, co odpowiada przejechaniu 1 metra przez pojazd. Patrząc z perspektywy, jeśli pomnożyć tę liczbę przez roczną ilość spamu, jest to równoznaczne z okrążeniem Ziemi 1,6 miliona razy. Istnieją trzy główne działania związane ze spamem, które odpowiadają za większość emisji: (1) przeglądanie i usuwanie spamu (52%), (2) filtrowanie spamu (16%) oraz (3) wyszukiwanie fałszywych alarmów (27%) . Filtrowanie stanowi 16%, ale bez niego ilość spamu wzrosłaby o 270%. Badania związane z emisjami zostały zgłoszone tylko dla spamu e-mailowego, a nie dla innych rodzajów spamu.

Filtrowanie spamu

Znaczący wzrost ilości spamu w poczcie elektronicznej, telefonach komórkowych i Internecie sprawił, że ważne jest znalezienie niezawodnych rozwiązań antyspamowych w celu szybkiego i skutecznego zwalczania spamu. Filtrowanie spamu jest ważne, ponieważ może poprawić ogólną jakość Internetu, zapewnić lepsze wrażenia użytkownika, zmniejszyć niepotrzebne marnotrawstwo zasobów i ograniczyć emisję dwutlenku węgla . Istnieją dwa główne podejścia do zwalczania spamu: (1) prawne i (2) techniczne. Głównym celem każdego z tych rozwiązań jest uczynienie spamu nieopłacalnym i nielegalnym.

Podejście prawne

Pierwszym podejściem do walki ze spamem jest ustawodawstwo. Australijska ustawa o spamie (2003) i amerykańska ustawa o kontrolowaniu ataków na niezamówioną pornografię i marketing (2003) to dwa takie przykłady. Przepisy te jasno określają, co jest, a co nie jest spamem. Ponadto określają kary za nieprzestrzeganie przepisów. Na przykład, zgodnie z australijską ustawą o spamie nielegalne jest "wysyłanie lub powodowanie wysłania" niechcianego spamu za pośrednictwem poczty elektronicznej, komunikatorów internetowych i SMS-ów, ale ustawa ta nie obejmuje faksów, wyskakujących okienek internetowych i telemarketingu głosowego, chociaż mają te same cechy spamu. Mimo że ustawodawstwo może kontrolować spam, nie ma globalnych porozumień między krajami dotyczących zbiorowego zwalczania spamu. W związku z tym przepisy antyspamowe mogą nie być zbyt skuteczne w kontrolowaniu sieci spamowych, ponieważ jeśli spamer znajduje się w kraju, który nie egzekwuje legalnie spamu, może nie być możliwe ściganie spamera. Chociaż niektórzy spamerzy zostali postawieni przed sądem, nie doprowadziło to do znacznego spadku ilości spamu. Nawet dostawcy usług internetowych pozwali spamerów do sądu, próbując odzyskać koszty, ale bez większego powodzenia.

Podejście techniczne

Drugie podejście dotyczy spamu na poziomie technicznym poprzez wdrożenie rozwiązań antyspamowych w celu zapobiegania lub wykrywania spamu. Możliwe są trzy rodzaje rozwiązań technicznych: (1) podejście oparte na wykrywaniu, (2) podejście oparte na zapobieganiu oraz (3) podejście oparte na wczesnym wykrywaniu. Podejścia oparte na wykrywaniu mają na celu identyfikację spamu po tym, jak spamer wysłał spam na stronę internetową lub wysłał spam pocztą elektroniczną lub w inny sposób. Filtry oparte na słowach kluczowych wyszukują wzorce spamu w tekście oraz identyfikują i filtrują spam (np. temat wiadomości e-mail "$$$$ BIG MONEY $$$$" zostanie oznaczony jako spam przez filtr antyspamowy oparty na słowach kluczowych). Podejścia oparte na zapobieganiu ograniczają zautomatyzowany dostęp do systemów sieciowych, wykorzystując wyzwania obliczeniowe, czasowe i ekonomiczne, takie jak CAPTCHA, w celu odróżnienia ludzi od automatycznych spamerów. Podejścia oparte na wczesnym wykrywaniu zapobiegają dystrybucji spamu poprzez eksplorację ruchu generowanego z żądań sieciowych. Podejmując analizę zachowania podczas dystrybucji treści, metody te są w stanie odróżnić spam od legalnych treści. Z biegiem lat nastąpił stopniowy wzrost ilości spamu, mimo że na rynku pojawiły się nowsze i lepsze rozwiązania do filtrowania antyspamowego. Odzwierciedla to fakt, że spamerzy wciąż wymyślają nowe metody spamowania, wykorzystując luki w technologii. Zwalczanie spamu to ciągła walka między filtrami antyspamowymi a spamerami.



Powrót

Sport i Internet



Tak jak zasadniczo gazety, radio i telewizja zmieniły charakter sportu i sposób, w jaki jest on konsumowany, tak samo zmienił się Internet, a może nawet bardziej drastycznie. Podobnie jak w przypadku każdego aspektu branży medialnej, skrzyżowanie sportu i Internetu można najlepiej zrozumieć przez pryzmat technologii, ekonomii i kultury.

Technologia

Kiedy Internet zaczął się pojawiać jako platforma publiczna w 1994 r., przepustowość i prędkość były bardzo ograniczone, co oznaczało, że usługa była bardziej dostosowana do informacji referencyjnych, przechowywania i baz danych. Pierwsi odbiorcy online to głównie mężczyźni, grupa, która również mocno dominuje w konsumpcji sportu. Połączenie to zmieniło Internet w repozytorium wiadomości sportowych, list i grup dyskusyjnych oraz sprzedawców reklamujących artykuły sportowe na sprzedaż. Chociaż wczesne dni Internetu były ograniczone technologicznie, odbywały się pewne eksperymenty. Kiedy New York Yankees i Seattle Mariners spotkali się we wrześniu 1995 r., SportsZone ESPN połączyło się z RealAudio, aby zapewnić pierwszą transmisję radiową meczu Major League Baseball, chociaż jakość dźwięku była gorsza i tylko kilkaset osób mogło odbierać mecze. Dzięki powiązaniom z technologią i firmą Microsoft obszar Seattle stał się pionierem w sporcie online. Miesiąc po transmisji radiowej RealNetworks po raz pierwszy transmitowało mecz play-off Mariners przez Internet. W 1997 roku ESPN i Disney, jego spółka macierzysta, dokonały znacznych inwestycji w sport online, tworząc ESPN Ventures, a według analityków branżowych w ciągu 2 lat startup osiągnął wartość od 1 do 1,5 miliarda dolarów. Wydarzenia w Seattle pokazały, w jakim kierunku zmierza technologia sportów internetowych. Wraz ze wzrostem przepustowości i szybkości, podobnie jak w przypadku przejścia z dostępu wdzwanianego na DSL (cyfrowa linia abonencka), treść mogła przejść od zwykłego przechowywania danych do bardziej strumieniowego przesyłania i interaktywności. W drugiej połowie 2010 roku większość ludzi nadal oglądała treści sportowe w telewizji. Jednak konsumpcja Internetu dramatycznie wzrosła i do 2016 roku ponad połowa wszystkich fanów sportu korzystała z jakiegoś sportu online lub czytała wiadomości sportowe online. Kolejna jedna trzecia oglądała najciekawsze filmy sportowe w Internecie. Ta zmiana w kierunku konsumpcji online otworzyła również sport dla nowych odbiorców, zwłaszcza kobiet i młodszych fanów w wieku od 18 do 34 lat. Wielu z tych odbiorców zaczęło korzystać z nowych platform konsumpcyjnych, w tym telewizji mobilnej i mediów społecznościowych. Do 2014 roku prawie połowa wszystkich fanów sportu stwierdziła, że ogląda lub konsumuje materiały sportowe na urządzeniach mobilnych, co skłoniło wielu analityków branżowych do przewidywania, że staną się dominującą platformą treści sportowych. Media społecznościowe, takie jak Facebook, Instagram i Twitter, stały się popularne w sporcie z różnych powodów. W 2016 r. kilka platform mediów społecznościowych zaczęło transmitować mecze na żywo, w tym National Football League (NFL) i National Basketball Association. Również w 2016 roku YouTube po raz pierwszy pokazał mecze piłki nożnej na żywo z Europejskiej Ligi Mistrzów i Ligi Europy. Ponieważ treści sportowe online stały się bardziej dostępne i akceptowane, stworzyło to ekonomiczne możliwości i wyzwania zarówno dla Internetu, jak i tradycyjnych mediów głównego nurtu.

Ekonomia

Oczywistą konsekwencją ekonomiczną jest to, że Internet niemal wykładniczo zwiększył liczbę odbiorców treści sportowych. Na przykład mecz piłki nożnej z 2016 roku na cześć angielskiego kapitana Wayne′a Rooneya był transmitowany na jego osobistej stronie na Facebooku i dotarł do prawie 1,7 miliarda użytkowników mediów społecznościowych. Mecz finałowy Mistrzostw Świata 2014 pomiędzy Argentyną a Niemcami miał 280 milionów widzów online, co przyczyniło się do ogólnej liczby 3,2 miliarda widzów oglądających mecze w domu. Większa publiczność zazwyczaj oznacza więcej pieniędzy na reklamę, i tak było z pewnością w przypadku Internetu. Od zerowej bazy reklamowej w 1996 roku reklama internetowa urosła w ciągu następnych 20 lat do 60-miliardowego biznesu. Z kolei przychody z reklam zarówno w telewizji (40 mld USD), jak iw telewizji kablowej (24 mld USD) pozostały na względnie stałym poziomie. Chociaż Internet oczywiście przyniósł korzyści reklamodawcom sportowym, otworzył również nowe źródła przychodów. Walcząca branża mediów drukowanych, która odnotowała gwałtowny spadek przychodów z reklam i nakładów, zwróciła się do usług online i subskrypcji jako sposobu na przetrwanie. W 2008 roku The Sporting News (TSN), magazyn z historią wydawniczą sięgającą ponad 120 lat, wszedł do Internetu, najpierw jako usługa bezpłatna, a następnie z minimalnymi kosztami abonamentu. W 2012 roku TSN podjął trudną decyzję o zaprzestaniu wydania drukowanego i oferowaniu wyłącznie treści online. Opłata pobierana przez TSN za treści online jest przykładem paywalla, który stał się niezwykle popularny w witrynach sportowych. Zapora płatna wymaga od odbiorców uiszczenia opłaty za dostęp do określonych treści, ale toczy się silna debata na temat jej skuteczności i akceptacji. Dostawcy obawiali się, że paywalle odciągną odbiorców, z których większość oczekuje, że treści internetowe będą bezpłatne. Nawet jeśli badania wskazują, że paywalle generują tylko od 1% do 10% przychodów branży, strony sportowe coraz częściej zwracają się do nich jako opcji ekonomicznej. Kolejna gratka ekonomiczna nadeszła dzięki internetowej sprzedaży artykułów sportowych. Wykorzystanie Internetu do sprzedaży czapek, koszulek, strojów drużynowych i innych artykułów związanych ze sportem sprawiło, że merchandising sportowy stał się wielomiliardowym biznesem. W 2016 r. handel detaliczny online licencjonowanymi produktami sportowymi w Stanach Zjednoczonych stanowił około 10% rynku, ale prognozy sugerowały, że przejście od tradycyjnego handlu detalicznego będzie kontynuowane i może sięgać nawet 50%. Wszelkie dyskusje na temat ekonomicznego wpływu sportu i Internetu muszą obejmować zakłady online. Napędzane w dużej mierze przez Internet, przychody z nielegalnych zakładów sportowych w 2016 roku wzrosły do około 400 miliardów dolarów rocznie. Część tych pieniędzy pochodziła z puli biurowych i bukmacherów z sąsiedztwa, ale duży procent można było prześledzić do zagranicznych domów bukmacherskich online. Zakłady te odkryły, że założenie działalności poza Stanami Zjednoczonymi pozwoliło im ominąć przepisy dotyczące nielegalnego hazardu. W przypadkach, gdy takie kasyna można było zidentyfikować i postawić przed sądem, po prostu pojawiały się ponownie w Internecie pod innymi nazwami iz nowych lokalizacji. Internet stał się także bodźcem do rozwoju sportów fantasy, w których fani "dobierają" profesjonalnych zawodników i wykorzystują ich występy do zdobywania punktów w rozgrywkach z innymi kibicami. Do 2016 roku ponad 57 milionów fanów sportów fantasy było zaangażowanych w sporty fantasy w Stanach Zjednoczonych i Kanadzie, a codzienne gry online, spopularyzowane przez firmy takie jak FanDuel i Draft Kings, stały się biznesem o wartości 15 miliardów dolarów rocznie. Szeroko nagłośnione procesy sądowe i transakcje z wykorzystaniem informacji poufnych z udziałem obu firm zwiększyły liczbę wezwań do wprowadzenia pewnego rodzaju regulacji

Kultura

Rozwój zakładów sportowych w ogóle, a w szczególności sportów fantasy, odzwierciedla to, jak Internet wzmocnił pozycję współczesnego fana sportu. W epoce przedinternetowej konsumpcja sportu była procesem ściśle jednokierunkowym. Tradycyjne media - telewizja, radio, gazety i czasopisma - produkowały i rozpowszechniały treści sportowe. Poza sporadycznymi listami do redakcji czy audycjami sportowymi, kibic sportowy był raczej biernym odbiorcą. Internet zmienił ten model na komunikację dwukierunkową i uczynił konsumenta sportowego aktywnym uczestnikiem. Przede wszystkim publiczność cieszyła się znacznie większym wyborem i możliwościami konsumpcyjnymi. Tam, gdzie technologia ograniczała wybór w czasach przedinternetowych, pod koniec 2010 roku opcje były prawie nieograniczone. Korzystając z Internetu, kibic sportowy mógł określić, co, jak i gdzie materiał zostanie skonsumowany. Gdy treści nie były łatwo dostępne za darmo, można je było kupić w ramach subskrypcji, paywall lub pay-per-click. Internet nie tylko zapewnił więcej możliwości konsumpcyjnych, ale zmienił konsumenta sportowego w dostawcę treści sportowych. Fani mieli możliwość tworzenia własnych materiałów i rozpowszechniania ich w nieograniczonej pojemności cyberprzestrzeni. Podczas gdy niektóre materiały były niewiele więcej niż upartymi bełkotami obsesyjnych fanów, niektóre z nich konkurowały z mediami głównego nurtu pod względem jakości, oryginalności i, co najważniejsze, rozmiar publiczności. Witryna Bleacher Report, założona przez czterech fanów sportu niezadowolonych z tradycyjnych relacji sportowych, odniosła ogromny sukces, zarówno z milionami odbiorców, jak i przychodami. Podczas gdy Bleacher Report koncentrował się głównie na dziennikarstwie sportowym, innym witrynom generowanym przez fanów udało się rozmawiać i rozmawiać. Rozszerzenie formatu radia sportowego, wersja internetowa pozwala fanom rozmawiać ze sobą i wyrażać swoje opinie za pośrednictwem grup dyskusyjnych, tablic ogłoszeń lub dowolnej liczby witryn. Kiedy historia lub gra sportowa wzbudza duże zainteresowanie, liczba komentarzy fanów może sięgać milionów. Jak zauważono, taka wielkość publiczności przyciąga reklamodawców i ma znaczący wpływ ekonomiczny. Treści dla odbiorców otworzyły również wcześniej ignorowane obszary sportu, w tym relacje ze szkół średnich, rekrutację oraz relacje z nietradycyjnych sportowców i wydarzeń. MaxPreps i Rivals, dwie witryny, które skupiały się prawie wyłącznie na lekkoatletyce i rekrutacji do szkół średnich, stały się niezwykle popularne i odniosły sukces finansowy. Internet nie tylko stworzył sposób, w jaki fani mogą rozmawiać ze sportowcami i między sobą, ale także otworzył konwersację w innym kierunku. Sportowcy i trenerzy mogą teraz rozmawiać bezpośrednio z fanami za pośrednictwem mediów społecznościowych, a niektórzy mają ogromną liczbę obserwujących. W 2016 roku światowej sławy piłkarz Cristiano Ronaldo miał ponad 150 milionów widzów w mediach społecznościowych, w tym 116 milionów na Facebooku i kolejne 48 milionów obserwujących go na Twitterze. Sportowcy i trenerzy nie tylko używają Internetu do rozmów, ale mogą go używać do obejścia lub uniknięcia filtra mediów głównego nurtu. Mogą iść bezpośrednio do fanów, aby przekazać wiadomości, omówić strategię lub po prostu przekazać informacje o swoim życiu osobistym. Były gwiazdor baseballu, Derek Jeter, poszedł o krok dalej w 2014 roku, kiedy stworzył The Players Tribune, stronę internetową, na której zawodowi sportowcy dzielą się swoimi przemyśleniami, wypowiedziami i opiniami na różne tematy. Gdy NFL przygotowywało się do corocznego naboru zawodników w 1995 r., liga rozesłała arkusz informacyjny z pytaniem "Czym jest Internet?" oraz "Dlaczego Internet jest ważny dla NFL?" To były ważne pytania w 1995 roku, a NFL wykazało się dalekowzrocznością, próbując wyprzedzić krzywą online. Liga wydawała się również prorocza, gdy w tym samym arkuszu informacyjnym zasugerowano, że nowa technologia zapewni natychmiastowe, interaktywne połączenie z fanami, co będzie miało znaczący wpływ na interakcje społeczne i biznesowe. Internet zmienił sposób, w jaki widzowie myślą o sporcie. Sport nie jest już statycznym, indywidualnym doświadczeniem, jak to było w czasach przed internetem. W tamtych czasach wydarzenie było zwykle oglądane w telewizji (lub słuchane w radiu), a następnego dnia omawiane w gazecie. Było to wyjątkowe, chwilowe i pod wieloma względami osobiste doświadczenie. Dziś to samo wydarzenie jest prawdopodobnie nadal oglądane w telewizji. Ale podczas gdy to się dzieje, publiczność bierze udział w doświadczeniu za pośrednictwem internetowych forów dyskusyjnych, blogów i mediów społecznościowych. Widzowie rozmawiają z innymi fanami, niektórzy z nich są oddaleni o tysiące kilometrów, aw niektórych przypadkach bezpośrednio ze sportowcami. Wielu z nich będzie kronikować swoje doświadczenia związane z konsumpcją, publikując filmy online, zdjęcia lub komentarze. Po meczu tysiące osób będą kontynuować dyskusję na różnych platformach, a ta rozmowa może trwać kilka dni, a nawet tygodni. Osobiste doświadczenie stało się potencjalnie wspólne dla milionów ludzi na całym świecie.



Powrót

Stuxnet



Stuxnet to niezwykle duże (około 500 KB) i złożone złośliwe oprogramowanie (malware) wykryte po raz pierwszy przez białoruską firmę zajmującą się bezpieczeństwem VirusBlokAda w czerwcu 2010 roku. Zostało udostępnione innym firmom zajmującym się bezpieczeństwem w celu analizy, co zajęło kilka miesięcy. Stało się oczywiste, że Stuxnet został stworzony z dużymi inwestycjami dla określonego celu, co wzbudziło podejrzenia, że odpowiedzialne jest państwo narodowe. Stuxnet był wyjątkowy do tego stopnia, że zawierał wiele exploitów dnia zerowego i niezwykłe techniki skradania się. Analiza ładunku wykazała, że Stuxnet miał na celu sabotowanie określonego typu programowalnego kontrolera logicznego (PLC) skonfigurowanego z określonymi przetwornicami częstotliwości. Biorąc pod uwagę, że większość infekcji Stuxnetem została wykryta w Iranie, a tamtejsze zakłady przemysłowe mogą być podatne na ładunek, w branży bezpieczeństwa panuje powszechne przekonanie, że zamierzonym celem była fabryka wzbogacania broni jądrowej w Natanz. Jeśli to prawda, Stuxnet jest pierwszym znanym złośliwym oprogramowaniem sponsorowanym przez państwo, które zostało uruchomione przeciwko krytycznej infrastrukturze innego państwa narodowego. Ten wpis sprawdza jak rozprzestrzeniał się Stuxnet, jego możliwości ukrywania się i jego implikacje.

Metody rozprzestrzeniania

Stuxnet różni się od większości innych samoreplikujących się złośliwych programów, ponieważ ma cztery exploity dnia zerowego, ale rozprzestrzenia się selektywnie na komputery osobiste (PC) o określonych konfiguracjach. Exploity dnia zerowego wykorzystują luki w zabezpieczeniach, które są nieznane twórcy oprogramowania, dlatego łata na tę lukę jest niedostępna. Wrażliwe komputery są zasadniczo bezbronne. Exploity dnia zerowego są uważane za wartościowe i są wykorzystywane rzadko; typowe złośliwe oprogramowanie nie zawiera żadnego lub najwyżej jeden. W przypadku czterech exploitów dnia zerowego było oczywiste, że programiści Stuxneta chcieli, aby szkodliwe oprogramowanie rozprzestrzeniało się agresywnie, aby osiągnąć swój cel. Stuxnet mógł zostać wprowadzony do sieci docelowej na zainfekowanym dysku flash uniwersalnej magistrali szeregowej, ponieważ sieć docelowa nie była połączona z Internetem. Po zainfekowaniu komputera Stuxnet wykorzystuje wiele luk w zabezpieczeniach, aby rozprzestrzenić się na inne komputery. Na przykład serwer systemu Windows z biuletynami zabezpieczeń firmy Microsoft może nieprawidłowo obsługiwać specjalnie spreparowane żądania zdalnego wywołania procedur. To, żeby było jasne, to tylko jeden z możliwych błędów. Warto zauważyć, że Stuxnet przeprowadza szereg kontroli, zanim zainfekuje podatny na ataki komputer. Jeśli jest to zła konfiguracja, Stuxnet nie kopiuje się. To zachowanie jest zupełnie inne niż większość samoreplikującego się złośliwego oprogramowania, które próbuje zainfekować jak najwięcej komputerów. Stuxnet był ewidentnie zainteresowany tylko określonym celem. Stuxnet rozprzestrzenia się na komputery z systemem Windows w nadziei na dotarcie do określonego typu sterownika PLC. PLC to wyspecjalizowany typ komputera szeroko stosowany do sterowania różnego rodzaju urządzeniami przemysłowymi znajdującymi się w fabrykach, liniach montażowych, zakładach produkcyjnych i infrastrukturach krytycznych. Ma moduły wejściowe zwykle podłączone do wejściowych urządzeń wykrywających i moduły wyjściowe podłączone do urządzeń takich jak silniki, zawory i światła. Urządzenia te są sterowane zgodnie z odczytywanymi sygnałami wejściowymi, takimi jak temperatura lub ciśnienie. Sterowniki PLC są programowalne ze względu na elastyczność i są zwykle programowane przez zwykłe komputery PC z systemem Windows, które ładują program do pamięci sterownika za pośrednictwem szeregowego lub równoległego łącza danych. Po załadowaniu programu komputer można odłączyć, a sterownik PLC może działać niezależnie. Stuxnet ma na celu dotarcie do sterowników Siemens Simatic S7, które są programowane przez komputery PC z systemem Windows i oprogramowaniem Simatic Step 7. Z zainfekowanego komputera, na którym działa Simatic Step 7, Stuxnet ładuje własne szkodliwe bloki do podłączonego sterownika PLC Simatic S7 i ukrywa obecność szkodliwych bloków przed użytkownikiem.

Metody skradania się

Podobnie jak inne współczesne złośliwe oprogramowanie, Stuxnet jest zaprogramowany z różnymi technikami ukrywania się, aby uniknąć wykrycia. Stealth daje Stuxnetowi więcej czasu na dotarcie do zamierzonego celu i dostarczenie ładunku. Stuxnet wykorzystuje trzy metody ukrywania się: (1) program antywirusowy, (2) skradzione certyfikaty cyfrowe i (3) rootkity. Jako plik biblioteki dołączanej dynamicznie (DLL), Stuxnet może zostać wykryty przez behawioralny system wykrywania włamań, który monitoruje wywołania "LoadLibrary". Jednak za każdym razem, gdy Stuxnet próbuje załadować bibliotekę DLL (jego część), próbuje ominąć system wykrywania włamań, wywołując LoadLibrary ze specjalnie spreparowaną nazwą pliku, która nie istnieje na dysku. Normalnie spowodowałoby to awarię LoadLibrary, ale Stuxnet ma hak do wykrywania tych żądań i odwzorowuje spreparowane nazwy plików do innej lokalizacji pamięci, w której plik DLL został wcześniej zainstalowany przez Stuxneta. W ten sposób Stuxnet może ładować się bez wykrycia. Stuxnet szuka aktywnych procesów i plików rejestru odpowiadających wielu znanym produktom antywirusowym. W zależności od znalezionego produktu zabezpieczającego Stuxnet wybiera metodę wstrzyknięcia swojego kodu do zaufanego procesu. Kiedy Stuxnet próbuje zainstalować złośliwe sterowniki na zainfekowanych komputerach, Windows Vista zwykle wyświetla ostrzeżenie dla sterowników bez ważnego podpisu cyfrowego, podczas gdy Windows 7 (i nowsze wersje) odmawia instalacji niepodpisanych sterowników. Podpisy cyfrowe są używane przez twórców oprogramowania do kryptograficznej weryfikacji tożsamości twórcy i integralności ich oprogramowania przed nieautoryzowanymi modyfikacjami. Aby oszukać system operacyjny, Stuxnet początkowo wykorzystał skradziony certyfikat cyfrowy należący do Realtek Semiconductor Corp. Certyfikat ten został unieważniony przez Verisign w lipcu 2010 roku. Jednak w tym samym miesiącu pojawił się nowy sterownik Stuxneta ze skradzionym certyfikatem należącym do JMicron Technology Corporation. Verisign unieważnił ten certyfikat tydzień później. Stuxnet próbuje również ukryć swój szkodliwy kod zainstalowany na docelowym sterowniku PLC Siemens Simatic S7. Stuxnet zastępuje plik "s7otbxdx.dll" na zainfekowanym komputerze, na którym działa oprogramowanie Step 7, złośliwą wersją. Złośliwy plik "s7otbxdx.dll" ukrywa przed użytkownikiem obecność złośliwych bloków zainstalowanych na sterowniku PLC, skutecznie działając jako rootkit.

Ładunek

Gdy zainfekowany komputer znajdzie sterownik PLC Simatic S7, przeprowadza zestaw kontroli przed zainfekowaniem sterownika PLC. Kontrole obejmują typ procesora, obecność Profibus (standardowa przemysłowa magistrala sieciowa) oraz obecność co najmniej 33 przetwornic częstotliwości wyprodukowanych przez określonych dostawców. Złośliwe bloki są zapisywane w sterowniku PLC tylko wtedy, gdy testy zakończą się pomyślnie. Złośliwy ładunek wykonywany w zainfekowanym sterowniku PLC subtelnie zmienia częstotliwości robocze przetwornic częstotliwości w sieci Profibus. Uważa się, że gdyby wirówki uranowe były połączone, wirówki mogłyby się przypadkowo i tajemniczo psuć.

Możliwe cele i uszkodzenia

Firmy ochroniarskie wykryły zdecydowaną większość infekcji w Iranie; stąd powszechnie uważa się, że zamierzonym celem był Iran. Ponadto, biorąc pod uwagę działania ładunku Stuxneta, najbardziej prawdopodobne uważa się, że celem jest zakład wzbogacania uranu w Natanz. Dokładna ilość szkód wyrządzonych przez Stuxneta jest niepewna. Iran oficjalnie potwierdził infekcję złośliwym oprogramowaniem, ale nigdy nie ujawnił szkód. W Iranie mogło działać 8700 wirówek w Natanz w 2009 roku, kiedy uważa się, że Stuxnet uderzył. Przedstawiciele Międzynarodowej Agencji Energii Atomowej poinformowali, że do 25% tych wirówek nie działało od stycznia 2010 r. Prywatna grupa Instytutu Nauki i Bezpieczeństwa Międzynarodowego w Waszyngtonie opublikowała pod koniec 2010 r. Raport stwierdzający, że irańskie wirówki P-1 w Natanz poniosła serię awarii w drugiej połowie 2009 roku, w wyniku których usunięto 984 wirówki. Stuxnet został zidentyfikowany jako prawdopodobna przyczyna. W środkach masowego przekazu urzędnicy amerykańscy byli nieoficjalnie cytowany jako szacujący, że irański program wzbogacania broni jądrowej został opóźniony o 1 lub 2 lata. Ogólnym efektem Stuxneta było tymczasowe zakłócenie zamiast trwałego uszkodzenia.

Atrybucja

Nieoficjalne przecieki do środków masowego przekazu przypisują Stuxnet wspólnemu wysiłkowi Stanów Zjednoczonych i Izraela. Stany Zjednoczone i Izrael nie skomentowały oficjalnie. Według artykułów prasowych rozwój Stuxneta został zatwierdzony pod koniec administracji prezydenta George′a W. Busha i przyspieszony pod rządami prezydenta Baracka Obamy. Zarówno Stany Zjednoczone, jak i Izrael szukały sposobu na sparaliżowanie irańskiego programu nuklearnego, unikając bezpośredniego kontaktu uderzenia militarnego, które może zakłócić sytuację w regionie i przerodzić się w wojnę. Intencją Stuxneta było sabotowanie wirówek do wzbogacania uranu w celu zyskania na czasie. Stuxnet może powodować losowe awarie wirówek, jednocześnie ukrywając swoją obecność przed personelem zakładu.

Implikacje

Stuxnet jest interesujący, ponieważ różni się od poprzedniego szkodliwego oprogramowania w istotny sposób:

•  Jego złożoność sugeruje ogromną inwestycję zasobów w celu jego opracowania.
•  Jego ładunek jest wycelowany w określony cel.
•  Jego ładunek ma spowodować fizyczne uszkodzenie przemysłowych systemów sterowania.

Te fakty sugerują, że Stuxnet został stworzony przez państwo narodowe w ramach przemyślanej strategii sabotowania krytycznie ważnej placówki w innym państwie. Jeśli to prawda, Stuxnet można określić jako pierwszy znany przypadek złośliwego oprogramowania "uzbrojonego" w ofensywne cele wojskowe. Idąc za jego przykładem, przyszłe złośliwe oprogramowanie opracowane przez państwa narodowe może być wysoce wyrafinowane, zawierające exploity dnia zerowego i zaawansowane techniki ukrywania się, wymierzone w krytyczne systemy kontroli przemysłowej. Eksperci ds. bezpieczeństwa debatowali nad znaczeniem "wojny cybernetycznej". Niektórzy autorzy ostrzegali przed nieuchronnymi cyberatakami na wrażliwe infrastruktury krytyczne, podczas gdy inni nie zgadzali się co do prawdopodobieństwa i tego, czy cyberataki można zakwalifikować jako "wojnę". Aż do Stuxneta tak było zgodzili się, że państwa narodowe prowadzą cyberszpiegostwo, głównie kradzież danych, ale nie było bezpośrednich cyberataków między narodami. Powszechnie wiadomo, że jest wiele narodów znaczne inwestycje w budowanie ofensywnych i defensywnych narodowych zdolności cybernetycznych, analogicznie do tradycyjnego wyścigu zbrojeń.



Powrót

Slang internetowy



Slang internetowy, podobnie jak jego odpowiedniki w mowie i piśmie, jest sposobem komunikacji, który zazwyczaj składa się ze skróconych słów lub fraz, neologizmów (nowych słów), skrótów lub inicjałów oraz paralingwistycznych lub parawerbalnych znaczników. W przestrzeni internetowej netspeak (jak czasami nazywa się internetowy slang) pozwala użytkownikowi korzystać ze skrótów, oszczędzać czas i wydajniej komunikować się. Ta wydajność jest ważna w przypadku mediów internetowych, w których przestrzeń jest ograniczona lub urządzenia wejściowe, takie jak telefony komórkowe, uniemożliwiają pisanie długich wiadomości. Używanie slangu internetowego można również uznać za formę przełączania kodu, socjolingwistyczną praktykę, która pomaga użytkownikom tworzyć grupy społeczne zarówno w sposób włączający, jak i wykluczający. W tym wpisie omówiono rolę, jaką slang internetowy odgrywa w komunikacji społecznej. Ponadto wpis opisuje różne rodzaje slangu internetowego i wyjaśnia, w jaki sposób każdy z nich jest używany w krajobrazie mediów cyfrowych.

Używanie slangu internetowego

Slang (sam w sobie kontaminacja słów krótki i język) jest często używany przez młodsze pokolenia, aby zasygnalizować, że znają się nawzajem i być może zdystansować się od ich bardziej konserwatywnych lub mniej "fajnych" starszych. W niektórych przypadkach zakodowane skróty mogą służyć do ukrywania treści wiadomości przed wścibskimi oczami rodziców lub nauczycieli. Wiele społeczności internetowych, takich jak fora dyskusyjne i gry wieloosobowe, wypracowało własny wspólny język, zakorzeniony w potrzebach danej grupy i wykorzystywanej technologii. Ponownie, slang internetowy jest podobny do slangu mówionego, ponieważ jest społecznie konstruowany i przekazywany wśród określonej grupy społecznej w celu zaspokojenia potrzeb komunikacyjnych tej grupy. Ten efekt konstrukcji tożsamości społecznej jest wzmacniany w mowie internetowej przez podział między pokoleniami użytkowników Internetu. Młodsi użytkownicy, określani czasem jako "cyfrowi tubylcy", szybko dostosowują się do nowych technologii oraz towarzyszącej im później terminologii i norm językowych. Starsi użytkownicy i mniej doświadczeni użytkownicy w każdym wieku mogą nie czuć się tak komfortowo w korzystaniu z narzędzi do komunikacji online, w związku z czym mogą być bardziej niechętni do przyjęcia cyfrowego języka ojczystego. Slang, zarówno online, jak i offline, jest językiem młodych; żargon innowacji, zmian i nowości. Ta nowość, w połączeniu z wyjątkowym charakterem społeczności sieciowych, umożliwiła szybką ewolucję internetowego slangu na wiele fascynujących sposobów od czasu pojawienia się sieci World Wide Web w latach 90.

Rodzaje slangu internetowego

Istnieje wiele różnych rodzajów nietradycyjnych znaczników językowych, które można uznać za slang internetowy. Każda kategoria ma swoje unikalne pochodzenie i służy różnym celom w komunikacji cyfrowej. Poniżej znajduje się szeroki przegląd czterech głównych kategorii nietradycyjnych znaczników językowych które można znaleźć w cyfrowych kanałach komunikacji.

Skrócone słowa, akronimy, skróty i inicjały

W często ograniczonym pod względem długości świecie komunikacji online i cyfrowej, słowa lub wyrażenia podlegają edycji, w wyniku której powstaje krótszy, mniej formalny wariant oryginału. Ponieważ ta edycja odbywa się w locie, w razie potrzeby, często pojawia się wiele wariantów tych krótkich form. Jednak z biegiem czasu użycie może się ujednolicić, ponieważ coraz więcej użytkowników widzi i przyjmuje najpopularniejsze formy. Naukowcy zajmujący się językiem i Internetem walczyli aby skompilować wyczerpujące listy akronimów i skrótów, ponieważ nie ma standaryzacji w użyciu, a terminy mogą pojawiać się i znikać szybko, zgodnie z użyciem (lub nie). Poniżej znajduje się krótka lista typowych przykładów tego typu slangu internetowego:

•  Wskaźniki fizyczne, takie jak "BRB" (zaraz wracam), "TTYL" (porozmawiamy później), "GTG" (muszę lecieć) i "CU L8R" (do zobaczenia później)
•  "BFF" (najlepsi przyjaciele na zawsze)
•  Znaczniki wprowadzające, końcowe lub przejściowe, takie jak "BTW" (nawiasem mówiąc), "FYI" (dla twojej informacji), "FWIW" (co jest warte) i "ICYM" (na wypadek, gdybyś je przegapił) )
•  "LOL" (śmiech na głos) i jego warianty, w tym "lol", "lolz", "LMBO" (śmiech do łez), "LMAO" (śmiech do łez) oraz "ROTFL" lub "ROFL" " (turlając się po podłodze ze śmiechu). Nie należy ich rozumieć dosłownie, terminy te są używane do wyrażania rozbawienia, zachwytu i/lub humoru z powodu czegoś
•  "NSFW" (niebezpieczne w pracy), używane do wskazania treści nieodpowiednich dla kontekstu zawodowego, zazwyczaj prymitywnego humoru, nagości, pornografii itp.
•  "OMG" (O mój Boże)
•  "TL;DR" (za długi; nie przeczytano), co oznacza, że użytkownik nie przeczytał w całości komentarzy, dyskusji lub artykułów, do których się odwołuje. To również poprzedza skrócone opisy lub streszczenia rzeczy (tj. podsumowanie, kluczowy punkt, ważne wnioski)

Neologizmy

Internet doprowadził do niezliczonych innowacji technicznych, nowych trendów społecznych, zmian ekonomicznych, a nawet zaczął zmieniać sposoby, w jakie ludzki mózg przetwarza i nadaje sens informacjom. Każdy z tych nowych obszarów wymaga nowego zestawu terminologii w celu oznaczenia, sklasyfikowania i opisania zjawiska. Te neologizmy czasami pojawiają się jako inicjały, które są łatwiejsze i krótsze w użyciu niż ich pełne odpowiedniki. Na przykład terminy MOOC (masowy otwarty kurs online) lub WYSIWYG ("dostajesz to, co widzisz", rodzaj edytora treści online) reprezentują skróty językowe i służą również jako znaczniki prestiżu w społecznościowych społecznościach internetowych. To znaczy, jeśli dana osoba wie, co to za konkretny termin lub skrót oznacza, może on należeć do ekskluzywnego grona elitarnych internautów.

Hashtag jako slang

Hashtag (#) był pierwotnie używany jako deskryptor treści na metapoziomie w serwisach społecznościowych, takich jak Twitter. Po symbolu hashtagu następuje słowo lub (bez spacji) słowa opisujące treść wiadomości i zapewnić sposób kategoryzowania danych, aby inni użytkownicy mogli je łatwiej znaleźć. Hashtagi są podobne do słów kluczowych używanych do kategoryzowania treści książki lub artykułu w czasopiśmie. na przykład użytkownik może tweetować: "Nowe wyniki sondaży pokazują, że nasz kandydat prowadzi 15 punktami!" Następnie może dołączyć kilka hashtagów, takich jak "#election #campaign #politics #polls", aby tweet pojawił się w rozmowach na te tematy. Hashtagi stają się linkami, które po kliknięciu przenoszą użytkownika mediów społecznościowych do listy innych postów zawierających ten sam hashtag. Stało się to bardzo popularnym sposobem używania hashtagów podczas wydarzeń takich jak konferencje, konwencje, festiwale lub wydarzenia sportowe; osoby publikujące z wydarzenia mogą oznaczać swoje posty nazwą konferencji lub jakiś inny z góry określony tag. Ta kategoryzacja umożliwia uczestnikom i organizatorom łatwe przeglądanie całej treści publikowanej na temat wydarzenia. Oprócz podstawowego zastosowania jako organizacyjnego metadanych, hashtag jest również sposobem na metapoziomowy komentarz do treści wiadomości, dodając ważną warstwę paralingwistycznego znaczenia do posta. Hashtag może być używany do wyrażania frustracji, sarkazmu, ironii lub dowolnej liczby emocji, które trudno uchwycić w 140 znakach. Hashtagi użyte w ten sposób mogą również dodać do przekazu ważne społeczno-kulturowe wskazówki, pozwalając czytelnikom lepiej zrozumieć kontekst, motywację, a nawet pozycję społeczną oryginalnego plakatu. Hashtag #FirstWorldProblems, na przykład, był używany jako rodzaj autoironicznego komentarza na temat rzeczy, na które narzeka się w krajach rozwiniętych, takich jak Stany Zjednoczone. Użytkownik Instagrama może opublikować zdjęcie narzekające na to, jak barista z kawiarni przekręcił jego imię lub zepsuł zamówienie na drinka tego ranka. Użytkownik może oznaczyć post tagiem #FirstWorldProblems, informując czytelników, że autor uznaje jego przywilej społeczny, przyznając, że wiele osób na całym świecie ma o wiele gorsze problemy. W ten sposób hashtag może wypełnić luki w intencji lub kontekście pozostawione przez krótkie, zapośredniczone kanały komunikacji.

Emoji i emotikony jako parawerbalne

Graficzne emotikony (małe obrazki uśmiechniętych buźek, przedmiotów, symboli lub czynności) i ich poprzednicy, emotikony tekstowe, służą podobnemu paralingwistycznemu celowi jak hashtagi. Internauta może odpowiedzieć na komplement zarumienioną emotikonką lub uśmiechniętą buźką, aby wyrazić swoją wdzięczność. Podobnie osoba może odpowiedzieć serią znaków tekstowych, ułożonych tak, aby przedstawiały wyraz twarzy, taki jak uśmiechnięta twarz, patrząc na nią przechylając głowę w lewo: :-). Zalotne mrugnięcie ;) może oznaczać, że w wiadomości kryje się coś więcej niż na pierwszy rzut oka. W ten sposób emotikony i emotikony można traktować jako rodzaj netspeak, który służy do wyjaśniania lub uzupełniania komunikacji cyfrowej.

Charakterystyka slangu internetowego

Do najczęściej używanych nietradycyjnych znaczników językowych (lub slangu) należą neologizmy wynikające z technologii, która wcześniej nie istniała. "Tweeting" czy "snapping" miały zupełnie inne znaczenie w 2005 r. niż 10 lat później, w 2015 r. Internauci nie mówią już, że "korzystają z wyszukiwarki internetowej", ale raczej coś "google". Memy, wcześniej znane tylko w kręgach socjologów i biologii ewolucyjnej, teraz szybko krążą po Internecie w postaci makroobrazów i obrazków z humorystycznymi podpisami. Skróty powszechnie używanych technologii są teraz powszechne; większość zwykłych użytkowników Internetu będzie zaznajomiona z terminami, takimi jak ISP dla dostawcy usług internetowych, często zadawane pytania i/lub adres URL dla Uniform Resource Locator. Szybki rozwój nowych technologii wniósł do języka ojczystego wiele nowych słów, jednocześnie zmuszając użytkowników do porozumiewania się na różne sposoby, w zależności od nośnika. Na przykład w popularnym serwisie społecznościowym, Twitterze, użytkownicy są ograniczeni do limitu 140 znaków dla wszystkich wiadomości. Gdy użytkownicy pracują nad tym, aby być bardziej ekspresyjnymi i skutecznymi w tych kanałach, pojawiają się nowe i kreatywne formy języka, takie jak inicjały (np. "lol") i skrócone słowa (np. "noob"), które stają się normami społecznymi dla tego konkretnego kanału . Wreszcie, zapośredniczony charakter komunikacji cyfrowej usuwa wiele niewerbalnych i parawerbalnych wskazówek, które pozwalają jednostkom uzupełniać treść ich wiadomości poprzez język ciała, mimikę lub ton głosu. W komunikacji cyfrowej nietradycyjne znaczniki językowe, takie jak emotikony, emotikony i hashtagi, służą jako podobne środki wyrazu. Urządzenia te nie tylko komunikują się bezpośrednio poprzez reprezentację emocji lub przedmiotów, ale także dodają znaczenie społeczne i wskazówki dotyczące kontekstu w przypadkach, gdy komunikaty mogą być niejednoznaczne. Wyrażanie sarkazmu, ironii, gniewu lub flirtowanie przez wiadomość tekstową może być bardzo trudne, ale dzięki kilku starannie rozmieszczonym emotikonom użytkownik może z łatwością wyjaśnić zamierzone znaczenie. Dodatkowo społecznie ładowany hashtag, taki jak #FirstWorldProblems, służy jako mały metakomentarz do wiadomości, nasycając tekst dodatkową warstwą znaczenia. Ostrożni komunikujący się online nauczyli się opanowywać niuanse tych różnych form i potrafią zręcznie używać internetowego slangu do tworzenia i utrzymywania ważnych relacji społecznych. Skuteczna komunikacja interpersonalna wymaga dużej ilości strategii społecznej i autorefleksji. Mówcy (lub osoby wysyłające SMS-y i blogerzy) będą uzyskiwać dostęp, często automatycznie, do różnych rejestrów komunikacyjnych, wyrażających różne stopnie formalności lub znajomości. Zmienność rejestru może sygnalizować podobieństwa między rozmówcami lub pomóc mówcy wyrazić szacunek dla autorytetu. Aby dokonać tej zmiany w rejestrach, mówcy dostosują elementy, takie jak dobór słów, długość zdań oraz ilość i głębokość znaczników slangu zawartych w wiadomości. Na przykład wiadomości między bliskimi przyjaciółmi, którzy są dobrze zaznajomieni z internetowym slangiem, mogą mieć dużą niestandardową gęstość języka w porównaniu z normalnymi słowami; cała rozmowa może składać się tylko z kilku liter, kilku emotikonów i może jednego lub dwóch hashtagów. W przeciwieństwie do tego e-mail do szefa lub cyfrowy list motywacyjny dotyczący pracy prawdopodobnie zawierałby mniej (jeśli w ogóle) przypadkowych znaczników rejestru, nadając wiadomości atmosferę formalności, szacunku i profesjonalizmu. Slang używany w Internecie iw komunikacji cyfrowej będzie ewoluował wraz z wynalezieniem nowych technologii. Wyznaczający trendy pierwsi użytkownicy będą, jak zawsze, wymyślać nowe zwroty, dostosowywać stare słowa do nowych celów i wymyślać nowe sposoby przekazywania swoich wiadomości. Grupy społeczne w dużym stopniu polegają na języku, aby oznaczyć członków grupy i członków spoza grupy, a slang odgrywa kluczową rolę w budowaniu i utrzymywaniu relacji w dalekosiężnym, często anonimowym Internecie.



Powrót

Społeczeństwo internetowe



Internet Society to międzynarodowa organizacja non-profit, która odgrywa kluczową rolę w kształtowaniu polityki i standardów internetowych oraz zwiększaniu dostępu. Jej celem jest promowanie otwartego, demokratycznego, opartego na współpracy i przejrzystego Internetu na całym świecie poprzez propagowanie konstruktywnej polityki i środowiska technologicznego. Jej misja głosi, że jej misją jest "promowanie otwartego rozwoju, ewolucji i korzystania z Internetu z korzyścią dla wszystkich ludzi na całym świecie" (Internet Society, b.d.). W tym wpisie omówiono historię Towarzystwa, jego funkcje i programy oraz jego znaczenie. Towarzystwo pełni różne role techniczne, charytatywne i edukacyjne, sponsoruje badania i wspiera wspólne wysiłki. Jest organizacją macierzystą Internet Engineering Task Force, z której się wyłoniła, i zapewnia prawne, korporacyjne podstawy swojej działalności (np. ochrona praw autorskich w przypadku próśb o komentarze). Ma siedzibę w Reston w Wirginii, z biurem w Genewie i zrzesza około 140 organizacji i 80 000 osób. Posiada 110 oddziałów na całym świecie i biura regionalne na kilku kontynentach. Społeczeństwo było zaangażowane w szeroki wachlarz tematów dotyczących Internetu, w tym bezpieczeństwo dzieci, neutralność sieci, system nazw domen, prawa własności intelektualnej, kradzież tożsamości, szyfrowanie, dostęp szerokopasmowy, bezpieczeństwo routingu, adresy protokołu internetowego (IP) i prawa człowieka. Działa na rzecz tego, aby infrastruktura internetowa była aktualna i funkcjonalna, a cena dostępu do internetu nie była przesadnie wysoka, szczególnie dla osób w krajach o niskich dochodach. Dwaj czołowi pionierzy rozwoju Internetu, Vint Cerf i Robert Kahn, ogłosili powstanie Towarzystwa Internetowego w 1991 roku na dorocznej konferencji INET (skrót od Internet) w Kopenhadze. Rozpoczął działalność w następnym roku. Cerf pełnił funkcję pierwszego prezydenta. Społeczeństwo miało być zarządzane przez rotacyjną radę powierniczą. Wkrótce po jego powstaniu w różnych krajach, takich jak Japonia (1994); Izrael, Szwajcaria i Argentyna (1995); Szwecja (1997); Wielka Brytania (1999); Polska (2000); Ekwador i Senegal (2001); Kenia (2012); i Kanada (2013), a także ponad 100 innych krajów. Oddziały organizują szereg lokalnych wydarzeń edukacyjnych i networkingowych. Społeczeństwo pomaga oddziałom w organizowaniu zbiórek funduszy. Społeczeństwo nabrało kształtu, gdy NSFNET przechodził do zarządzania sektorem prywatnym, a sieć World Wide Web zaczęła nabierać kształtu. Zapewnił nadzór instytucjonalny, który wcześniej zapewniał rząd federalny Stanów Zjednoczonych. Jego pojawienie się odzwierciedla zatem szerszy proces wycofywania się rządu z Internetu w tamtym czasie. Jego pierwsze publikacje rozpoczęły się w 1995 roku. Towarzystwo aktywnie promowało 128-bitowe adresy IP IPv6, m.in. poprzez Światowy Dzień IPv6 8 czerwca 2011 roku. W 2012 roku, w dniu swoich 20-lecia, Towarzystwo Internetowe utworzyło Internetową Galerię Sław aby uczcić postacie, które odegrały znaczącą rolę w rozwoju globalnego Internetu. Od 2016 roku miał 89 wprowadzonych. Społeczeństwo Internetu realizuje cztery kategorie zadań: (1) edukacja, (2) standardy, (3) porządek publiczny oraz (4) upowszechnianie dostępu do Internetu. W dziedzinie edukacji towarzystwo organizuje szereg konferencji, warsztatów i seminariów; oferuje szkolenia techniczne i kursy online; i okresowo wydaje białe księgi na różne tematy w wielu językach. Pomaga również ekspertom internetowym w krajach rozwijających się. Oferuje porady dotyczące radzenia sobie ze spamem i atakami typu "odmowa usługi". Sponsoruje również szereg stypendiów, nagród (np. Jonathan B. Postel Service Award) i stypendiów. Utrzymuje również internetową bibliotekę dokumentów i Inforum, platformę e-learningową na tematy takie jak UNIX, zbieranie funduszy, historia Internetu i spam. Przy tworzeniu i egzekwowaniu standardów internetowych stowarzyszenie ściśle współpracuje z Internet Architecture Board, Internet Engineering Steering Group, Internet Engineering Task Force i Internet Research Task Force. Współpracował także z gigantycznymi korporacjami świata technologii, takimi jak Microsoft, Facebook, Yahoo czy Google. Działania społeczeństwa w zakresie polityki publicznej obejmują współpracę ze Światowym Szczytem Społeczeństwa Informacyjnego i Forum Zarządzania Internetem, które odbyły się w Meksyku w 2016 r. Jest także spółką macierzystą Rejestru Zainteresowania Publicznego, który założył w 2002 r., a tym samym zarządza najwyższymi poziom nazw domen .org. Towarzystwo nawiązało współpracę z DiploFoundation w 2010 roku, aby stworzyć program Next Generation Leaders, mający na celu szkolenie młodych profesjonalistów w kwestiach zarządzania Internetem. W promocji dostępu do Internetu społeczeństwo kieruje się hasłem "Internet jest dla każdego". Współpracuje z rządami, organizacjami i osobami fizycznymi na całym świecie, aby zmniejszyć przepaść cyfrową, oferować szkolenia, promować rozwój sieci i utrzymywać infrastrukturę internetową. Jej program Deploy360 oferuje informacje o standardach i technologiach na całym świecie. Powiadamia opinię publiczną o potencjalnych problemach z bezpieczeństwem w Internecie Rzeczy. Inicjatywa Towarzystwa Zaufanie i Tożsamość dotyczy kwestii bezpieczeństwa kont, naruszeń danych i ochrony transakcji. Na poziomie lokalnym Harlem Interne Computer Access Program pomaga seniorom i osobom o niskich dochodach uzyskać dostęp do Internetu. Oddział Towarzystwa Internetowego w Armenii pomaga osobom niedowidzącym, w tym remontuje centrum kultury. Internet Society działa jako ważny głos w imieniu tych, którzy pracują w Internecie , naukowców, rzeczników praw w Internecie i internautów na całym świecie. Odgrywa ważną rolę w kształtowaniu polityki publicznej dotyczącej Internetu, zarządzania Internetem i zwiększania dostępu oraz sponsoruje liczne programy edukacyjne. Wraz ze wzrostem liczby użytkowników Internetu, konfliktów i trudności związanych z jego funkcjonowaniem nasiliły się pod względem liczby i nasilenia, a społeczeństwo jest strategicznym aktorem w zapewnianiu powszechnego dostępu do Internetu.



Powrót

Standardy internetowe



Standardy internetowe to stwierdzenia dotyczące optymalnego działania Internetu. Ich celem jest maksymalizacja niezawodności Internetu oraz zapewnienie jego ciągłości i bezpieczeństwa w miarę zmian okoliczności i technologii. Standardy to na ogół protokoły powszechnie uważane za korzystne dla technicznego działania Internetu. Zazwyczaj dotyczą one interoperacyjności różnych typów sprzętu, oprogramowania i języków programowania, zapewnienia ich harmonijnego działania, a także wyników badań związanych z sieciami. W tym wpisie omówiono cel standardów internetowych, proces ich opracowywania oraz spory, które powstały w związku z nimi. Standardy pozwalają użytkownikom upewnić się, że różne formy oprogramowania są kompatybilne, gwarantują funkcjonalność hipertekstowego języka znaczników i rozszerzalnego języka znaczników oraz gwarantują, że strony internetowe są łatwe do odczytania, produkty różnych dostawców można łączyć, a pliki można niezawodnie przesyłać między różne hosty komputerowe. Standardy dotyczą również takich rzeczy, jak adresy IP i nazwy domen. Normy pomagają rozpowszechniać najlepsze praktyki. Tym samym mają ogromny wpływ na użytkowników Internetu na całym świecie. Autorami standardów są zazwyczaj informatycy i badacze Internetu. Niektóre standardy można uznać za de facto - to znaczy, że istnieją, ale nie mają mocy prawnej (np. standardy dotyczące znaków ASCII [American Standard Code for Information Interchange]). Natomiast standardy internetowe są de jure i mają formalne wsparcie prawne. Standardy są opracowywane w przejrzysty, oddolny sposób przez członków społeczności internetowej w ramach Internet Engineering Task Force (IETF), która została utworzona w 1986 roku i jest obecnie częścią Internet Society. IETF nadzoruje propozycje standardów i proces przyjmowania i gwarantuje, że normy mają swobodnie dostępne specyfikacje i są stale aktualizowane. Ponieważ Internet jest silnie zależny od otwartych, niezastrzeżonych standardów, wiele standardów jest szeroko stosowanych. Standardy są publikowane przez IETF i muszą przejść przez sekwencję znaną jako ścieżka standardów. Zaczynają jako projekty oświadczeń dla Proponowanych Standardów, a po zmianach stają się Projektami Standardów, które są ważne przez okres do 6 miesięcy; następnie są one umieszczane w katalogu roboczym. Aby przejść od proponowanych do roboczych standardów, muszą istnieć co najmniej dwie niezależne i interoperacyjne implementacje wszystkich opcji i funkcji określonego protokołu. Jeśli wersja robocza zostanie zaakceptowana przez recenzentów, może zostać opublikowana jako jedno lub więcej zapytań o komentarze (RFC), które są dostępne dla każdego za pośrednictwem witryny internetowej Edytora RFC. Po dalszej analizie przez odpowiednich ekspertów i społeczność internetową projekt może zostać promowany jako oficjalny standard internetowy. Istnieje dla nich ścisła konwencja nazewnictwa i otrzymują one numer, jak podsumowano w 2008 roku w standardzie znanym jako STD 1, ale zachowują swój numer RFC. Na przykład STD 1 to RFC 3700. Standardy opublikowane przed przyjęciem systemu Track w 2008 roku nazywane są standardami historycznymi. Ostateczna lista standardów internetowych to Oficjalne standardy protokołów internetowych, które zawierają setki proponowanych standardów i liczne standardy internetowe. Od propozycji i projektów standardów, które nie zostały zaakceptowane jako standardy internetowe przez Grupę Sterującą ds. Inżynierii Internetu, można się odwołać do Rady Architektury Internetu. Po zaakceptowaniu edytor RFC przygotowuje je w ostatecznej formie i są one dystrybuowane przez Internet Society jako standardy międzynarodowe. Początków standardów internetowych można doszukiwać się w tworzeniu aplikacji i protokołów przez Agencję Zaawansowanych Projektów Badawczych Obrony. Dokumenty RFC zostały wynalezione przez Steve′a Crockera w 1969 roku w celu zarejestrowania rozwoju sieci agencji zaawansowanych projektów badawczych. Pomimo technokratycznej natury standardów internetowych, nie są one odporne na wyzwania społeczne i polityczne. W latach 90. IETF uwikłał się w problem kurczących się adresów protokołu internetowego w wersji 4 i przyjął standardy, które doprowadziły do wersji 6. Niektórzy twierdzą, że rosnąca komercjalizacja Internetu sprawi, że proces ich przeglądu i adopcji będzie problematyczny. Kiedy pojawiły się doniesienia o powszechnym rządowym podsłuchiwaniu, IETF (2000) napisał w RFC 2804, że nie będzie "rozważał wymagań dotyczących podsłuchów jako części procesu tworzenia i utrzymywania standardów IETF". IETF i Międzynarodowy Związek Telekomunikacyjny (ITU) uwikłały się w spór w 2011 roku na temat standardu Multiprotocol Label Switching, techniki przesyłania danych w sieciach o wysokiej wydajności, kiedy ITU starała się opracować własny protokół zamiast pracować z IETF. Internet Society i IETF postrzegały działania ITU jako próbę ingerencji w zarządzanie Internetem. Wreszcie, niektóre rządy rzuciły wyzwanie hegemonii IETF w procesie, starając się wywierać większy wpływ na Internet; oburzona dominacją USA, na przykład Wielka Brytania utworzyła British Standards Institution, Europa ma Europejski Instytut Norm Telekomunikacyjnych i Europejskie Stowarzyszenie Standaryzacji Systemów Informacyjnych i Komunikacyjnych, a wreszcie grupa krajów arabskich odpowiedziała Arabską Organizacją ds. Standardów Internetowych.



Powrót


[ 150 ]