Glossariusz : I(dobre!)

ICMP sondy echa: komunikat wysyłany przez hosta lub router do innego hosta lub routera. Jeśli proces internetowy urządzenia docelowego będzie w stanie to zrobić, odeśle z powrotem komunikat odpowiedzi echa.

Identyfikacja: Sporządzono, gdy weryfikator ustali tożsamość wnioskodawcy.

Identity [Tożsamość]: zbiór atrybutów osoby lub zasobu nieludzkiego, które muszą zostać ujawnione w określonym kontekście.

Identity management [Zarządzanie tożsamością]: scentralizowane, oparte na zasadach, zarządzanie wszystkimi informacjami wymaganymi do uzyskania dostępu do systemów firmowych przez ludzi, komputery, programy lub inne zasoby.

Identity theft [Kradzież tożsamości]: ataki, w których złodziej podszywa się pod ofiarę wystarczająco dobrze, aby zaangażować się w duże transakcje finansowe.

IEEE 802.11 Grupa robocza: Grupa robocza IEEE, która tworzy standardy bezprzewodowych sieci LAN.

Image backup  [Kopia zapasowa obrazu]: Cała zawartość dysku twardego jest kopiowana na nośnik kopii zapasowej. Najwolniejsza forma tworzenia kopii zapasowych. Rozdzielczość obrazu. Liczba elementów obrazu na ekranie.

Image spam [Spam obrazkowy]: wiadomość będąca spamem prezentowana jako obraz graficzny.

Implementation guidance [Wskazówki dotyczące wdrażania]: Wskazówki, które ograniczają swobodę decyzji wdrażających, aby uprościć decyzje wdrożeniowe i uniknąć złych wyborów przy interpretacji polityk.

In-band: metoda iniekcji SQL, która wyodrębnia dane bezpośrednio z bazy danych i wyświetla je w przeglądarce internetowej.

“in the clear.” [„Na czysto”]. : Hasła przechowywane jako zwykły tekst.

Incydent: udany atak.

Incremental backup [Przyrostowa kopia zapasowa]: tworzenie kopii zapasowych wszystkich plików i folderów, które zostały zmienione od czasu ostatniej pełnej kopii zapasowej.

Independence [Niezależność]: zdolność funkcji bezpieczeństwa do zgłaszania naruszenia bezpieczeństwa bez represji.

Indirect attack [Atak pośredni]: forma ataku DoS, w której osoba atakująca próbuje zalać ofiarę strumieniem pakietów z komputera atakującego, ale adres IP atakującego jest sfałszowany, a atak wydaje się pochodzić z innego komputera.

Inferencyjna: metoda iniekcji SQL, która nie wyodrębnia danych bezpośrednio z bazy danych. Informacje o bazie danych są raczej zbierane z odpowiedzi na źle sformułowane instrukcje SQL.

Informacja: znaczenie wyodrębnione z danych.

Informacji zapewnienie: Zapewnienie, że szkody nie wystąpią.

Informacji triangulacja: informacje z wielu źródeł połączone za pomocą atrybutów łączących w celu odkrywania nowych informacji.

Ingress filtering [Filtrowanie ruchu przychodzącego]: filtrowanie zapory sieciowej dla pakietów wchodzących do sieci.

Inheritance [Dziedziczenie]: w uprawnieniach, automatyczne otrzymywanie uprawnień do katalogu nadrzędnego.

Initial authentication [Uwierzytelnienie wstępne}: Uwierzytelnienie przed bieżącą komunikacją.

Inicjalizacyjny Wektor (IV): W WEP: liczba losowa przesyłana w trybie czystym w nagłówku ramki.

Inner authentication [Uwierzytelnianie wewnętrzne]: suplikant klienta używa protokołu EAP w ramach ochrony uwierzytelniania zewnętrznego do komunikowania się z centralnym serwerem uwierzytelniania w wymianach EAP.

Integrated log file [Zintegrowany plik dziennika]: scentralizowany plik dziennika utworzony na podstawie innych plików dziennika.

Integralność: oznacza, że ​​osoby atakujące nie mogą zmieniać ani niszczyć informacji.

Intelektualna własność: informacje będące własnością firmy i chronione prawem.

Internal auditing [Audyt wewnętrzny]: bada jednostki organizacyjne pod kątem wydajności, skuteczności i odpowiednich kontroli.

Internal firewalls [Zapory wewnętrzne]: zapory, które filtrują ruch przechodzący między różnymi częściami sieci wewnętrznej witryny

Internal rate of return  [Wewnętrzna stopa zwrotu (IRR)]: metoda obliczania zwrotu z inwestycji.

International Organization for Standardization [Międzynarodowa Organizacja Normalizacyjna (ISO)]: silna agencja normalizacyjna w zakresie produkcji, w tym produkcji komputerów.

International Telecommunications Union–Telecommunications Standards Sector [Międzynarodowy Związek Telekomunikacyjny – Sektor Norm Telekomunikacyjnych (ITU-T)]: agencja normalizacyjna należąca do Organizacji Narodów Zjednoczonych, która nadzoruje międzynarodową telekomunikację.

internet. (1) Grupa sieci połączonych routerami, dzięki czemu każda aplikacja na dowolnym hoście w dowolnej sieci może komunikować się z dowolną aplikacją na dowolnym innym hoście w dowolnej innej sieci; (2) ogólne określenie każdej intersieci (pisane małą literą i).

Internet: (1) grupa sieci połączonych przez routery tak, że każda aplikacja na dowolnym hoście w dowolnej sieci może komunikować się z dowolną aplikacją na dowolnym innym hoście w dowolnej innej sieci; (2) światowy Internet (pisane przez duże I).

Internet access line [Linia dostępu do Internetu]: w sieciach linia transmisyjna łącząca hosta z Internetem.

Internet Control Message Protocol (ICMP): Protokół stworzony przez IETF w celu nadzorowania komunikatów nadzorczych w warstwie internetowej.

Internet Engineering Task Force (IETF): Agencja, która tworzy standardy TCP / IP używane w Internecie i większości sieci korporacyjnych.

Internet Information Server (IIS): oprogramowanie serwera internetowego firmy Microsoft, które oferuje szereg usług.

Internet Message Access Protocol (IMAP): jeden z dwóch protokołów używanych do pobierania odebranych wiadomości e-mail z serwera poczty; oferuje więcej funkcji niż POP.

Internetowy  Protokół (IP): Protokół TCP / IP, który zarządza operacjami w warstwie internetowej. Zarządza dostarczaniem pakietów z hosta do hosta przez szereg routerów.

Internet service providers [Dostawcy usług internetowych (ISP)]: operator zapewniający dostęp do Internetu i transmisję.

Intransitive trust [Zaufanie nieprzechodnie]: zaufanie między dwiema domenami, które nie musi koniecznie zostać rozszerzone o trzecią domenę.

Intrusion detection system (IDS) [System wykrywania włamań (IDS)]: system odczytujący ruch sieciowy w celu znalezienia podejrzanych pakietów.

Intrusion prevention system [System zapobiegania włamaniom (IPS)]: zapora ogniowa wykorzystująca metody filtrowania systemu wykrywania włamań do identyfikowania i zatrzymywania ataków o wysokim stopniu pewności.

IP Adresy: adres protokołu internetowego; adres, którego potrzebuje każdy komputer, gdy łączy się z Internetem; Adresy IP mają 32 bity.

IP adresów skanowaie: wysyłanie sond na zakres adresów IP w celu identyfikacji ofiar.

IP Telefon: telefon, który może używać sieci IP do wykonywania połączeń głosowych.

IPsec (IP Security): rodzina standardów systemu kryptograficznego stworzona przez IETF w celu zapewnienia bezpieczeństwa w warstwie internetowej. Zapewnia przejrzystą ochronę wszystkiego w polu danych pakietu.

IPsec policy servers [Serwery zasad IPsec]: serwery, które przekazują listę odpowiednich zasad do poszczególnych serwerów lub hostów bramy IPsec.

IPsec transport mode [Tryb transportu IPsec]: implementuje sieci VPN typu host-host. Pozwala dwóm hostom na bezpieczną komunikację bez względu na to, co jeszcze dzieje się w sieci.

IPsec tunnel mode [Tryb tunelu IPsec]: tworzy sieć VPN typu lokacja-lokacja. Chroni ruch między dwiema bramami IPsec w różnych lokacjach.

IP w wersji 4 (IPv4): Standard, który dotyczy większości routerów w Internecie i prywatnych sieciach internetowych.

IP 6 (IPv6) Wersja: Nowa wersja protokołu internetowego.

Iris recognition [Rozpoznawanie tęczówki]: Rozpoznawanie biometryczne na podstawie kolorowej części oka.

ISACA. Stowarzyszenie ds. Audytu i kontroli systemów informatycznych: główne stowarzyszenie zawodowe zrzeszające specjalistów ds. Audytu IT w Stanach Zjednoczonych.

ISO / IEC 27000 : Ramy zarządzania specjalnie dla bezpieczeństwa IT. Naprawdę rodzina standardów.

IT Audyt: bada wydajność, skuteczność i kontrole procesów związanych z technologią informacyjną.

IT disaster recovery [Odzyskiwanie po awarii IT]: Odzyskiwanie po awarii, która wpływa na IT.

IT security department [Dział bezpieczeństwa IT]: Jednostka organizacyjna zarządzająca funkcjami bezpieczeństwa IT.

Glossariusz : H(urrrra!)

Hakerskie Skrypty: programy napisane przez hakerów, aby pomóc im włamać się do komputerów.

Hakowanie: celowe uzyskiwanie dostępu do zasobów komputera bez autoryzacji lub z nadmiarem autoryzacji.

Hacking root: przejęcie konta superużytkownika.

Hand geometry recognition [Rozpoznawanie geometrii dłoni]: Rozpoznawanie biometryczne na podstawie kształtu dłoni.

Handlers [Programy obsługi]: przejęte hosty używane do zarządzania dużymi grupami botów. Czasami nazywane serwerami poleceń i kontroli.

Handshaking stages [Etapy uzgadniania]: w systemach kryptograficznych zestaw trzech etapów, które mają miejsce przed bieżącą komunikacją: negocjowanie metod i opcji bezpieczeństwa, początkowe uwierzytelnianie i kluczowanie.

Hardware security module [Sprzętowy moduł bezpieczeństwa (HSM)]: urządzenie sprzętowe, które może tworzyć i przechowywać klucze kryptograficzne. Może mieć postać dysku USB, wewnętrznej karty PCI lub nawet urządzenia sieciowego.

Hash: W haszowaniu, wynik haszowania. Skrót to strumień bitów o małej, stałej długości.

Haszowanie: operacja matematyczna, która po zastosowaniu do długiego ciągu bitów wytwarza strumień bitów o małej, ustalonej długości.

Header checksum [Suma kontrolna nagłówka]: pole datagramu UDP, które umożliwia odbiornikowi sprawdzenie błędów.

Health Information Portability and Accountability Act [Ustawa o przenoszeniu i odpowiedzialności informacji zdrowotnych]: Ustawa, która wymaga silnej ochrony danych w zakładach opieki zdrowotnej.

Honeypot: wirtualna sieć lub host, na który zwabiani są napastnicy, aby można było zrozumieć ich zachowanie.

Host: dowolne urządzenie z adresem IP. Obejmuje serwery, klientów, routery, zapory, a nawet wiele telefonów komórkowych.

Hosta Zapora: zapora programowa na kliencie lub serwerze.

Hartowanie hosta: grupa działań utrudniających atak na klienta lub serwer.

Host intrusion detection system [System wykrywania włamań do hosta (HIDS)]: system wykrywania włamań, który odczytuje cały ruch przychodzący i wychodzący z hosta i mierzy działania podejmowane na hoście, takie jak dostęp do plików.

Host-to-host VPN [Sieć VPN typu host-to-host] : Wirtualna sieć prywatna, która łączy pojedynczego klienta przez niezaufaną sieć z pojedynczym serwerem.

HVAC: ogrzewanie, wentylacja i klimatyzacja.

Hybrid dictionary attacks [Ataki słownikowe hybrydowe}: ataki słownikowe, które próbują tak prostych modyfikacji popularnych słów.

Hybrydowa architektura standardów TCP / IP – OSI: Architektura wykorzystująca standardy OSI w warstwie fizycznej i warstwy łącza danych oraz standardy TCP / IP w warstwach internetowych, transportowych i aplikacyjnych; dominuje w dzisiejszych korporacjach.

Glossariusz : G(o) !

Governance frameworks [Ramy zarządzania]: Określ, jak planować, wdrażać i nadzorować.

Gramma-Leacha-Blileya Ustawa (GLBA): Ustawa, która wymaga silnej ochrony danych w instytucjach finansowych.

Granularity [Ziarnistość]: poziom szczegółowości.

Group policy objects [Obiekty zasad grupy (GPO)]: w systemie Windows zasady bezpieczeństwa, które można wypchnąć do poszczególnych hostów. Wytyczna. Uznaniowe wytyczne dotyczące wdrażania.

Glossariusz : F(ire) !!!

Face recognition [Rozpoznawanie twarzy]: rozpoznawanie biometryczne na podstawie rysów twarzy osoby.

Fail safely [Niepowodzenie bezpiecznie]: jeśli ochrona zawiedzie, robi to w sposób, który nie zagraża bezpieczeństwu, nawet jeśli oznacza to niedogodności.

Failure to enroll [Niepowodzenie rejestracji (FTE)]: Gdy dana osoba nie może zarejestrować się w systemie biometrycznym.

Fałszywa akceptacja: dopasowanie do szablonu, którego nie należy tworzyć.

Fałszywej akceptacji współczynnik (FAR): odsetek osób, które nie powinny być dopasowane.

Fałszywie negatywny: brak raportu o prawdziwych atakach.

Fałszywe otwieranie: metoda zatrzymywania zalewów SYN, która wymaga odpowiedzi od atakującego, zanim przekaże żądanie do serwera docelowego.

Fałszywy atak otwarty: Atak typu Denial-of-Service, w którym osoba atakująca wysyła segmenty SYN, ale nigdy nie odpowiada na odpowiedzi SYN / ACK.

Fałszywie pozytywny: nazywanie niewinnego nawet problemem bezpieczeństwa. Fałszywy alarm.

Fałszywe odrzucenie: suplikant jest nieprawidłowo odrzucany jako dopasowanie do szablonu, gdy kandydat powinien zostać zaakceptowany jako dopasowany.

Fałszywy wskaźnik odrzucenia (FRR): odsetek osób, które powinny zostać dopasowane, a nie są.

Federalna ustawa o zarządzaniu bezpieczeństwem informacji (FISMA): Nakłada procesy bezpieczeństwa na agencje rządowe i wykonawców.

Federalne zasady postępowania cywilnego: w amerykańskim systemie sądów federalnych zasady określające procesy mające zastosowanie do prawników i sędziów w sprawach cywilnych.

Federacyjne zarządzanie tożsamością: system, w którym dwie firmy mogą przekazywać sobie wzajemne potwierdzenia tożsamości bez umożliwiania drugiej stronie dostępu do danych wewnętrznych.

Fields [Pola]: część nagłówka lub zakończenia wiadomości.

File/directory data backup [Kopia zapasowa danych plików / katalogów]: tworzenie kopii zapasowych danych w określonych plikach i katalogach.

File/directory encryption [Szyfrowanie plików / katalogów]: szyfruje tylko określone pliki i katalogi, które nakazujesz szyfrować.

File Transfer Protocol (FTP): Protokół, który umożliwia masowe przesyłanie plików między hostami.

Finansowy Audyt: bada procesy finansowe pod kątem wydajności, skuteczności i odpowiednich kontroli.

Finansowa Kradzież: sprzeniewierzenie majątku lub kradzież pieniędzy.

Fingerprint recognition [Rozpoznawanie odcisków palców]: Rozpoznawanie biometryczne na podstawie wzorów odcisków palców.

Firewall appliances [Urządzenia zapory ogniowej]: Gotowe zapory ogniowe.

Firewall policies  [Zasady zapory]: instrukcje wysokiego poziomu służące do prowadzenia implementacji zapory.

Firewall policy management server [Serwer zarządzania zasadami zapory]: Aserver, który posiada bazę danych zasad zapory, w której znajdują się zasady firmowe.

Fixes [Poprawki}: obejścia, poprawki lub inne sposoby radzenia sobie z luką.

Flagowe Pole: pole jednobitowe.

Forensics evidence [Dowody kryminalistyczne]: dowody, które są dopuszczalne w postępowaniu sądowym.

Forest [Las]: hierarchia organizacyjna zawierająca wiele drzew.

Frames [Ramki]: (1) komunikat w warstwie łącza danych. (2) W multipleksowaniu z podziałem czasu: krótki okres czasu, który jest dalej dzielony na szczeliny.

Fraud [Oszustwo]: ataki, które oszukują ofiarę do zrobienia czegoś wbrew interesom finansowym ofiary.

Fraud and abuse triangle [Trójkąt oszustwa i nadużycia]: metoda świadomości behawioralnej, która sugeruje, że do popełnienia złych czynów ludzie potrzebują okazji, motywacji i umiejętności zracjonalizowania swoich działań.

Free space  [Wolne miejsce]: miejsce na dysku twardym, które może zawierać pliki, które zostały usunięte logicznie, ale nie zostały usunięte fizycznie. Pliki mogą być przechowywane na wolnym miejscu.

Full backup [Pełna kopia zapasowa}: tworzenie kopii zapasowych wszystkich określonych plików i folderów.

Funkcjonalność: Właściwość normalnego działania systemów i sieci.

Glossariusz : E(eeeee…)

EAP-TLS: Rozszerzony standard EAP wykorzystujący TLS, który wymaga, aby zarówno klient, jak i strona uwierzytelniająca posiadały certyfikaty cyfrowe.

Eavesdropper [Podsłuchujący]: ktoś, kto przechwytuje wiadomość i czyta ją.

Echo: typ pakietu, który prosi host odbierający o zwrot odpowiedzi, jeśli jest aktywny.

E-commerce service [Usługa handlu elektronicznego]: dodatkowe oprogramowanie potrzebne do kupowania i sprzedawania, w tym katalogi online, wózki sklepowe, funkcje płatności, połączenia z wewnętrznymi bazami danych w firmie oraz łącza do organizacji zewnętrznych, takich jak banki.

Egress filtering [Filtrowanie wychodzące]: Filtrowanie zapory sieciowej dla pakietów opuszczających sieć.

Elektromagnetyczne Zakłócenia (EMI): niechciana energia elektryczna pochodząca z urządzeń zewnętrznych, takich jak silniki elektryczne, lampy fluorescencyjne, a nawet pobliskie przewody transmisji danych.

Elektroniczna Poczta (e-mail): wiadomości elektroniczne wymieniane między użytkownikami przez Internet.

Elektroniczny Podpis: ciąg bitów dodawany do wiadomości wysyłanej podczas trwającego etapu komunikacji w celu uwierzytelnienia nadawcy i zapewnienia kontroli integralności wiadomości.

Electronically stored information [Informacje przechowywane w formie elektronicznej]: informacje przechowywane w bazach danych, wiadomościach e-mail, komunikatorach internetowych lub jakiejkolwiek innej formie mediów elektronicznych.

Elliptic curve cryptography [Kryptografia krzywych eliptycznych (ECC)]: szeroko stosowany szyfr szyfrujący z kluczem publicznym.

E-mail fingerprinting [Odciski cyfrowe poczty e-mail]: Bada cechy charakterystyczne lub odcisk palca każdej wiadomości e-mail wcześniej zidentyfikowanej jako spam i wykorzystuje te informacje do identyfikowania podobnych wiadomości.

Encryption [Szyfrowanie]: proces zamiany tekstu jawnego na tekst zaszyfrowany w celu zapewnienia bezpieczeństwa lub prywatności.

Encryption for confidentiality [Szyfrowanie] : zapewniające poufność: szyfrowanie, które uniemożliwia przechwytującym odczyt informacji.

Enrollment scan [Skan rejestracyjny]: wstępne dane biometryczne zebrane od osoby.

Entities [Podmioty]: typy obiektów, które reprezentują osoby, miejsca, rzeczy lub zdarzenia.

Ephemeral port numbers [Tymczasowe numery portów]: tymczasowy numer wybierany przez klienta podczas łączenia się z aplikacją na serwerze. Zgodnie z zasadami IETF, efemeryczne numery portów powinny mieścić się w przedziale od 49153 do 65535.

Error rate [Współczynnik błędów]: poziom dokładności, kiedy suplikant nie próbuje oszukać systemu.

Error-based inference [Wnioskowanie na podstawie błędów]: metoda ataku polegająca na przyjmowaniu założeń dotyczących bazowej bazy danych na podstawie komunikatu o błędzie otrzymanego po wykonaniu zapytania.

Eskaluj: Skierowanie incydentu do większego autorytetu.

Eskalacja: przeniesienie odpowiedzialności za incydent na bardziej zdolną grupę wyższego poziomu.

Etyka: system wartości danej osoby.

Event correlation [Korelacja zdarzeń]: sortowanie danych z wielu systemów wykrywania włamań w czasie, aby zdarzenia występujące w tym samym czasie można było postrzegać jako występujące razem.

Evil twin access points [Złe bliźniacze punkty dostępowe]: APC z oprogramowaniem umożliwiającym podszywanie się pod punkt dostępu. Wykonuje atak man-in-the-middle na klienta bezprzewodowego i legalny punkt dostępu.

Exception handling [Obsługa wyjątków]: procedura obsługi wyjątków w określonych okolicznościach. Działania są ograniczone i udokumentowane.

Exhaustive search [Wyczerpujące wyszukiwanie]: wypróbowanie wszystkich możliwych kluczy, dopóki nie znajdzie właściwego.

Exit node [Węzeł wyjściowy]: węzeł Tor, który jest ostatnim przeskokiem przed dotarciem do miejsca docelowego pakietu.

Expert witness [Biegły sądowy]: osoba uprawniona do składania zeznań biegłego, które obejmuje interpretację faktów, a nie tylko przedstawienie faktów.

Exploit: termin związany z włamaniami. Odnosi się do oprogramowania używanego do włamania lub włamania.

Extended EAP standard  [Rozszerzony standard EAP]: rozszerzenie protokołu Extensible Authentication Protocol, które zapewnia bezpieczeństwo interakcji między urządzeniem bezprzewodowym a bezprzewodowym punktem dostępowym przed rozpoczęciem uwierzytelniania.

Extensible Authentication Protocol (EAP): Protokół zarządzający specyfiką interakcji uwierzytelniania.

Extrusion prevention [Zapobieganie ekstruzji]: zapobieganie opuszczaniu organizacji przez poufne lub zastrzeżone informacje

Glossariusz : D(alij)…

Damage thresholds [Progi obrażeń] : Minimalna ilość szkód, które muszą wystąpić, zanim napastnicy naruszą prawo.

Doktryna Danversa: IETF jest zgodna co do tego, że należy rozwijać zabezpieczenia dla wszystkich protokołów sieciowych

Dane. Surowe fakty: Podstawowy element każdego systemu informacyjnego.

Danych Bufor: obszary w pamięci RAM, w których informacje są tymczasowo przechowywane.

Data definition language (DDL) triggers. [Wyzwalacze języka definicji danych (DDL)]: Wyzwalacze używane do generowania automatycznych odpowiedzi, jeśli struktura bazy danych została zmieniona.

Data Encryption Standard (DES): szyfrowanie z kluczem symetrycznym z kluczami 56-bitowymi.

Data extrusion management [Zarządzanie wytłaczaniem danych]: narzędzia zapobiegające nieuprawnionemu wysyłaniu wrażliwych danych poza korporację.

Danych Łącze: ścieżka, którą ramka pokonuje w jednej sieci (LAN lub WAN).

Data loss prevention [Zapobieganie utracie danych (DLP)]: zestaw zasad, procedur i systemów zaprojektowanych w celu zapobiegania ujawnieniu wrażliwych danych osobom nieupoważnionym.

Data loss prevention systems [Systemy zapobiegania utracie danych]: systemy zaprojektowane do zarządzania wytłaczaniem danych, filtrowaniem zapobiegania wytłaczaniu i zasadami DLP.

Data manipulation language triggers [Wyzwalacze języka manipulacji danymi (DML)]: Wyzwalacze używane do generowania automatycznych odpowiedzi, jeśli dane zostały zmienione.

Danych Maskowanie: proces ukrywania danych, aby nie można było zidentyfikować konkretnej osoby, ale nadal pozostają one praktycznie przydatne.

Data mining spyware [Oprogramowanie szpiegowskie do eksploracji danych]: oprogramowanie szpiegujące przeszukujące dyski twarde w poszukiwaniu poufnych informacji.

Danych Model: nazwy jednostek, atrybuty i struktura relacji między jednostkami.

Danych Bazy: Zintegrowane zbiory danych i metadanych przechowywane na komputerach.

Database management system [System zarządzania bazami danych (DBMS)]: oprogramowanie, które może zarządzać strukturami baz danych i ograniczać dostęp do poszczególnych baz danych.

Death of the perimeter: fraza używana przez administratorów sieci do przekazania idei, że stworzenie w 100% bezpiecznej sieci jest niemożliwe. Wymuszanie wszystkich informacji w organizacji przez jeden punkt w sieci jest niepraktyczne, jeśli nie niemożliwe.

Deauthenticate message: wiadomość wysłana z hosta, który chce zakończyć uwierzytelnione połączenie.

Deception [Oszustwo]: w biometrii, gdy ktoś próbuje oszukać biometryczne urządzenie dostępowe.

Decyzyjne Kryterium: poziom dopuszczalnej zmienności (błędu) w indeksie dopasowania.

Deszyfrowanie: proces konwersji tekstu zaszyfrowanego na tekst jawny.

Deep packet inspection [Głęboka inspekcja pakietów]: inspekcja całej zawartości warstwy w pakiecie.

Demilitarized zone : wymaganie od atakującego przełamania wielu środków zaradczych, aby odnieść sukces.

Demilitarized zone [Strefa zdemilitaryzowana (DMZ)]: podsieć zawierająca wszystkie serwery i zapory proxy aplikacji, które muszą być dostępne dla świata zewnętrznego.

Denial-of-Service (DoS) Atak: Atak, który próbuje uniemożliwić serwerowi lub sieci obsługę legalnych użytkowników poprzez zalewanie ich pakietami ataków.

Detektywistyczne środki zaradcze: narzędzia, które identyfikują, kiedy zagrożenie atakuje, a zwłaszcza gdy odnosi sukces.

Development servers  [Serwery programistyczne]: serwer używany wyłącznie do tworzenia aplikacji.

Dictionary attack [Atak słownikowy]: łamanie haseł przez porównywanie ich z terminami słownikowymi.

Diffie-Hellman umowa klucza: metoda kluczowania, która nie wykorzystuje szyfrowania. Obie strony wymieniają informacje klucza, ale podsłuchujący odczytujący wymienione informacje klucza nie może obliczyć klucza.

Digital certificate [Certyfikat cyfrowy]: plik, który bezpiecznie podaje nazwę strony i klucz publiczny.

Digital rights management [Zarządzanie prawami cyfrowymi (DRM)]: ogranicza to, co ludzie mogą robić z danymi.

Digital signature [Podpis cyfrowy]: podpis elektroniczny, który uwierzytelnia pojedynczą wiadomość za pomocą szyfrowania kluczem publicznym i zapewnia integralność wiadomości jako produkt uboczny. Tworzone przez podpisanie podsumowania wiadomości kluczem prywatnym nadawcy.

Direct attack [Atak bezpośredni]: najprostsza forma ataku DoS, w której atakujący próbuje zalać ofiarę strumieniem pakietów bezpośrednio z komputera atakującego.

Direct-propagation worm  [Robak rozprzestrzeniający się bezpośrednio]: robak, który może przeskoczyć bezpośrednio do komputera zawierającego określoną lukę.

Directory traversal attack [Atak polegający na przejściu przez katalog]: Atak, w którym osoby atakujące mogą przejść z katalogów publicznych do katalogów prywatnych bez odpowiedniej autoryzacji.

Disconnection [Rozłączenie]: odłączenie zaatakowanego komputera od Internetu lub wyłączenie go.

Discovery process [Proces odkrywania]: proces uzyskiwania dowodów.

Discretionary access control [Uznaniowa kontrola dostępu]: W dziedzinie bezpieczeństwa wojskowego departamenty mogą według własnego uznania zmieniać zasady kontroli dostępu ustalone przez wyższe władze.

Dyskowa Macierz: zestaw powiązanych dysków twardych podłączonych do tego samego systemu.

Dysku Obraz: kopia całego dysku. Można skopiować na inną maszynę.

Distributed denial-of-service attack [Rozproszony atak typu „odmowa usługi” (DDoS)]: najpowszechniejszy typ ataku DoS. Atakujący umieszcza boty na wielu hostach internetowych. Boty otrzymują wiadomość od botmastera, a następnie przeciążają serwery, zalewając je pakietami atakującymi, przez co sieci nie są w stanie obsługiwać ich legalnych użytkowników.

Distributed reflected denial-of-service attack. [Wzmocnienie ataku typu „odmowa usługi” (DRDoS)]: rodzaj ataku DoS, który wykorzystuje botnet do odbijania pakietów ataków poza legalne serwery.

Dystrybucja: wersja systemu LINUX zawierająca jądro i inne programy.

Document restrictions [Ograniczenia dotyczące dokumentów]: zestaw zabezpieczeń, które próbują ograniczyć działania użytkowników na dokumentach w celu zmniejszenia zagrożeń bezpieczeństwa.

Domain controller server [Serwer kontrolera domeny]: serwer kontrolujący zasoby w domenie.

Domain Name System (DNS): Aserver udostępniający adresy IP użytkownikom znającym tylko nazwę hosta docelowego. Serwery DNS zapewniają również hierarchiczny system nazewnictwa domen.

Download mode [Tryb pobierania]: Aktywne wyszukiwanie treści do przeglądania lub oprogramowania do pobrania.

Downloader: Mały koń trojański, który pobiera większego konia trojańskiego po zainstalowaniu downloadera. Czasami nazywany zakraplaczem.

Drive-by haker: osoba atakująca, która próbuje bezprzewodowo włamać się do sieci spoza organizacji.

Drive-wiping programs [Programy do czyszczenia dysku]: oprogramowanie, które bezpiecznie usuwa dane z nośników pamięci.

Dual stacked [Podwójny stos]: sieć wykorzystująca adresy IP zarówno IPv4, jak i IPv6.

Due diligence [Należyta staranność]: zbadanie systemu bezpieczeństwa potencjalnego partnera biznesowego przed przystąpieniem do wymiany danych z tą osobą.

Dumpster diving [Nurkowanie w śmietniku]: napastnik przeszukuje firmowe kosze na śmieci w poszukiwaniu dokumentów, taśm zapasowych, dyskietek i innych nośników zawierających informacje.

Dynamic Host Configuration Protocol [Protokół dynamicznej konfiguracji hosta (DHCP)]: Protokół używany przez serwery DHCP, które zapewniają każdemu komputerowi użytkownika tymczasowy adres IP do użycia za każdym razem, gdy łączy się z Internetem.

Dynamiczne adresy IP: tymczasowy adres IP, który komputer kliencki otrzymuje z serwera DHCP.

Dynamic routing protocol [Protokół routingu dynamicznego]: protokół, który umożliwia routerom udostępnianie informacji o sieciach, z którymi są połączone.

Glossariusz : C(óż)…

Czytniki kart : Maszyny używane do odczytu kart z paskiem magnetycznym.

Career criminals [Przestępcy kryminalni]: napastnicy, którzy atakują z pobudek czysto kryminalnych i nielegalnie zarabiają pieniądze.

Castle model [Model zamku]: Tradycyjny model obrony sieciowej, który ma dobrych ludzi wewnątrz, napastników z zewnątrz i dobrze strzeżony pojedynczy punkt wejścia.

Centralny serwer uwierzytelniania: utrzymuje centralną bazę danych uwierzytelniania i sprawdza poświadczenia dla wielu podmiotów uwierzytelniających.

Centralny system zarządzania zaporą: system wypychający reguły filtrowania do poszczególnych zapór w oparciu o zasady zapory.

Centralna konsola zarządzania bezpieczeństwem: stacje robocze, które zarządzają funkcjami bezpieczeństwa IT z jednego hosta (konsoli).

Centralna kopia zapasowa: Kopia zapasowa wykonywana przez sieć z centralnej konsoli kopii zapasowych.

Centralny  bezprzewodowy system wykrywania włamań: system wykrywania włamań (IDS), który zbiera informacje z bezprzewodowych punktów dostępowych, które są analizowane przez centralną konsolę IDS.

Certyfikacji Urząd (CA): organizacja, która dostarcza certyfikaty cyfrowe.

Certificate revocation list [Lista odwołania certyfikatów (CRL)]: lista numerów seryjnych odwołanych certyfikatów cyfrowych urzędu certyfikacji.

Certyfikacja: W FISMA, stwierdzenie, że określony system spełnia wymagania FISMA. Prowadzone przez agencję będącą właścicielem systemu lub przez agencję zewnętrzną. System nadal musi posiadać akredytację.

Chain of attack computers  [Łańcuch komputerów atakujących]: seria komputerów przejętych przez atakującego. Ofiara nie może prześledzić ataku aż do komputera atakującego.

Chain of custody [Łancuch dowodu]: udokumentowana historia wszystkich transferów dowodów między ludźmi i wszystkich działań podjętych w celu ochrony dowodów, gdy są one w posiadaniu każdej osoby.

Challenge message [Komunikat wezwania]: podczas uwierzytelniania ciąg wysłany przez weryfikatora do suplikanta.

Chief Security Officer (CSO): Wspólny tytuł dla dyrektora ds. Bezpieczeństwa IT.

Cipher [Szyfr]: Specyficzny proces matematyczny używany do szyfrowania i deszyfrowania.

Cipher suite [Zestaw szyfrów]: W SSL / TLS: proponowany zestaw metod i opcji do wykorzystania w dialogu.

Ciphertext [Tekst zaszyfrowany]: Jaki tekst jawny jest zaszyfrowany w celu zapewnienia poufności.

Circles of trust [Kręgi zaufania]: wywnioskowane relacje zaufania. Na przykład, jeśli osoba A ufa osobie B, a osoba B ufa osobie C, osoba A może ufać osobie C.

City model  [Model miejski]: Model bezpieczeństwa sieci, który nie ma rzeczywistego odrębnego obwodu i istnieje wiele sposobów wejścia do sieci. To, kim jesteś, określi, do których „budynków” będziesz miał dostęp.

Cywilne Prawo: zajmuje się interpretacją praw i obowiązków, które firmy lub osoby fizyczne mają względem siebie.

Classic risk analysis calculation  [Klasyczne obliczenia analizy ryzyka]: Metoda przedstawiona w rozdziale 2 do wykonywania obliczeń analizy ryzyka.

Clear-to-send (CTS): Komunikat, który informuje innych klientów, że host otrzymał ramkę RTS i że nie powinni nadawać przed upływem wyznaczonego czasu.

Click fraud [Oszustwa związane z kliknięciami]: właściciel witryny internetowej firmy Acriminal stworzył program do wielokrotnego klikania odsyłacza. Każde z tych fałszywych kliknięć zabiera reklamodawcy pieniądze bez generowania potencjalnych klientów.

Closed-circuit television [Telewizja przemysłowa (CCT)]: Monitoring wideo, który umożliwia pracownikom ochrony ciągłe monitorowanie chronionych obszarów.

Cloud computing [Przetwarzanie w chmurze]: architektura komputera, która wykorzystuje moc obliczeniową, aplikacje, przechowywanie danych i inne usługi przez Internet. Użytkownicy nie muszą instalować oprogramowania, uruchamiać programów ani przechowywać żadnych danych na swoich lokalnych hostach, ponieważ całe przetwarzanie i przechowywanie danych jest robione na zdalnym serwerze.

CobiT: Cele kontroli w zakresie technologii informacyjnych i pokrewnych. Ramy zarządzania używane do zarządzania na wysokim poziomie w IT.

Codeck [Kodek]: sprzęt lub oprogramowanie w telefonie VoIP, które konwertuje głos osoby na strumień cyfrowych bajtów.

Codes [Kody]: metody poufności, w których symbole kodowe reprezentują całe słowa lub frazy. Kody to nie szyfry.

Code symbols [Symbole kodu]: Symbol, który reprezentuje słowo lub frazę. Interfejsy wiersza polecenia (CLI): interfejs tekstowy używany do interakcji z systemem operacyjnym.

Command-line interfaces [Interfejsy wiersza poleceń (CLI)]. Interfejs tekstowy używane do interakcji z systemem operacyjnym

Common word passwords [Popularne hasła słowne]: hasła utworzone ze słów lub nazw ze słownika. Łatwo złamane przez ataki słownikowe.

Complex passwords [Złożone hasła]: hasła zawierające kombinację liter, cyfr i innych znaków z klawiatury. Przepisy i regulacje dotyczące zgodności. Prawa i regulacje, które tworzą wymagania, na które musi odpowiadać bezpieczeństwo korporacyjne.

Compliance laws and regulations [Przepisy i regulacje dotyczące zgodności]. Prawa i regulacje, które tworzą wymagania, na które musi odpowiadać bezpieczeństwo korporacyjne

Comprehensive security [Kompleksowe zabezpieczenia]: zamknięcie wszystkich dróg ataku prowadzących do systemów organizacji przed atakującymi.

Computer forensics expert [Ekspert informatyki śledczej]: osoba uprawniona do składania zeznań w charakterze biegłego, które obejmuje interpretację faktów, a nie tylko ich przedstawienie.

Computer security incident response team [Zespół reagowania na incydenty bezpieczeństwa komputerowego (CSIRT)]: Zespół zajmujący się poważnymi incydentami. Ma członków z różnych części firmy.

Confidentiality [Poufność]: zabezpieczenia uniemożliwiające osobom przechwytującym wiadomości ich odczytanie.

Containment [Ograniczenie]: W odpowiedzi na incydent, zatrzymanie szkód.

Ciągła ochrona danych (CDP): ciągłe tworzenie kopii zapasowych danych w innej witrynie, dzięki czemu inna witryna może przejąć przetwarzanie w ciągu kilku minut.

Contract workers. [Pracownicy kontraktowi]: osoby, które pracują dla firmy przez krótki czas i nie są pracownikami.

Control [Kontrola]: narzędzie do udaremnienia ataku.

Cookie: mały ciąg tekstowy przechowywany na Twoim komputerze przez witrynę internetową w celu późniejszego pobrania.

Connection-oriented [Zorientowany na połączenie]: typ konwersacji, w której następuje formalne otwarcie interakcji, formalne zamknięcie i utrzymanie konwersacji pomiędzy.

Connectionless protocols [Protokoły bezpołączeniowe]: wiadomości mogą być przesyłane między hostami bez formalnego połączenia.

Containment [Ograniczenie]: powstrzymanie wyrządzanych szkód.

Core switch [Główny przełącznik]: przełącznik znajdujący się wyżej w hierarchii, który przenosi ruch między parami przełączników. Może również łączyć przełączniki z routerami.

Core wireless security protocols [Podstawowe protokoły bezpieczeństwa sieci bezprzewodowej]: Protokoły używane do ochrony ruchu w bezprzewodowej sieci LAN.

Corporate security policy [Polityka firmy w zakresie bezpieczeństwa]: krótkie oświadczenie, które podkreśla zaangażowanie firmy w zapewnienie silnego bezpieczeństwa.

Corrective countermeasures [Środki zaradcze]: narzędzia do przywrócenia procesu biznesowego po kompromisie.

COSO: Ramy zarządzania stosowane do zarządzania na wysokim szczeblu w korporacji.

Countermeasure [Przeciwdziałanie]: narzędzie do udaremnienia ataku.

Credentials [Poświadczenia]: Dowody tożsamości przesłane przez wnioskodawcę do weryfikatora.

Credit card number theft [Kradzież numeru karty kredytowej]: kradzież numerów kart kredytowych.

Criminal law [Prawo karne]: zajmuje się naruszaniem przepisów prawa karnego.

Cross-site scripting (XSS): rodzaj ataku na aplikację internetową, w którym dane wejściowe jednego użytkownika mogą pojawić się na stronie internetowej innego użytkownika.

Cryptanalyst [Kryptoanalityk]: ktoś, kto łamie szyfrowanie.

Cryptography [Kryptografia]: wykorzystanie operacji matematycznych do ochrony wiadomości przesyłanych między stronami lub przechowywanych na komputerze.

Cryptographic system [System kryptograficzny]: spakowany zestaw kryptograficznych środków zaradczych do ochrony dialogów.

Cryptographic system standard [Standard systemu kryptograficznego]: standard dla określonego typu systemu kryptograficznego.

Cyberprzestępczość: wykonywanie przestępstw w Internecie.

Cyberlaw: Wszelkie prawa dotyczące technologii informatycznych.

Cyberterror: Ataki terrorystów.

Cyberwar: ataki komputerowe przeprowadzane przez rządy krajowe.

Glossariusz : B(e) happy! :)

 

Backscatter. : Efekt uboczny fałszowania adresu IP przez atakującego. Gdy ofiara wysyła odpowiedzi na sfałszowany adres IP używany przez atakującego i nieumyślnie zalewa niezamierzoną ofiarę.

Backup [Utworzyć kopię zapasową : Zapewnienie, że kopie plików danych są bezpiecznie przechowywane i przetrwają nawet w przypadku utraty, kradzieży lub uszkodzenia danych na hoście.

Backup console [Konsola kopii zapasowych]: Komputer z podłączonym nośnikiem danych, który pobiera dane do utworzenia kopii zapasowej z każdego hosta w ustalonym czasie podczas scentralizowanej kopii zapasowej.

Backup media  [Nośnik kopii zapasowych]: Fizyczne opcje przechowywania danych z kopii zapasowej.

Backup scope [Zakres kopii zapasowej]: ilość informacji na dysku twardym, której kopia zapasowa jest tworzona.

Bait site [Witryna-przynęta]: szkodliwa witryna, która ma wyglądać na autentyczną witrynę z zawartością do pobrania.

Bandwidth limitation [Ograniczenie przepustowości]: ogranicza przepustowość sieci, z której może korzystać podejrzany typ ruchu.

Baseline [Punkt odniesienia]: szczegółowy opis tego, co należy zrobić, ale nie jak to zrobić.

Basic file deletion [Podstawowe usuwanie plików]: wskaźniki odnoszące się do danych są usuwane, ale dane w tych sektorach pozostają. Plik został usunięty logicznie, ale nie fizycznie.

Batch transfer [Transfer zbiorczy]: przesyłanie sporadycznych informacji w dużych ilościach.

Bayes’a Twierdzenie: zasada mówiąca, że ​​większość zdarzeń jest warunkowa lub zależna, a prawdopodobieństwo wystąpienia zdarzenia w przyszłości można wywnioskować na podstawie poprzednich wystąpień tego zdarzenia.

Best practices  [Najlepsze praktyki]: opisy działań najlepszych firm w branży w zakresie bezpieczeństwa.

Biometryczne uwierzytelnianie: Uwierzytelnianie oparte na pomiarach ciała i ruchach.

Black hole [Czarna dziura]: (czasownik) odrzucanie wszystkich pakietów z określonego adresu IP.

Blacklists [Czarne listy]: listy znanych adresów IP naruszających spam.

Black market websites [Witryny internetowe na czarnym rynku]: miejsca, w których napastnicy sprzedają informacje i towary.

Blended threats [Zagrożenia mieszane]: złośliwe oprogramowanie, które rozprzestrzenia się na kilka sposobów, np. Robaki, wirusy lub zainfekowane strony internetowe zawierające kod mobilny.

Blind spots [Martwe pola]: w sieci, obszary, w których IDS nie widzi pakietów.

Blind SQL injection [Ślepe wstrzyknięcie SQL]: metoda ataku wykorzystująca serię instrukcji SQL, które generują różne odpowiedzi w oparciu o pytania prawda / fałsz lub odpowiedzi czasowe.

Block encryption [Szyfrowanie blokowe]: dzielenie wiadomości w postaci zwykłego tekstu na bloki i szyfrowanie każdego bloku w serii.

Border firewall: Firewall na granicy między lokacją a światem zewnętrznym.

Botmaster: osoba, która kontroluje i aktualizuje boty (zainfekowane komputery).

Boty: atakują programy przechowywane na wielu komputerach. Może zostać poinformowany o zaatakowaniu ofiar i zaktualizowany, aby dodać funkcjonalność lub naprawić błędy.

Breach [Wyłom]: udany atak.

Broadband modems [Modemy szerokopasmowe]: szybki modem lokalny, który łączy się z dostawcą usług internetowych.

Brute force: metoda łamania haseł, która wypróbowuje wszystkie możliwe kombinacje haseł.

Brute-force key cracking [Łamanie kluczy metodą brutalną]: próbowanie wszystkich możliwych kluczy do momentu, gdy analityk kryptograficzny znajdzie właściwy klucz.

Bufory: miejsca, w których dane są tymczasowo przechowywane.

Bufora przepełnienie: Atak, który wysyła wiadomość zawierającą więcej bajtów niż programista przydzielił buforowi. Informacje atakującego rozprzestrzenią się na inne obszary pamięci RAM. Przepełnienie abuffera może spowodować awarię hosta, dać atakującemu dostęp na poziomie administratora, zezwolić na wykonanie dowolnego polecenia lub po prostu nic nie robić.

Bump key [Klucz uderzeniowy]: złożona wersja rzeczywistego klucza używanego do otwierania określonego typu zamka.

Biznesowa ciągłość : kontynuacja działalności firmy lub wznowienie działalności.

Business continuity plan [Plan ciągłości działania]: plan, który określa, w jaki sposób firma będzie utrzymywać lub przywracać podstawową działalność biznesową po katastrofach.

Business continuity planning [Planowanie ciągłości działania]: proces przygotowywania planu, który zapewni rentowność firmy w przypadku katastrofy.

Business continuity planning  [Zespół ds. ciągłości działania}: Grupa, która wdraża plan ciągłości działania.

Glossariusz : A(no)…ruszamy !!!

     

4-parowa nieekranowana skrętka (UTP).  : Typ okablowania zwykle używany w sieciach Ethernet. 4-parowy UTP zawiera osiem miedzianych drutów ułożonych w cztery pary. Każdy przewód jest pokryty izolacją dielektryczną, a płaszcz zewnętrzny otacza i chroni cztery pary.

802.11i. Bardzo silny podstawowy protokół bezpieczeństwa chroniący komunikację między punktem dostępu a klientem bezprzewodowym.

802.1X. Standard wymagający uwierzytelnienia przed podłączeniem urządzenia do przełącznika lub punktu dostępowego. Używanie w punktach dostępu wymaga rozszerzenia, 802.11i.

Standardy 802.11. Standardy rządzące bezprzewodowymi sieciami LAN.

Acceptable data loss [Dopuszczalna utrata danych]. Ilość danych, które zostaną utracone od czasu ostatniej kopii zapasowej.

Acceptable use policy [Zasady dopuszczalnego użytkowania (AUP)]. Zasady podsumowujące kluczowe punkty o szczególnym znaczeniu dla użytkowników.

Acceptance [Zgoda]. Osoba jest dopasowywana do określonego szablonu.

Access card [Karta dostępu]. Plastikowa karta, która zwykle ma rozmiar karty kredytowej lub debetowej. Używany do uwierzytelniania.

Access control [Kontrola dostępu]. Kierowana polityką kontrola dostępu do systemów, danych i dialogów.

Access control list [Lista kontroli dostępu (ACL)]. Lista zasad zezwalających lub nie zezwalających na dostęp.

Access point [Punkt dostępu (AP)]. Urządzenie, które łączy klientów bezprzewodowych z siecią przewodową.

Access router [Dostęp do routera]. Router łączący sieć SOHO z Internetem. Zwykle zawiera przełącznik, serwer DHCP, NAT i inne funkcje poza routingiem.

Account policies [Zasady konta]. Zasady kontrolujące sposób używania kont użytkowników i uzyskiwania do nich dostępu.

Active Directory (AD). Produkt serwera katalogów firmy Microsoft.

Active Directory domeny. Zbiór zasobów obejmujący komputery, użytkowników, drukarki, grupy itp., Którymi można zarządzać centralnie.

Active-X. Struktura programistyczna umożliwiająca przeglądarce internetowej pobieranie i uruchamianie programów.

Address Resolution Protocol  [Protokół rozwiązywania adresów (ARP)]. Służy do przekształcania 32-bitowych adresów IP na 48-bitowe lokalne adresy MAC.

Administrator. Super konto w systemie Microsoft Windows.

Advanced Encryption Standard [Zaawansowany standard szyfrowania (AES)]. Standard szyfrowania klucza symetrycznego. Klucze o długości 128 bitów, 192 bitów lub 256 bitów. Obciąża urządzenia, które go używają, stosunkowo niewielkie obciążenie procesem.

Ajax. Asynchroniczny JavaScript i XML. Wykorzystuje wiele technologii do tworzenia dynamicznych aplikacji po stronie klienta.

Alarm. Ostrzeżenie wysyłane przez automatyczny system, gdy pojawia się wskazanie problemów.

Anomalii wykrywanie. Wykrywanie ataków na podstawie nietypowych wzorców ruchu sieciowego.

Apache. Popularny serwer WWW typu open source.

Application proxy firewall  [Zapora serwera proxy aplikacji]. Zapora, która bada treść wiadomości aplikacji i zapewnia inne zabezpieczenia.

Application-specific integrated circuits [Specyficzne układy scalone (ASIC)]. Zintegrowany sprzęt, który może pomóc zmniejszyć obciążenie obliczeniowe podczas uruchamiania aplikacji intensywnie przetwarzających.

Archiwizacja. Przechowywanie kopii zapasowych danych przez dłuższy czas.

Atak ARP DoS. Atak DoS, który przekierowuje cały ruch w sieci LAN, czyniąc ostateczne miejsca

ARP zatrucie . Atak sieciowy polegający na manipulowaniu tabelami ARP hosta w celu przekierowania ruchu w sieci LAN.

ARP Odpowiedź. Odpowiedź od lokalnego hosta, który zawiera adres MAC dla żądanego adresu IP.

ARP Żądanie. Żądanie wysłane w sieci w celu przekształcenia adresu IP na adres MAC.

ARP spoofing. Forma ataku wykorzystująca fałszywe odpowiedzi ARP do mapowania dowolnego adresu IP na dowolny adres MAC.

ARP Tabele. Tabele zawierające listy adresów MAC i odpowiadających im adresów IP używanych przez hosty w sieci lokalnej.

Ataku sygnatura. Charakterystyka ataku. Używany przez zaporę ogniową do wykrywania ataków.

Ataku wektory. Metody atakowania sieci lub systemów.

Atrybuty. Kolumny w tabeli, które są cechami (przymiotnikami) jednostki.

Audytu zasady. Zdarzenia systemowe (zasady), które dostarczają informacji o tym, kto spowodował wystąpienie zdarzeń, co mogło zmienić i kiedy wystąpiło zdarzenie.

Audyt. (1) Zbieranie informacji o działaniach każdej osoby w plikach dziennika w celu natychmiastowej i późniejszej analizy. (2) Proces obejmujący pobieranie próbek w celu wypracowania opinii na temat stanu kontroli, a nie w celu wykrycia karalnych przypadków niezgodności.

Authentication.  [Uwierzytelnienie] Ocena tożsamości każdej osoby twierdzącej, że ma pozwolenie na korzystanie z zasobu.

Authenticator. Urządzenie, do którego podłącza się komputer, aby uzyskać dostęp do sieci. Zwykle przełącznik lub punkt dostępu.

Autoryzacje. Konkretne uprawnienia, które powinien mieć określony uwierzytelniony użytkownik, biorąc pod uwagę jego uwierzytelnioną tożsamość.

Automated password reset system [Zautomatyzowany system resetowania hasła]. System, który umożliwia użytkownikom ręczne resetowanie ich haseł na podstawie wcześniej określonych informacji.

Autorun. Na pendrive’ach USB, możliwość uruchamiania programów natychmiast po włożeniu pendrive’a, bez interwencji użytkownika.

Availability [Dostępność]. Właściwość polegająca na tym, że jest dostępny i użyteczny na żądanie uprawnionego podmiotu.

[44][Machine Learning](8)

(Dlaczego) funkcje aktywacji muszą być monotoniczne?

Obecnie przygotowuję się do egzaminu z sieci neuronowych. W kilku protokołach z poprzednich badań przeczytałem, że funkcje aktywacji neuronów (w perceptronach wielowarstwowych) muszą być monotoniczne. Rozumiem, że funkcje aktywacji powinny być różniczkowalne, mieć pochodną różną od 0 w większości punktów i nieliniowe. Nie rozumiem, dlaczego monotonność jest ważna / pomocna. Znam następujące funkcje aktywacji i że są one monotoniczne:

* ReLU

* Sigmoid

* Tanh

* Softmax

* Softplus

*(Tożsamość)

Jednak na przykład nadal nie widzę żadnego powodu. (Dlaczego) czy funkcje aktywacji muszą być monotoniczne? (Powiązane pytanie poboczne: Czy istnieje jakikolwiek powód, dla którego funkcja logarytmiczna / wykładnicza nie jest używana jako funkcja aktywacji?)

Kryterium monotoniczności pomaga sieci neuronowej w łatwiejszym konwergencji w dokładniejszy klasyfikator. Więcej szczegółów i powodów znajdziesz w tej odpowiedzi na stackexchange i w artykule na Wikipedii. Jednak kryterium monotoniczności nie jest obowiązkowe dla funkcji aktywacji – możliwe jest również trenowanie sieci neuronowych z niemonotonicznymi funkcjami aktywacji. Po prostu coraz trudniej jest zoptymalizować sieć neuronową.

 Jak sztuczna inteligencja uczy się działać, gdy przestrzeń problemowa jest zbyt duża

Najlepiej uczę się poprzez eksperymentowanie i przykład. Uczę się o sieciach neuronowych i mam (wydaje mi się) całkiem dobre zrozumienie klasyfikacji i regresji, a także uczenia się pod nadzorem i bez nadzoru, ale natknąłem się na coś, czego nie mogę po cichu zrozumieć; Gdybym chciał wyszkolić AI do grania w skomplikowaną grę; Myślę o czymś takim jak RTS (np. Age of Empires, Empire Earth itp.). W tego typu grach zazwyczaj występuje wiele jednostek kontrolowanych przez gracza (jednostki, budynki), z których każda ma inne możliwości. Wydaje się, że problemem związanym z tym, że sztuczna inteligencja robi, byłaby klasyfikacja (np. Wybór tej jednostki i tej akcji), jednak skoro liczba jednostek jest zmienną, jak można w ten sposób rozwiązać problem klasyfikacji? Jedyne, co przychodzi mi do głowy, to wiele sieci, które wykonują różne etapy (jeden dla ogólnej strategii, jeden dla kontrolowania tego typu jednostek, jeden dla tego typu budynku itp.); ale wygląda na to, że komplikuję problem. Czy jest jakiś dobry przykład uczenia maszynowego / sieci neuronowych uczących się złożonych gier (nie konkretnie RTS, ale bardziej skomplikowany Mario)?

To dobre pytanie i wielu naukowców na całym świecie zadaje to samo. Cóż, po pierwsze, uważa się, że gra taka jak Age of Empires nie ma naprawdę dużej przestrzeni na rozwiązania, nie można zrobić zbyt wiele rzeczy. Tak samo jest w grach takich jak Mario Bros. Problem uczenia się w prostych grach, takich jak gry na Atari, został rozwiązany przez ludzi z DeepMind (tutaj artykuł), który został przejęty przez Google. Użyli implementacji uczenia się ze wzmocnieniem z uczeniem głębokim. Wracając do twojego pytania. Naprawdę dużym problemem jest to, jak naśladować ilość decyzji, które człowiek podejmuje każdego dnia. Obudź się, zjedz śniadanie, weź prysznic, wyjdź z domu… ​​Wszystkie te działania wymagają naprawdę dużej inteligencji i wielu działań, aby się rozwijać.

Wiele osób pracuje nad tym problemem, ja jestem jedną z nich. Nie znam rozwiązania, ale mogę powiedzieć, w jaki sposób szukam. Podążam za teoriami Marvina Minsky’ego, jest jednym z ojców AI. Ta książka, Maszyna emocji, przedstawia bardzo dobry obraz problemu. Zasugerował, że sposobem na stworzenie maszyny imitującej ludzkie zachowanie nie jest skonstruowanie jednolitej zwartej teorii sztucznej inteligencji. Wręcz przeciwnie, argumentuje, że nasz mózg zawiera zasoby, które konkurują między sobą, aby w tym samym momencie osiągnąć różne cele. Nazwali ten sposób myślenia.

Czy sieci neuronowe są z natury algorytmem online?

Od jakiegoś czasu zajmuję się uczeniem maszynowym, ale kawałki i fragmenty łączą się ze sobą nawet po pewnym czasie ćwiczeń. W sieciach neuronowych dostosowujesz wagi wykonując jeden przejazd (przejście do przodu), a następnie obliczanie pochodnych cząstkowych dla wag (przebieg wstecz) po każdym przykładzie szkoleniowym – i odejmowanie tych pochodnych cząstkowych od wag początkowych. z kolei obliczenie nowych wag jest matematycznie skomplikowane (trzeba obliczyć pochodną cząstkową wag, dla których obliczamy błąd w każdej warstwie sieci neuronowej – ale w warstwie wejściowej). Czy z definicji nie jest to algorytm online, w którym koszt i nowe wagi są obliczane po każdym przykładzie szkolenia

Istnieją trzy tryby uczenia sieci neuronowych

* stochastyczne zejście w gradiencie: dostosuj wagi po każdym przykładzie treningu

* szkolenie wsadowe: dostosuj wagi po przejrzeniu wszystkich danych (epoka)

* Trening mini-wsadowy: dostosuj ciężary po przejściu przez mini-wsad. Zwykle jest to 128 przykładów szkoleniowych.

W większości przypadków wydaje się, że używane jest szkolenie mini-wsadowe. Odpowiedź brzmi: nie, algorytm uczenia sieci neuronowej nie jest algorytmem online.

Jakie rodzaje problemów z uczeniem się są odpowiednie dla maszyn wektorów wsparcia?

Jakie są cechy lub właściwości, które wskazują, że określony problem uczenia się można rozwiązać za pomocą maszyn wektorów nośnych? Innymi słowy, co takiego sprawia, że ​​kiedy widzisz problem z uczeniem się, mówisz „och, zdecydowanie powinienem używać do tego maszyn SVM” zamiast sieci neuronowych, drzew decyzyjnych czy czegokolwiek innego?

SVM można wykorzystać do klasyfikacji (rozróżnienia kilku grup lub klas) i regresji (uzyskania modelu matematycznego, aby coś przewidzieć). Można je stosować zarówno do problemów liniowych, jak i nieliniowych. Do 2006 roku były najlepszym algorytmem ogólnego przeznaczenia do uczenia maszynowego. Próbowałem znaleźć artykuł, w którym porównano wiele implementacji najbardziej znanych algorytmów: svm, sieci neuronowe, drzewa itp. Nie mogłem tego znaleźć, przykro mi (musisz mi uwierzyć, źle). W artykule algorytmem, który uzyskał najlepszą wydajność, był svm z biblioteką libsvm. W 2006 roku Hinton wynalazł głębokie uczenie się i sieci neuronowe. Poprawił obecny stan techniki o co najmniej 30%, co jest ogromnym postępem. Jednak uczenie głębokie zapewnia dobrą wydajność tylko w przypadku dużych zestawów treningowych. Jeśli masz mały zestaw treningowy, sugerowałbym użycie svm. Ponadto możesz znaleźć tutaj przydatną infografikę o tym, kiedy używać różnych algorytmów uczenia maszynowego przez scikit-learn. Jednak, zgodnie z moją najlepszą wiedzą, w środowisku naukowym nie ma zgody co do tego, że jeśli problem ma cechy X, Y i Z, lepiej jest użyć svm. Sugerowałbym wypróbowanie różnych metod. Nie zapominaj również, że svm lub sieci neuronowe to tylko metoda obliczania modelu. Bardzo ważne jest również to, z jakich funkcji korzystasz.

Załóżmy, że jesteśmy w ustawieniu klasyfikacyjnym. lub inżynieria funkcji svm jest kamieniem węgielnym: zestawy muszą być rozdzielane liniowo. W przeciwnym razie dane muszą zostać przekształcone (np. Przy użyciu jądra). Nie jest to wykonywane przez sam algorytm i może wydmuchać liczbę cechy. Powiedziałbym, że wydajność svm cierpi, ponieważ zwiększamy liczbę wymiarów szybciej niż inne metodologie (zespół drzewa). Wynika to z ograniczonego problemu optymalizacji, który stoi za svms. Czasami redukcja funkcji jest możliwa, czasami nie, i wtedy nie możemy naprawdę utorować drogi do efektywnego wykorzystania svm svm prawdopodobnie będzie miał problemy ze zbiorem danych, w którym liczba funkcji jest znacznie większa niż liczba obserwacji. Można to również zrozumieć, patrząc na problem z ograniczoną optymalizacją. Zmienne kategorialne nie są obsługiwane po wyjęciu z pudełka przez algorytm svm.

P: Czy jest jakaś domena, w której sieci bayesowskie przewyższają sieci neuronowe?

Sieci neuronowe uzyskują najlepsze wyniki w zadaniach widzenia komputerowego (patrz MNIST, ILSVRC, Kaggle Galaxy Challenge). Wydaje się, że przewyższają wszystkie inne podejście w wizji komputerowej. Ale są też inne zadania:

* Wyzwanie Kaggle Molecular Activity Challenge

* Regresja: prognoza Kaggle Rain, również 2. miejsce

* Chwyć i podnieś 2. także trzecie miejsce – Zidentyfikuj ruchy dłoni na podstawie zapisów EEG

Nie jestem pewien co do ASR (automatycznego rozpoznawania mowy) i tłumaczenia maszynowego, ale myślę, że słyszałem również, że (powtarzające się) sieci neuronowe (zaczynają) przewyższać inne podejścia. Obecnie uczę się o sieciach bayesowskich i zastanawiam się, w jakich przypadkach te modele są zwykle stosowane. Więc moje pytanie brzmi: czy jest jakaś konkurencja typu challenge / (Kaggle), w której najnowocześniejsze są sieci bayesowskie lub przynajmniej bardzo podobne modele? (Uwaga dodatkowa: widziałem także drzewa decyzyjne, 2, 3, 4, 5, 6, 7 zwycięstwa w kilku ostatnich wyzwaniach Kaggle)

Jednym z obszarów, w których często stosuje się podejście bayesowskie, jest potrzeba interpretacji systemu prognozowania. Nie chcesz dawać lekarzom sieci neuronowej i twierdzić, że jest dokładna w 95%. Raczej chcesz wyjaśnić założenia, które przyjmuje Twoja metoda, a także proces decyzyjny, z którego korzysta metoda. Podobny obszar ma miejsce, gdy masz silną wcześniejszą wiedzę domenową i chcesz ją wykorzystać w systemie.

Sieci bayesowskie i sieci neuronowe nie wykluczają się wzajemnie. W rzeczywistości sieci bayesowskie to tylko kolejny termin określający „ukierunkowany model graficzny”. Mogą być bardzo przydatne w projektowaniu funkcji obiektywnych sieci neuronowych. Zwrócił na to uwagę Yann Lecun:

https://plus.google.com/+YannLeCunPhD/posts/gWE7Jca3Zoq.

Jeden przykład. Wariacyjny automatyczny koder i pochodne są ukierunkowanymi graficznymi modelami formularza

Sieć neuronowa służy do zaimplementowania p (x | z) i przybliżenia do jego odwrotności: q(z|x) ≈ p(z|x)

Już doskonałe odpowiedzi. Domeną, o której przychodzi mi do głowy i nad którą intensywnie pracuję, jest domena analizy klientów. Muszę rozumieć i przewidywać ruchy i motywy klientów, aby informować i ostrzegać zarówno obsługę klienta, marketing, jak i zespoły zajmujące się rozwojem. Więc tutaj sieci neuronowe wykonują naprawdę dobrą robotę w przewidywaniu rezygnacji itp. Ale znalazłem i preferuję styl sieci bayesowskich, a oto powody, dla których preferuję ten styl:

  1. Klienci zawsze mają wzór. Zawsze mają powód do działania. I byłby to powód, który mój zespół zrobił dla nich lub sami się nauczyli. Tak więc wszystko ma tu swój poprzednik i faktycznie ten powód jest bardzo ważny, ponieważ napędza większość decyzji podjętej przez klienta.
  2. Każdy ruch klienta i zespołów rozwojowych w lejku marketingowo-sprzedażowym ma skutek przyczynowo-skutkowy. Tak więc wcześniejsza wiedza jest niezbędna, jeśli chodzi o przekształcenie potencjalnego potencjalnego klienta w klienta.

Tak więc koncepcja wcześniejszych jest bardzo ważna, jeśli chodzi o analitykę klientów, co sprawia, że ​​koncepcja sieci Bayesa jest bardzo ważna dla tej domeny

Sieci neuronowe: jakiej funkcji kosztu użyć?

Używam TensorFlow do eksperymentów głównie z sieciami neuronowymi. Chociaż przeprowadziłem teraz sporo eksperymentów (problem XOR, MNIST, trochę rzeczy związanych z regresją…), mam problem z wyborem „prawidłowej” funkcji kosztu dla określonych problemów, ponieważ ogólnie mogę być uważany za początkującego. Przed przejściem do TensorFlow samodzielnie zakodowałem kilka w pełni połączonych MLP i niektóre powtarzające się sieci za pomocą Pythona i NumPy, ale głównie miałem problemy, w których wystarczył prosty kwadratowy błąd i prosty opis gradientu. Ponieważ jednak TensorFlow oferuje całkiem sporo funkcji kosztowych, a także tworzenie niestandardowych funkcji kosztów, chciałbym wiedzieć, czy istnieje jakiś poradnik, być może dotyczący funkcji kosztów w sieciach neuronowych? (Skończyłem już prawie połowę oficjalnych samouczków TensorFlow, ale tak naprawdę nie wyjaśniają one, dlaczego określone funkcje kosztów lub uczniowie są wykorzystywani do konkretnych problemów – przynajmniej nie dla początkujących)

Aby podać kilka przykładów:

koszt = tf.reduce_mean (tf.nn.softmax_cross_entropy_with_logits (y_output, y_train))

Wydaje mi się, że stosuje funkcję softmax na obu wejściach, tak że suma jednego wektora jest równa

  1. Ale czym właściwie jest entropia krzyżowa z logitami? Myślałem, że sumuje wartości i oblicza entropię krzyża… więc jakiś pomiar metryczny ?! Czy nie wyglądałoby to tak samo, gdybym znormalizował wynik, zsumował i wziął kwadratowy błąd? Dodatkowo, dlaczego , czy to jest używane np. dla MNIST (a nawet znacznie trudniejszych problemów)? Kiedy chcę sklasyfikować jako 10, a może nawet 1000 klas, czy sumowanie wartości nie niszczy całkowicie informacji o tym, która klasa faktycznie była wynikiem?

cost = tf.nn.l2_loss (wektor)

Po co to? Myślałem, że strata L2 jest w zasadzie błędem do kwadratu, ale API TensorFlow mówi, że dane wejściowe to tylko jeden tensor. W ogóle nie rozumiesz ?! Poza tym dość często widziałem to dla krzyżowej entropii:

cross_entropy = -tf.reduce_sum (y_train * tf.log (y_output))

… Ale dlaczego to jest używane? Czy utrata entropii krzyżowej nie jest matematycznie taka:

-1 / n * suma (y_train * log (y_output) + (1 – y_train) * log (1 – y_output))

Gdzie znajduje się część (1 – y_train) * log (1 – y_output) w większości przykładów TensorFlow?

Czy tego nie brakuje?

Odpowiedzi: Wiem, że to pytanie jest dość otwarte, ale nie spodziewam się, że otrzymam około 10 stron z każdym szczegółowym opisem problemu / kosztu. Potrzebuję tylko krótkiego podsumowania, kiedy użyć której funkcji kosztu (ogólnie lub w TensorFlow, nie ma to dla mnie większego znaczenia) i wyjaśnienia na ten temat. I / lub jakieś źródło (a) dla początkujących;)

Ta odpowiedź dotyczy ogólnej strony funkcji kosztów, niezwiązanej z TensorFlow, i w większości dotyczy części Twojego pytania zawierającej „pewne wyjaśnienia na ten temat”. W większości przykładów / samouczków, do których się stosowałem, użyta funkcja kosztu była nieco arbitralna. Chodziło raczej o wprowadzenie czytelnika w konkretną metodę, a nie funkcję kosztu konkretnie. Nie powinno Cię to powstrzymywać przed skorzystaniem z samouczka, aby zapoznać się z narzędziami, ale moja odpowiedź powinna pomóc Ci w wyborze funkcji kosztu dla własnych problemów. Jeśli chcesz uzyskać odpowiedzi dotyczące Cross-Entropy, Logit, norm L2 lub czegokolwiek konkretnego, radzę zadać wiele bardziej szczegółowych pytań. Zwiększy to prawdopodobieństwo, że ktoś z określoną wiedzą zobaczy Twoje pytanie.

Wybór odpowiedniej funkcji kosztu w celu osiągnięcia pożądanego rezultatu jest krytycznym punktem problemów z uczeniem maszynowym. Podstawowym podejściem, jeśli nie wiesz dokładnie, czego oczekujesz od swojej metody, jest użycie średniokwadratowego błędu (Wikipedia) w przypadku problemów z regresją i wartości procentowej błędu w przypadku problemów klasyfikacyjnych. Jeśli jednak chcesz uzyskać dobre wyniki swojej metody, musisz zdefiniować dobre, a tym samym zdefiniować odpowiednią funkcję kosztu. Wynika to zarówno ze znajomości domeny (jakie są Twoje dane, co próbujesz osiągnąć), jak i wiedzy o narzędziach, którymi dysponujesz. Nie sądzę, żebym mógł przeprowadzić Cię przez funkcje kosztów już zaimplementowane w TensorFlow, ponieważ mam bardzo małą wiedzę na temat tego narzędzia, ale mogę podać przykład, jak pisać i oceniać różne funkcje kosztów.

Aby zilustrować różne różnice między funkcjami kosztów, posłużmy się przykładem problemu klasyfikacji binarnej, gdzie chcemy, aby dla każdej próbki xn klasa f(xn)  {0,1}

Począwszy od właściwości obliczeniowych; jak dwie funkcje mierzące „tę samą rzecz” mogą prowadzić do różnych wyników. Weźmy następującą, prostą funkcję kosztu; procent błędu. Jeśli masz N próbek, f(yn)to przewidywana klasa a yn prawdziwa klasa, którą chcesz zminimalizować

Ta funkcja kosztu ma tę zaletę, że jest łatwa do interpretacji. Jednak nie jest to gładkie; jeśli masz tylko dwie próbki, funkcja „przeskakuje” od 0, do 0,5, do 1. Doprowadzi to do niespójności, jeśli spróbujesz użyć gradientu spadku w tej funkcji. Jednym ze sposobów uniknięcia tego jest zmiana funkcji kosztu w celu wykorzystania prawdopodobieństw przypisania; p(yn =1|xn) . Funkcja staje się

Ta funkcja jest bardziej płynna i będzie działać lepiej w przypadku podejścia gradientowego. Otrzymasz „lepszy” model. Jednak ma inny problem; jeśli masz próbkę, która jest niejednoznaczna, powiedzmy, że nie masz wystarczających informacji, aby powiedzieć coś lepszego niż p(yn =1|xn) = 0,5

Następnie użycie gradientu spadku dla tej funkcji kosztu doprowadzi do modelu, który zwiększy to prawdopodobieństwo tak bardzo, jak to możliwe, a tym samym, być może, przekroczy dopasowanie. Innym problemem związanym z tą funkcją jest to, że jeśli p(yn =1|xn) = 1 podczas gdy yn = 0

na pewno masz rację, ale się mylisz. Aby uniknąć tego problemu, możesz wziąć logarytm prawdopodobieństwa, log p(yn |xn ) . Jeśli log(0) = ∞ i log(1) = 0  Następująca funkcja nie ma problemu opisanego w poprzednim akapicie

Powinno to pokazać, że aby zoptymalizować to samo, procent błędu, różne definicje mogą dawać różne wyniki, jeśli są łatwiejsze do zrozumienia i obliczeniowe. Funkcje kosztu A i B mogą mierzyć tę samą koncepcję, ale A może prowadzić twoją metodę do lepszych wyników niż B.

Zobaczmy teraz, jak różne funkcje kosztów mogą mierzyć różne koncepcje. W kontekście wyszukiwania informacji, jak w wyszukiwarce Google (jeśli zignorujemy ranking), chcemy, aby zwracane wyniki

* mają wysoką precyzję, nie zwracają nieistotnych informacji

* mają wysoką rozpoznawalność, zwracają jak najwięcej trafnych wyników

* Precyzja i przywołanie (Wikipedia)

Zwróć uwagę, że jeśli algorytm zwróci wszystko, zwróci każdy możliwy odpowiedni wynik, a zatem będzie miał wysoką pamięć, ale ma bardzo niską precyzję. Z drugiej strony, jeśli zwróci tylko jeden element, ten, który jest najbardziej pewny, jest odpowiedni, będzie miał wysoką precyzję ale mało przypominam. Aby ocenić takie algorytmy,  wspólną funkcją kosztu jest wynik F (Wikipedia). Typowym przypadkiem jest wynik F1, który nadaje równą wagę precyzji i przypominam sobie, ale w ogólnym przypadku jest to wynik Fβ -score i możesz dostosować wersję beta, aby uzyskać

* Wyższe zapamiętanie, jeśli używasz wersji β> 1

* Wyższa precyzja, jeśli używasz. β <1

W takim scenariuszu wybranie funkcji kosztu jest wyborem kompromisu, jaki powinien zrobić twój algorytm. Innym często przytaczanym przykładem jest przypadek diagnozy medycznej, możesz wybrać funkcję kosztu, która karze więcej fałszywie negatywnych lub fałszywie pozytywnych wyników w zależności od tego, co jest preferowane:

* Więcej zdrowych osób klasyfikuje się jako chorych (ale wtedy możemy leczyć zdrowych ludzi, co jest kosztowne i może im zaszkodzić, jeśli faktycznie nie są chorzy)

* Więcej chorych osób jest klasyfikowanych jako zdrowych (ale wtedy mogą umrzeć bez leczenia).

Podsumowując, zdefiniowanie funkcji kosztu jest zdefiniowaniem celu algorytmu. Algorytm definiuje, jak się tam dostać

Jaki jest dobry algorytm uczenia maszynowego do handlu z niską częstotliwością?

Próbuję wytrenować algorytm, aby kopiował najlepszych inwestorów z różnych portali społecznościowych forex. Problem polega na tym, że traderzy handlują tylko około, powiedzmy, 10 razy w miesiącu, więc nawet jeśli spojrzę tylko na wartości minutowe, to 0,02% czasu [10 / (60 * 24 * 30) * 100].

Próbowałem użyć losowego lasu i daje to wskaźnik błędów około 2%, co jest nie do przyjęcia, a z tego, co przeczytałem, większość algorytmów uczenia maszynowego ma podobne wskaźniki błędów. Czy ktoś zna lepsze podejście?

Losowe lasy, GBM czy nawet nowszy i bardziej wyszukany xgboost nie są najlepszymi kandydatami do binarnej klasyfikacji (przewidywania wzrostów i spadków) prognoz akcji lub handlu na rynku Forex, a przynajmniej nie jako główny algorytm. Powodem jest to, że w przypadku tego konkretnego problemu one wymagają ogromnej ilości drzew (i głębokości drzew w przypadku GBM lub xgboost), aby uzyskać rozsądną dokładność (Breiman sugerował użycie co najmniej 5000 drzew i „nie skąpić”, a w rzeczywistości jego główny artykuł ML na temat RF użył 50 000 drzew na biegać). Jednak niektóre kwanty używają losowych lasów jako selektorów funkcji, podczas gdy inne używają ich do generowania nowych funkcji. Wszystko zależy od charakterystyki danych. Sugerowałbym przeczytanie tego pytania i odpowiedzi na stronie quant.stackexchange, gdzie ludzie dyskutują, jakie metody są najlepsze i kiedy ich używać, między innymi ISOMAP, Laplacian eigenmaps, ANN, optymalizacja roju. Sprawdź tag uczenia maszynowego w tej samej witrynie, gdzie możesz znaleźć informacje związane z określonym zbiorem danych.

Zaimplementuj MLP w tensorflow

W sieci jest wiele zasobów o tym, jak wdrożyć MLP w tensorflow, a większość przykładów działa 🙂 Ale interesuje mnie konkretny, o którym dowiedziałem się z https://www.coursera.org/learn/machine-learning . W którym używa funkcji kosztu zdefiniowanej w następujący sposób:

hθ jest funkcją sigmoidalną. A oto moja implementacja:

# one hidden layer MLP

x = tf.placeholder(tf.float32, shape=[None, 784])

y = tf.placeholder(tf.float32, shape=[None, 10])

W_h1 = tf.Variable(tf.random_normal([784, 512]))

h1 = tf.nn.sigmoid(tf.matmul(x, W_h1))

W_out = tf.Variable(tf.random_normal([512, 10]))

y_ = tf.matmul(h1, W_out)

# cross_entropy = tf.nn.sigmoid_cross_entropy_with_logits(y_, y)

cross_entropy = tf.reduce_sum(- y * tf.log(y_) – (1 – y) * tf.log(1 – y_), 1)

loss = tf.reduce_mean(cross_entropy)

train_step = tf.train.GradientDescentOptimizer(0.05).minimize(loss)

correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))

accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

# train

with tf.Session() as s:

s.run(tf.initialize_all_variables())

for i in range(10000):

batch_x, batch_y = mnist.train.next_batch(100)

s.run(train_step, feed_dict={x: batch_x, y: batch_y})

if i % 100 == 0:

train_accuracy = accuracy.eval(feed_dict={x: batch_x, y: batch_y})

print(‘step {0}, training accuracy {1}’.format(i, train_accuracy))

Myślę, że definicja warstw jest poprawna, ale problem tkwi w cross_entropy. Jeśli użyję pierwszego, który został wykomentowany, model szybko się zbiegnie; ale jeśli użyję drugiego, który moim zdaniem / mam nadzieję jest tłumaczeniem poprzedniego równania, model nie będzie zbieżny.

Myślę, że definicja warstw jest poprawna, ale problem tkwi w cross_entropy. Jeśli użyję pierwszego, który został wykomentowany, model szybko się zbiegnie; ale jeśli użyję drugiego, który moim zdaniem / mam nadzieję jest tłumaczeniem poprzedniego równania, model nie będzie zbieżny.

Popełniłeś trzy błędy:

  1. Pominięto składniki przesunięcia przed przekształceniami nieliniowymi (zmienne b_1 i b_out). Zwiększa to reprezentatywną moc sieci neuronowej.
  2. Pominąłeś transformację softmax w górnej warstwie. To sprawia, że dane wyjściowe są rozkładami prawdopodobieństwa, więc można obliczyć entropię krzyżową, która jest zwykłą funkcją kosztu do klasyfikacji.
  3. Użyłeś formy binarnej entropii krzyżowej, podczas gdy powinieneś był użyć formy wieloklasowej.

Po uruchomieniu tego uzyskuję dokładność powyżej 90%:

import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

mnist = input_data.read_data_sets(‘/tmp/MNIST_data’, one_hot=True)

x = tf.placeholder(tf.float32, shape=[None, 784])

y = tf.placeholder(tf.float32, shape=[None, 10])

W_h1 = tf.Variable(tf.random_normal([784, 512]))

b_1 = tf.Variable(tf.random_normal([512]))

h1 = tf.nn.sigmoid(tf.matmul(x, W_h1) + b_1)

W_out = tf.Variable(tf.random_normal([512, 10]))

b_out = tf.Variable(tf.random_normal([10]))

y_ = tf.nn.softmax(tf.matmul(h1, W_out) + b_out)

# cross_entropy = tf.nn.sigmoid_cross_entropy_with_logits(y_, y)

cross_entropy = tf.reduce_sum(- y * tf.log(y_), 1)

loss = tf.reduce_mean(cross_entropy)

train_step = tf.train.GradientDescentOptimizer(0.05).minimize(loss)

correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))

accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

# train

with tf.Session() as s:

s.run(tf.initialize_all_variables())

for i in range(10000):

batch_x, batch_y = mnist.train.next_batch(100)

s.run(train_step, feed_dict={x: batch_x, y: batch_y})

if i % 1000 == 0:

train_accuracy = accuracy.eval(feed_dict={x: batch_x, y: batch_y})

print(‘step {0}, training accuracy {1}’.format(i, train_accuracy))

Kroki uczenia maszynowego

Która z poniższych opcji kroków jest właściwa podczas tworzenia modelu predykcyjnego?

Opcja 1: Najpierw wyeliminuj najbardziej ewidentnie złe predyktory i przetwórz wstępnie pozostałe, jeśli to konieczne, a następnie wytrenuj różne modele z walidacją krzyżową, wybierz kilka najlepszych, zidentyfikuj najlepsze predyktory, z których każdy z nich korzystał, a następnie przetrenuj te modele tylko z tymi predyktorami i ponownie oceń dokładność za pomocą walidacji krzyżowej, a następnie wybierz najlepszy z nich i przećwicz go na pełnym zestawie uczącym przy użyciu jego kluczowych predyktorów, a następnie użyj go do przewidzenia zestawu testowego.

Opcja 2: Najpierw wyeliminuj najbardziej ewidentnie złe predyktory, następnie w razie potrzeby przetwórz wstępnie pozostałe, a następnie użyj techniki wyboru cech, takiej jak rekurencyjna selekcja cech (np. RFE z rf) z walidacją krzyżową, na przykład w celu zidentyfikowania idealnej liczby kluczowych predyktorów i czym są te predyktory, a następnie wytrenuj różne typy modeli z weryfikacją krzyżową i zobacz, który z nich zapewnia największą dokładność z najlepszymi predyktorami zidentyfikowanymi wcześniej. Następnie wytrenuj ponownie najlepszy z tych modeli z tymi predyktorami w pełnym zestawie uczącym, a następnie użyj go do przewidywania zestawu testowego.

Okazało się, że obie opcje są nieco wadliwe. Tak więc ogólnie (bardzo ogólnie) jest to modelowanie predykcyjne:

Czyszczenie danych: zajmuje najwięcej czasu, ale każda spędzona tutaj sekunda jest tego warta. Im czystsze dane przejdą przez ten krok, tym mniejszy będzie całkowity czas spędzony.

Dzielenie zbioru danych: zbiór danych zostałby podzielony na zbiory uczące i testowe, które byłyby wykorzystywane odpowiednio do celów modelowania i prognozowania. Ponadto należałoby również przeprowadzić dodatkowy podział jako zestaw do weryfikacji krzyżowej. Transformacja i redukcja: obejmuje procesy takie jak transformacje, średnie i mediana skalowania itp.

Wybór funkcji: można to zrobić na wiele sposobów, takich jak wybór progu, wybór podzbioru itp.

Projektowanie modelu predykcyjnego: Zaprojektuj model predykcyjny na podstawie danych szkoleniowych w zależności od dostępnych funkcji.

Cross Validation: Final Prediction, Validation

Zrozumienie uczenia się ze wzmocnieniem za pomocą sieci neuronowej (Qlearning)

Próbuję zrozumieć uczenie się przez wzmacnianie i procesy decyzyjne markowa (MDP) w przypadku, gdy sieć neuronowa jest wykorzystywana jako aproksymator funkcji. Mam trudności ze związkiem między MDP, w którym środowisko jest badane w sposób probabilistyczny, w jaki sposób jest to odwzorowywane z powrotem na parametry uczenia się i w jaki sposób znajduje się ostateczne rozwiązanie / zasady. Czy mam rację, zakładając, że w przypadku Q-learning, sieć neuronowa zasadniczo działa jako aproksymator funkcji dla samej wartości q, tak wiele kroków w przyszłości? Jak to się ma do aktualizacji parametrów za pomocą wstecznej propagacji lub innych metod? Ponadto, kiedy sieć nauczyła się przewidywać przyszłą nagrodę, jak to pasuje do systemu pod względem faktycznego podejmowania decyzji? Zakładam, że ostateczny system prawdopodobnie nie dokonałby przejść między stanami.

W Q-Learning na każdym kroku będziesz korzystać z obserwacji i nagród, aby zaktualizować swoją funkcję Qvalue:

Masz rację mówiąc, że sieć neuronowa jest tylko przybliżeniem funkcji dla funkcji wartości q. Ogólnie rzecz biorąc, część aproksymacyjna to tylko standardowy nadzorowany problem uczenia się. Twoja sieć wykorzystuje (s, a) jako dane wejściowe, a wyjście to wartość q. W miarę dostosowywania wartości q należy wyszkolić te nowe próbki w sieci. Mimo to napotkasz pewne problemy, ponieważ używasz skorelowanych próbek, a SGD ucierpi. Jeśli patrzysz na artykuł DQN, sprawy mają się nieco inaczej. W takim przypadku to, co robią, to umieszczanie próbek w wektorze (odtwarzanie doświadczenia). Aby nauczyć sieć, próbkują krotki z wektora, ładują się za pomocą tych informacji, aby uzyskać nową wartość q, która jest przekazywana do sieci. Kiedy mówię o nauczaniu, mam na myśli dostosowanie parametrów sieci za pomocą stochastycznego zejścia gradientowego lub ulubionego podejścia optymalizacyjnego. Nie ucząc próbek w kolejności, w jakiej są zbierane przez politykę, dekorelujesz je, co pomaga w szkoleniu. Na koniec, aby podjąć decyzję o stanie, wybierasz akcję, która zapewnia najwyższą wartość q:

Jeśli Twoja funkcja wartości Q została całkowicie wyuczona, a środowisko jest nieruchome, w tym momencie dobrze jest być chciwym. Jednak podczas nauki oczekuje się, że będziesz eksplorować. Istnieje kilka podejść, które są jednym z najłatwiejszych i najpowszechniejszych sposobów.

P: Regresja liniowa z niesymetryczną funkcją kosztu?

Chcę przewidzieć jakąś wartość Y(x) i próbuję uzyskać prognozy , które optymalizują się między możliwie najniższym poziomem, ale nadal większym niż Y(x). Innymi słowy:

Myślę, że prosta regresja liniowa powinna wystarczyć. Więc trochę wiem, jak zaimplementować to ręcznie, ale myślę, że nie jestem pierwszą osobą, która ma tego rodzaju problem. Czy są jakieś pakiety / biblioteki (najlepiej Python), które robią to, co chcę? Jakiego słowa kluczowego muszę szukać? A co gdybym znał funkcję Y0(x) > 0 gdzie  Y(x) > Y0(x) . Jaki jest najlepszy sposób wprowadzenia tych ograniczeń?

Jeśli dobrze cię rozumiem, chcesz się mylić i przeceniać. Jeśli tak, potrzebujesz odpowiedniej, asymetrycznej funkcji kosztu. Jednym prostym kandydatem jest poprawienie kwadratowej straty:

L : (x,α) -> x2(sgnx + α) 2

gdzie -1 < α < 1  jest parametrem, którego można użyć, aby wymienić karę za niedoszacowanie na przeszacowanie. Dodatnie wartości α  penalizują przeszacowanie, więc będziesz chciał ustawić wartość ujemną. W Pythonie wygląda to następująco: def loss (x, a): return x ** 2 * (numpy.sign (x) + a) ** 2

Następnie wygenerujmy dane:

import numpy

x = numpy.arange (-10, 10, 0,1)

y = -0,1 * x ** 2 + x + numpy.sin (x) + 0,1 * numpy.random.randn (len (x))

Na koniec zrobimy naszą regresję w tensorflow, bibliotece uczenia maszynowego od Google, która obsługuje automatyczne różnicowanie (dzięki czemu optymalizacja oparta na gradientach takich problemów jest prostsza). Posłużę się tym przykładem jako punktem wyjścia

import tensorflow as tf

X = tf.placeholder(“float”) # create symbolic variables

Y = tf.placeholder(“float”)

w = tf.Variable(0.0, name=”coeff”)

b = tf.Variable(0.0, name=”offset”)

y_model = tf.mul(X, w) + b

cost = tf.pow(y_model-Y, 2) # use sqr error for cost function

def acost(a): return tf.pow(y_model-Y, 2) * tf.pow(tf.sign(y_model-Y) + a, 2)

train_op = tf.train.AdamOptimizer().minimize(cost)

train_op2 = tf.train.AdamOptimizer().minimize(acost(-0.5))

sess = tf.Session()

init = tf.initialize_all_variables()

sess.run(init)

for i in range(100):

for (xi, yi) in zip(x, y):

# sess.run(train_op, feed_dict={X: xi, Y: yi})

sess.run(train_op2, feed_dict={X: xi, Y: yi})

print(sess.run(w), sess.run(b))

cost to zwykły błąd kwadratowy, podczas gdy acost to wspomniana wcześniej asymetryczna funkcja straty.

Jeśli korzystasz z kosztu, który otrzymasz

1,00764 -3,32445

Jeśli używasz acost, otrzymasz

1,02604 -1,07742

acost wyraźnie stara się nie lekceważyć. Nie sprawdzałem zbieżności, ale masz pomysł.