Nie zastanawialiście się czasami w jakim cudem Edward Snowden uzyskał tyle cennych informacji z agencji bezpieczeństwa NSA? W takiej placówce z pewnością wdrożone są odpowiednie zabezpieczenia i każdy pracownik jest dokładnie monitorowany pod względem aktywności w sieci wewnętrznej. Jakim więc cudem Edward Snowden potrafił zdobyć około 1,7 miliona plików?
Do kradzieży danych został wykorzystany robot internetowy o nazwie web crawler, który działając w tle potrafi indeksować pliki znajdujące się w określonej sieci. Edward Snowden rozpoczął zbieranie informacji w głównej siedzibie NSA (gdzie również pracował) i mało brakło a wpadłby podczas całej operacji. Na szczęście potrafił się wytłumaczyć z każdej sytuacji. Potem został przeniesiony do oddziału znajdującego się na Hawajach, który jeszcze nie posiadał odpowiednich zabezpieczeń, więc zbieranie informacji przebiegało dużo sprawniej. Potem zebrane dane były ukazywane sukcesywnie całemu światu.
W jaki sposób Edward Snowden wykradł informacje z NSA?
żadnych reklam, sama wiedza.
Zarejestruj się na BEZPŁATNY NEWSLETTER i raz w tygodniu otrzymuj najważniejsze wiadmości
ze świata IT, nowych technologii i kryptowalut.
Bez reklam.
9 odpowiedzi na „W jaki sposób Edward Snowden wykradł informacje z NSA?”
-
„Robak”?! Google i Bing to też robaki? Bez jaj.
-
„robak o nazwie web crawler” – tutaj chciałbym poprosić autora o nie pisanie wiadomości na temat czegoś o czym nie ma zielonego pojęcia.
-
Tylko nierób się nie myli.
-
Web crawler/spider to po prostu mały program który po prostu chodzi po linkach i sprawdza czy strona jest na miejscu.
-
…Czyli web crawler to nazwa rodzajowa, ogólna, określająca pewien typ programu. Sformułowanie „robot internetowy o nazwie web crawler” brzmi jak „program komputerowy o nazwie przeglądarka www”. Swoją drogą funkcję web crawlera (html spidera) ma każdy dobry menedżer pobierania plików.
-
-
-
-
Nie chcę wyjść na niewdzięcznika, ale słabo napisany ten news. Dwa razy zdania zaczęte od “Potem”, jakaś taka kanciasta gramatyka no i ten nieszczęsny “robak”
-
Skaperował im bota indeksującego sieć! Chłopak naprawdę musi umieć przekonywać.
-
„robot internetowy o nazwie web crawler, który działając w tle potrafi indeksować pliki znajdujące się w określonej sieci.”
to zdanie z technicznego punktu widzenia jest bez sensu.
dla mnie jest ciekawe to dlaczego nsa dopuściło do sytuacji, że jedna osoba miała dostęp do tylu danych. w końcu to właśnie nsa od wielu lat opracowuje systemy multilevel security.
-
Suma summarum, to web crawler – ok, odmienione tak, że faktycznie może być to „robot”, ale tak naprawdę to bardziej bym myślał o technice crawlingu na stronach i nie tylko 😉
Btw. niby zmiany na osnews, ale tak naprawdę to merytorycznością upadacie na psy… Często strzelicie fuck up’a jakich mało, że zdecydowanie wolę zostać na Niebezpieczniku, Zaufanej Trzeciej Stronie albo innych technicznych portalach 😉
media społecznościowe
ostatnie artykuły
Popularne tagi
android apple bezpieczeństwo biznes google hardware internet iphone kaspersky media microsoft mobile open-source press-release programowanie software UNIX windows Wydania Wydarzenia
Kategorie
- Archiwum (4)
- Bez kategorii (49)
- Bezpieczeństwo (541)
- Felietony (39)
- Finanse (171)
- Informacja prasowa (45)
- Internet (528)
- Kryptowaluty (503)
- Marketing (695)
- Mobile (482)
- Oprogramowanie (574)
- Oprogramowanie (7)
- Pozostałe (40)
- Reklama (81)
- Rozrywka (66)
- Social Media (78)
- Sprzęt (572)
- TechBiz (452)
- Technologie (10 926)
- Video Converter Software (1)
Dodaj komentarz