Sieć drugiego obiegu

Drugiego, trzeciego i kolejnych. Właściwie już jest kilka obiegów informacji z wykorzystaniem otwartych protokołów sieciowych. Mnie zaś interesuje pewne zjawisko, które związane jest z anonimowością i relacjami między możliwościami technicznymi, wolnością słowa i wolnością do pozyskiwania informacji. Wiadomo, że walczy się ze spamem metodami technicznymi - blokady, filtry, sprawdzanie czy list został wysłany z Open Relaya. Te same metody można stosować przy www. Proszę sobie wyobrazić następującą sytuacje: dzięki konfiguracji serwera www nikt, kto korzysta z TOR-a nie może zapoznać się z treścią opublikowaną na tym serwerze. Innymi słowy - aby zapoznać się z treścią (a to znaczy, że również aby komentować) należy skorzystać z serwera, który się identyfikuje. W ten sposób powstanie jakby "drugi obieg informacji w Sieci", ponieważ użytkownicy, którzy zechcą korzystać z anonimowości zostaną zepchnięci do swoistego getta.

To podzieliłoby Sieć na "legalną" (czyli taką, której usługodawcy spełnialiby jakieś, np. ustawowe obowiązki) i tą drugą. Sieć drugiego obiegu.

W kontekście ostatnich wydarzeń (por. m.in. Gruby pancerz, stopery w uszy i wycieraczki antyplwocinowe dla wolności słowa) dużo się ostatnio dyskutuje (i bardzo dobrze) o anonimowości i wolności słowa. Widzę wiele związków między technicznymi sposobami na blokowanie informacji a zagadnieniem anonimowości. Jeden z nich to właśnie "wojna ze spamem". Techniczne środki stosuje się również w programach, które mają blokować strony z pornografią (nie tylko dzieciom, ale i dorosłym), również stosuje się takie środki dla - jak twierdzą stosujący - ochrony praw własności intelektualnej (DRM).

Przed chwilą dowiedziałem się, że w Wikipedii wprowadzono mechanizmy, które blokują możliwość edytowania takim osobom, które korzystają z Sieci TOR. Można o tym przeczytać w blogu technicznym Wikipedii: Tor configuration changes, and IP block exemption rollout. Blokowanie edytowania to nie jest jeszcze blokowanie dostępu do treści, to jedynie pewne ograniczenie interakcji z serwisem. Ale to tylko kwestia rekonfigurowania serwera (niechby to był rozbudowany .htaccess, albo inne mechanizmy filtrujące), by można było chyba zablokować również możliwość czytania.

Dziś wiele serwisów wymaga logowania się, by móc zapoznać się z treściami tam opublikowanymi (chociażby logowanie się jest wymagane, by skorzystać z płatnych archiwów lub wejść na forum, którego administratorzy wolą, aby dyskusja nie była zbyt powszechnie dostępna). Można dyskutować o tym, czy w każdym przypadku stosowane są "skuteczne techniczne zabezpieczenia" (por. Stado może przejść przez dziurę po sprytnej krowie, czyli CSS nie jest "skutecznym" zabezpieczeniem) i czy trzeba mieć wiele wiedzy, aby stosowane blokady obejść. Jeśli ktoś (poza "prawowitym adminem") uzyska dostęp do serwera i jakąś kontrolę nad nim, wówczas może "odblokować" dostęp. Taka sytuacja pewnie musiałaby być oceniana przez pryzmat istniejących dziś przepisów o hackingu (a niezwykle trudno jest tak zredagować przepisy w tym zakresie, by były one precyzyjne; por. "Nie można przełamać czegoś, co nie istnieje" - polski wyrok w sprawie SQL Injection, czy Prezydent podpisał nowelę Kodeksu karnego. Czy można obejść coś, co nie istnieje?). I tak jak RBL-e oraz inne systemy antyspamowe są dziś przedmiotem technicznych ataków (por. m.in. Kto żabą wojuje...) - prowadzący tego typu RBL dla anonimizerów www mógłby się spotkać z atakami na swoją infrastrukturę.

Przypuszczam, że nie wszystkie IP węzłów wychodzących z sieci TOR (lub innych anonimizerów) da się łatwo wylistować, ale znaczną część się chyba da (chociaż ktoś, kto dysponuje infrastrukturą może chyba sobie postawić taki serwer ad hoc, doraźnie). Jeśli ktoś będzie aktualizował taką listę, a dodatkowo udostępni takie repozytorium publicznie (tak, jak udostępnia się publicznie RBL-e (Real-time Blackhole List, Real-time Black List)), to ktoś może wpaść na pomysł, by wprowadzić ustawowy obowiązek stosowania przez dostawców usług internetowych tego typu rozwiązań (na takiej samej zasadzie, jak istnieje obowiązek impressum w prawie prasowym). Jak bardzo opisana tu wizja to science fiction?

Jakby ktoś się zaniepokoił, to spieszę donieść, że powyższego nie należy czytać jako moich postulatów. Po prostu staram się rozważyć teoretyczny problem, a brakuje mi nieco wiedzy technicznej na ten temat i chętnie przeczytam komentarze (które można by wykorzystać w przypadku, gdyby ktoś zaczął forsować tego typu rozwiązania legislacyjne, np. jako uzupełnienie do przepisów o retencji danych, wraz z przepisami o odpowiedzialności karnej w przypadku niezastosowania takich "filtrów").

Przeczytaj również:

Opcje przeglądania komentarzy

Wybierz sposób przeglądania komentarzy oraz kliknij "Zachowaj ustawienia", by aktywować zmiany.

A może Freenet?

Taką zamkniętą siecią drugiego obiegu jest Freenet. W odróżnieniu od Tora, który ma możliwość wyjścia do sieci "pierwszego obiegu" - oficjalnego "Internetu" oraz obsługi wirtualnej domeny .onion, Freenet nie umożliwia połączeń poza swoją wirtualną sieć.

PS. "Cookies should be enabled in your browser for CAPTCHA validation." - oj, nieładnie, nieładnie.

W Australii już przeprowadzono program pilotażowy

Serwery Tor jest stosunkowo łatwo zablokować ponieważ listy "exit node'ow" są ogólnodostępne i często aktualizowane. Nie jest to problemem ponieważ każdy ma prawo decydować kogo wpuszcza na swoją prywatną stronę.

Gorzej gdy władze w danym kraju wpadną na pomysł, aby tworzyć takie listy i wymuszać na dostawcach cenzurowanie internetu od strony użytkownika.

W Australii już przeprowadzono program pilotażowy filtru treści pedofiliskich. W pierwszej iteracji brali w nim udział tylko pomniejsi dostawcy internetu. Więksi dostawcy wycofali się w trakcie programu. Program wywołał wiele kontrowersji i ostatecznie plan wprowadzenia filtru na większą skalę, upadł. W czasie prób na tajną listę blokowanych stron trafiły strony o treściach anty-aborcyjnych, strony firmowe oraz m.in. wikileaks.org ponieważ w czasie prób ujawniono tam tajną listę stron blokowanych w Danii.

tor i inne

skx's picture

Sposobów na anonimowy dostęp do sieci jest dużo więcej, od zwykłego proxy, przez TORa, otwarte sieci (hotspoty w kawiarniach, na uczelniach, konferencjach itd) aż do operatorów komórkowych. Pomijając metody mniej legalne.

> Przypuszczam, że nie wszystkie IP węzłów
> wychodzących z sieci TOR (lub innych
> anonimizerów) da się łatwo wylistować

Jeśli chodzi o TOR-a to chyba jednak się da, lista jest dostarczana z założenia iirc.
Choćby na http://torstatus.kgprog.com/.

> Jeśli ktoś będzie aktualizował taką
> listę, a dodatkowo udostępni takie
> repozytorium publicznie (tak, jak
> udostępnia się publicznie RBL-e
> (Real-time Blackhole List, Real-time
> Black List)), to ktoś może wpaść na
> pomysł, by wprowadzić ustawowy
> obowiązek stosowania przez dostawców
> usług internetowych tego typu rozwiązań

Pragnący zachować anonimowość mogą uciec jeszcze "niżej" w darknety, gdzie połączenia prwadzą od znajomego do znajomego, jak we wspomnianym Freenecie. Bez totalnej inwigilacji (i to chyba nie tylko w sieci), nic się z tym, szczęśliwie, nie da zrobić.

Zresztą, Sieć już dawno podzielona jest na wiele "obiegów", z różnymi treściami dostępnymi w każdym z nich, i nikomu to nie przeszkadza.

Co z cache?

Mikołaj's picture

Blokowanie edytowania to nie jest jeszcze blokowanie dostępu do treści, to jedynie pewne ograniczenie interakcji z serwisem. Ale to tylko kwestia rekonfigurowania serwera (niechby to był rozbudowany .htaccess, albo inne mechanizmy filtrujące), by można było chyba zablokować również możliwość czytania.

Nie wiem, czy da się realnie (czytaj: żeby nie było to wylanie dziecka z kąpielą) zablokować możliwość czytania. Podstawowym problemem są kopie stron dostępne przez strony wyszukiwarek. Rozwiązania tego problemu widzę dwa, oba mocno niedoskonałe:

1. Wymuszenie na wszystkich wyszukiwarkach blokowania dostępu do kopii dla IP przychodzących z TOR. W zależności od wielkości tego ruchu mógłby to być detal lub bardzo istotne ograniczenie wpływów z wyświetlanych reklam.

2. Wprowadzenie regułek uniemożliwiających tworzenie kopii stron przez wyszukiwarki. Jednak takie rozwiązanie w większości przypadków godzi w interesy wydawcy serwisu, więc jego stosowanie to byłby margines. Podobnie jak dziś.

Kwestie budowy własnej wyszukiwarki, udostępniającej kopie stron dla IP z zakresu TOR, pomijam. Technicznie jest to wykonalne. Choć teraz wydaje się to być drogim przedsięwzięciem, to za jakiś czas może leżeć w zasięgu ręki wielu organizacji.

--
Piotr "Mikołaj" Mikołajski
http://piotr.mikolajski.net

Ty źle zrozumiałeś. Nie o

Ty źle zrozumiałeś. Nie o to chodzi żeby ktoś zabraniał wejścia na stronę przez tora ale o to chodzi, że jak tak dalej pójdzie to TOR i inne sieci bedą miały własny wewnetrzny internet i własny obieg informacji. Takich miejsc jak Onionforum powstaną tysiące.
Wiem z dobrego źródła, że niedługo programiki klienckie TOR-a bedą miały włączone przekazywanie ruchu i nagle z 2000 serwerów zrobi się kilkaset tysięcy.
Po prostu ludzie mają dość inwigilacji pod pretekstem walki z terroryzmem.

Niekoniecznie

Takich miejsc jak Onionforum powstaną tysiące

Niekoniecznie. Póki co ludzie najwyraźniej nie odczuwają takiej potrzeby. "Ukrytych serwisów" w Torze jest ledwie kilkadziesiąt, są koszmarnie powolne, niestabilne i - przede wszystkim - nie ma w nich nic ciekawego (no, chyba że ktoś ma specyficzne upodobania...)

Wiem z dobrego źródła, że niedługo programiki klienckie TOR-a bedą miały włączone przekazywanie ruchu

Nie jestem pewien, czy to dobry pomysł. W każdym razie klient nie powinien w domyślnej konfiguracji pełnić funkcji bramki wyjściowej - to zbyt niebezpieczne. Amerykanie mogą sobie mówić o "common carriers", ale już na przykład w Niemczech operatorzy miewali problemy. A co z tymi biednymi Chińczykami, na których projektanci Tora tak lubią się powoływać?

Po prostu ludzie mają dość inwigilacji pod pretekstem walki z terroryzmem.

To bez znaczenia. Jak trafnie ujął Ian Clarke, "you cannot guarantee freedom of speech and enforce copyright law". Dlatego to pierwsze musi przegrać.

Rzecz o budowie TORa.

są koszmarnie powolne, niestabilne

To, że są koszmarnie powolne wynika z samej idei budowy TORa. Łańcuch jest tak silny, jak jego najsłabsze ogniwo. W przypadku połączenia przez kilka(naście) węzłów, osiągnięta prędkość będzie niestety tylko taka, na jaką pozwala najwolniejszy z tych węzłów. Dopóki anonimizowanie będzie polegało na tworzeniu łańcuchów połączeń, nic się z tym nie da zrobić. Wprowadzenie domyślnie ustawienia przekazywania danych w konfiguracji każdego węzła (jak tam ktoś wspomniał powyżej), może paradoksalnie jeszcze bardziej obniżyć wydajność. Więcej węzłów oznacza także więcej powolnych węzłów i częstsze ich "znikanie" - czyli przerwanie łańcucha. Cóż...
--
Pozdrawiam, Michał G.

to zależy

Już obecnie na wiele torrentów i for można się dostać jedynie za poręczeniem zarejestrowanych uczestników. Prym wiedzie tutaj Grono. Jest to zabezpieczenie przed spamem i przed ewentualnym nalotami.

Wszystko zależy także od postępowania samych internautów. Jeżeli w dalszym ciągu ludziska będą tylko korzystali z TOR'a, nie udostępniając dla niego własnych komputerów, to rzeczywiście idea ta przestanie mieć jakikolwiek sens.

nie, grono już nie

xpert17's picture

Już obecnie na wiele torrentów i for można się dostać jedynie za poręczeniem zarejestrowanych uczestników. Prym wiedzie tutaj Grono

Już od wielu lat nie trzeba żadnych poręczeń, żeby się zarejestrować na Grono: http://grono.net/pub/join/register/

Zablokować Tora

W sieci Tor lista węzłów jest z kilku powodów publicznie dostępna i administrator dowolnego serwisu może ją wykorzystać według własnego uznania.

Wikipedia uniemożliwia edycję przez Tora, choć pod względem technicznym łatwiejsza do wprowadzenia byłaby całkowita blokada dostępu. Rząd czy inna komisja europejska może oczywiście wpaść na pomysł zakazania Tora, ale wówczas prościej chyba będzie filtrować te adresy gdzieś w infrastrukturze sieciowej.

Ciekawy kompromis w sprawie anonimowości zaprezentowali ludzie związani z siecią JAP, działającą na podobnych zasadach jak Tor, ale w mniejszej skali i częściowo komercyjnie. Chodzi o "revocable anonymity" (pdf), mechanizm pozwalający w razie potrzeby zidentyfikować konkretnego anonima bez większej szkody dla pozostałych użytkowników. Warto tu przypomnieć, że JAP kiedyś wprowadził cichaczem "crime detection function" do oprogramowania serwerów.

Jeśli rację mają autorzy ww. pracy twierdząc, że "sooner or later, a deanonymisation protocol is needed
for all anonymity systems that are not of pure theoretical nature", to przyszłość Tora nie wygląda zbyt różowo...

Tor ma sie i bedzie sie mial dobrze

bo to nie jest siec oddolna tylko zorganizowana przez DARPA. USA jest zainteresowane żywotnie, przynajmniej dopóki coś nie wymyśla lepszego, aby to działo.

A propos: TOR nie umożliwia bezpiecznej komunikacji, znany jest przypadek przechwycenia haseł do serwerów na "amatorskiej" końcówce tor-a, bo użytkownik (pewna ambasada) nie szyfrował transmisji myśląc że tor magicznie sam to zrobi. Tor ma uniemożliwiać ustalenie położenia nadawcy (łodzie podwodne).

Nie tylko filtrowaniem można regulować dostęp internetowy

Witam.

W każdej dyskusji przewija się temat wolności dostępu do informacji. W tym kontekście każde ograniczenia filtrujące mogą być podciągnięte pod próby blokowania swobód internautów.

Obawiam się, że "internet" może pójść w całkiem odmiennym kierunku. Informacje dalej będą dostępne dla internautów, ale szybko może się okazać to mało opłacalne. Obecnie tylko sieci oparte na sieciach gsm stosują limit przesyłu w zależności od wysokości opłacanego abonamentu. Może się okazać, że to rozwiązanie okaże się dla pragnących sterowania internetem, swoistym "złotym sposobem". Wystarczy aby pełna przepustowość łącza w ramach abonamentu, była do wysokości np. 2,5 GB, a potem ograniczona do np. 56 kb/s. Można też inaczej. Transfer do i od klienta może być rozliczany metodą pakietową. Za opłacony abonament jest dostępna określona ilość pakietów w ruchu dwustronnym. Po przekroczeniu limitu abonent zacznie płacić dodatkowo stałą kwotę za każdy nadmiarowy pakiet. Tym sposobem nikt nikomu nie zarzuci ograniczania dostępu do informacji. Ograniczał będzie się sam internauta, bo każdy liczy rachunki, a płacenie wysokich rachunków za niepotrzebne bity informacji nikomu uśmiechać się nie będzie. Mogą wrócić czasy nie tak odległe, gdy internet był tylko przez modem i za każde 6 minut połączenia płaciło się impuls taryfowy. W nowym rozwiązaniu zamiast czasu połączenia, będzie się płacić za każdy pakiet (np. 100 kB) ponad limit wynikający z abonamentu. Dostęp do stron tekstowych będzie bardziej opłacalny niż do stron tzw. "full wypas". Jednym słowem, dostęp do informacji będzie nieograniczony w dalszym ciągu. Jedynie internauta będzie musiał się mocno zastanowić czy warto ściągać muzykę lub film.

Nie mam patentu na pomysły, ale takie ograniczenie nie jest trudnym do wykonania. Zainteresowanych może być wielu, między innymi operatorzy telefoniczni, gdyż VoIP odbiera im zyski. A sposób rozliczania pakietowego uderzy także w VoIP. Komputerom to wszystko jedno jaki pakiet przesyłają. Może się okazać, że zachłanność i arogancja pewnej grupy internautów, usprawiedliwi takie rozwiązania polegające na wprowadzeniu opłat za przesył danych. Może się okazać, że zmaleje ilość oglądanych stron o treściach pornograficznych. Zmaleje ilość zamieszczanych w internecie filmików, które naruszają interes osób trzecich. Zwiększy się kontrola rodzicielska nad poczynaniami małoletnich w sieci internetowej. Wysokie rachunki za transfer internetowy skutecznie zainteresują opiekunów.

Mam jednak nadzieję, że nikomu nie przyjdzie do głowy taki sposób realizacji "reglamentowania" dostępu do informacji zawartej w internecie. Bo będzie to tylko reglamentowanie, a nie zablokowanie dostępu do informacji.

Pozdrawiam.

AT&T już ma problemy z telefonami

Phone users who jam the airwaves by watching video on their devices will be put on tighter leashes, an AT&T Inc. executive said Wednesday.

The carrier has had trouble keeping up with wireless data usage, leading to dropped connections and long waits for users trying to run programs on their devices.

AT&T is upgrading its network to cope, but its head of consumer services, Ralph de la Vega, told investors at a UBS conference in New York that it will also give high-bandwidth users incentives to "reduce or modify their usage."

De la Vega didn't say exactly how or when the carrier would change its policies, but he said some form of usage-based pricing for data is inevitable.

(za Yahoo! Finance)

Co w ciekawy sposób skomentował "ten drugi" Steve Jobs.

--
[S.A.P.E.R.] Synthetic Android Programmed for Exploration and Repair

Trudno w to wierzyć

gime's picture

bo byłby to interesujący przypadek regresu technologicznego.
Poza tym firmy takie jak AT&T, Telia, Global Crossing, BritishTelecom, ale nawet UPC czy TPSA, te firmy inwestują gigantyczne pieniądze w insfrastukturę i zwiększanie przepustowości.
Co prawda co jakiś czas trafia się sytuacja kiedy prawie nie ma nadwyżek przepustowości w niektórych sieciach i stąd biorą się te chwilowe utrudnienia lub próby ograniczania wspomniane w odpowiedzi przede mną. Zwłaszcza, że w USA jest troszkę inna polityka, tam popularne są abonamenty "no limits", coś co u nas nie istnieje. To w Europie, a zwłaszcza w Polsce, ceny za połączenia komórkowe i sms'y są wysokie, a transfer od zawsze był drogi i limitowany. Tak samo epizod kiedy w połączenia DSL w Polsce były limity transferu. To w USA nie jest popularne rozwiązanie.
A wracając do istoty - ograniczanie transferu jest nierealne i nieopłacalne dla zbyt wielu podmiotów. Pojedyncze, specyficzne grupy klientów (jak u nas klienci sieci komórkowych, dla których po prostu brakuje infrastruktury) mogą być tym obarczone, ale jako globalny trend to raczej mrzonka.

siec 2,3..n obiegu

Takie dzielenie uslug w na 2,3,n obieg to jest cos co juz sie dzieje.

Przykladem moze byc zawlaszczanie przez wielkie telekomunikacyjne firmy infrastruktury pocztowej. Coraz trudniej jest prowadzic serwer pocztowy dla sredniej wielkosci firmy (powiedzmy 100-500 osob). Przykladowo latwo jest wpasc raz na jakis czas w roznorakie blacklisty (np. przez backscatter od autoresponderow w naszych sieciach). Oczywiscie mozna z tym walczyc itp (jest coraz trudniej), ale duzo prosciej przeniesc uslugi pocztowe do "alternatywnego obiegu" - czyli roznych firm typu Messagelabs, Google/Gmail, lub lokalnych krajowych (wp.onet itp). Tacy operatorzy sa zawsze na whitelistach. Za chwile bedziemy miec (albo juz mamy) pierwszy obieg poczty w obrebie tych firm i drugi gorszy (z duza awaryjnoscia itp). Jak 95% firm skorzysta z tych platnych uslug to po prostu obetnie sie komunikacje z reszta internetu w imie walki ze spamem.

Przykladow takiego grodzenia internetu jest coraz wiecej. W tej chwili to razi - tak samo jak grodzenie plotami prywatnych osiedli. Za chwile dorosnie nowe pokolenie, dla ktorych takie "ploty" beda juz codziennoscia. I nam zrobia z internetu taki lepszy telewizor...

nie zgodzę się z tobą ,

nie zgodzę się z tobą , to właśnie serwery takich operatorów nagminnie wpadają na blacklisty (administruje kilkoma serwerami pocztowymi dla firm z około 1000 kont)

Nihil novi?

Prywatne serwery IRC, szyfrowanie połączenia po SSL/TLS, prywatne serwery FTP, szyfrowane dyski, połaczenia... Ja to znam od conajmniej 10 lat.

internet powstał jako sieć

internet powstał jako sieć sieci (łączącą amerykańskie, francuskie i brytyjskie sieci akademickie, rządowe czy komercyjne), następnie ujednolicił się w jednorodną sieć globalną, a teraz być może rozpada się na pod-sieci. jeśli przejdzie w PE pomysł na to, aby ISP sprzedawali dostęp do netu z ograniczoną liczbą domen, to fragmentaryzacja jeszcze bardziej przyśpieszy.

zauważmy też, że nawet w tej chwili mamy pod-sieci: przykład to Chiny, które odfiltrowują treści z Zachodu, ale także w drugą stronę - z uwagi na kiepską infrastrukturę w niektórych prowincjach może być ciężko z Zachodu korzystać z jakiejś lokalnej chińskiej strony (zbyt niski transfer może powodować timeouty, więc choć strona taka może być dostępna w teorii, to normalne korzystanie z jej w praktyce niemożliwe).

Piotr VaGla Waglowski

VaGla
Piotr VaGla Waglowski - prawnik, publicysta i webmaster, autor serwisu VaGla.pl Prawo i Internet. Członek Rady ds Cyfryzacji przy Ministrze Cyfryzacji, ekspert w Departamencie Oceny Ryzyka Regulacyjnego Ministerstwa Rozwoju, felietonista miesięcznika "IT w Administracji" (wcześniej również felietonista miesięcznika "Gazeta Bankowa" i tygodnika "Wprost"). Uczestniczył w pracach Obywatelskiego Forum Legislacji, działającego przy Fundacji im. Stefana Batorego w ramach programu Odpowiedzialne Państwo. W 1995 założył pierwszą w internecie listę dyskusyjną na temat prawa w języku polskim, Członek Założyciel Internet Society Poland, pełnił funkcję Członka Zarządu ISOC Polska i Członka Rady Polskiej Izby Informatyki i Telekomunikacji. Był również Członkiem Rady Informatyzacji przy MSWiA, członkiem Zespołu ds. otwartych danych i zasobów przy Komitecie Rady Ministrów do spraw Cyfryzacji oraz Doradcą społecznym Prezesa Urzędu Komunikacji Elektronicznej ds. funkcjonowania rynku mediów w szczególności w zakresie neutralności sieci. W latach 2009-2014 Zastępca Przewodniczącego Rady Fundacji Nowoczesna Polska, w tym czasie był również Członkiem Rady Programowej Fundacji Panoptykon. Więcej >>