Filtrowanie, blokada, cenzura
Filtry skutecznie blokują dostęp do stron poświęconych zdrowiu, higienie i medycynie. Istnieje pokusa wprowadzenia cenzury niewygodnych treści i przemilczenie faktu ich blokowania. Kto zdecyduje w jaki sposób oprogramowanie ograniczające dostęp ma działać?...
Na początku 2001 roku sąd apelacyjny stanu California podtrzymał decyzję sądu niższej instancji, w której tenże sąd odrzucił pozew wniesiony przez pewną kobietę (w aktach sprawy występującą jako Kathleen R.). Pani Kathleen sformułowała zarzuty przeciwko lokalnej bibliotece publicznej pozywając miasto Livermore (działalność biblioteki podlegała kontroli miasta) za to, iż w bibliotecznych komputerach nie zainstalowano oprogramowania filtrującego treści oglądanych stron www. Zdaniem powódki zastosowanie takich filtrów miałoby uniemożliwić Brandonowi, jej 12-to letniemu synowi, dotarcie za pomocą bibliotecznych komputerów do materiałów szkodliwych dla nieletnich, w tym do materiałów pornograficznych, zgromadzonych w Internecie. Bez wiedzy matki Brandon poszedł do biblioteki i za pomocą tamtejszych komputerów wyszukał w Sieci pornograficzne zdjęcia. Młodzieniec następnie zapisał je sobie na dyskietce, co więcej, bez wiedzy i kontroli dorosłych - wydrukował zdjęcia na bibliotecznej drukarce. Pokazywał je potem innym dzieciom. W swoim pozwie Kathleen R. podnosiła, iż biblioteka marnuje publiczne pieniądze udostępniając obsceniczne i szkodliwe materiały dzieciom. Zdaniem powódki biblioteka świadomie narażała dzieci na emocjonalne szkody, jako dowód wskazywała zapisy regulaminu korzystania z bibliotecznego dostępu do Internetu (the Internet access policy). Regulamin gwarantował wszystkim nieodpłatny dostęp do treści zgromadzonych w Sieci, ale wyłączał odpowiedzialność biblioteki za to, jakie treści za pomocą jej infrastruktury były przesyłane. Co warto zauważyć: regulamin wskazywał, że to na rodzicach spoczywa obowiązek monitorowania poczynań ich dzieci...
Sąd oddalający roszczenia matki dwunastolatka stwierdził, że biblioteka nie może ponosić odpowiedzialności za treści jakie są zgromadzone w Sieci. Zdaniem sądu biblioteka (miasto) znalazła się w sytuacji, w której mogłaby być pozwana zarówno w sytuacji gdyby zastosowała filtry uniemożliwiające dostęp do "szkodliwych" treści (tu sąd powołał się na inne rozstrzygnięcie, zgodnie z którym zastosowanie filtrów w publicznej bibliotece narusza zasadę wolności słowa przewidzianą w Pierwszej Poprawce do Amerykańskiej Konstytucji - Mainstream Loudoun vs. Board of Trustees of Loudoun (E.D.Va. 1998)), jak również w zaistniałej sytuacji, wobec niezastosowania takiego oprogramowania w omawianej sprawie. Wskazując konkretne zapisy United States Code (wprowadzone przez ustawę the Communications Decency Act of 1996) sąd uznał, że biblioteka nie może być odpowiedzialna za treści publikowane w Sieci przez osoby trzecie, będąc jedynie dostawcą dostępu do tych treści. Dodatkowo sąd wskazał na edukacyjna rolę publicznych bibliotek, które powinny uczyć młodzież i dzieci technik pozyskiwania informacji z dostępnych źródeł. Zdaniem sądu biblioteka nie może być odpowiedzialna za to, że dzieci wykorzystują zdobyte dzięki edukacyjnej działalności bibliotekarzy umiejętności do pozyskiwania informacji obscenicznych. Biblioteka nie prezentowała zatem obscenicznych materiałów, a jedynie udostępniała infrastrukturę, dzięki której dziecko samodzielnie mogło dotrzeć do materiałów zgromadzonych w Internecie. Biblioteka i miasto nie mogą zdaniem sądu ponosić odpowiedzialności za takie działania.
Jak widać stosowanie lub niestosowanie oprogramowania filtrującego treści był już przedmiotem orzeczeń sądowych. Problem jest jednak znacznie bardziej złożony. W USA uchwalano kolejne ustawy mające za zadanie chronić dzieci przed treściami zgromadzonymi i dostępnymi w Internecie, jednak sposób, w jaki tamtejszy ustawodawca chciał regulować te sprawy spotykał się często ze sprzeciwem obrońców praw człowieka. W 2001 roku grupy działające na rzecz ochrony takich praw wystąpiły do sądu przeciwko uchwalonej w grudniu 2000 roku ustawy the Child Protection Act (CIPA). Założeniem ustawy była ochrona dzieci przed "niebezpiecznymi" treściami w Internecie, jednocześnie uzależniono dotacje dla amerykańskich bibliotek i szkół od wyposażenia stanowisk z publicznym dostępem do Sieci w oprogramowanie filtrujące treści. Upraszczając opis, sytuację bibliotekarza można opisać w następujący sposób: albo będziesz stosował filtry i dostaniesz publiczne pieniądze, albo nie będziesz filtrował i radź sobie sam. Oczywiście również bibliotekarze postanowili walczyć przed sądem, chcąc wykazać niekonstytucyjność zapisów ustawy. Podnoszono, że oprogramowanie takie godzi w podstawowe prawa człowieka - w tym do wolności pozyskiwania treści oraz ich rozpowszechniania, jednocześnie jest niepożądane z innych jeszcze przyczyn. Poza blokowaniem treści pornograficznych za pomocą dostępnego oprogramowania filtrującego blokowane są informacje ważne z punktu widzenia zdrowia, seksualności i życia społecznego człowieka.
W 2002 roku w Stanach Zjednoczonych przeprowadzono badanie filtrów wykorzystywanych do odsiewania stron pornograficznych m.in. w serwisach wyszukiwawczych. Filtry takie zainstalowały z własnej inicjatywy takie potęgi internetowego dostępu do informacji jak Yahoo, Microsoft i AOL Time Warner. Wynik badania potwierdził przypuszczenia, że stosowane filtry skutecznie blokują również dostęp do stron poświęconych zdrowiu i medycynie. Badanie przeprowadzone przez fundację "Kaiser Family" tylko potwierdziły tezy, jakie głosiłem podczas konferencji zorganizowanej przez Rzecznika Praw Dziecka 9 grudnia 2002 roku w Sejmie RP. Wedle wyników amerykańskich badań z tamtego okresu: filtrowanie treści nie spełnia oczekiwań ich twórców. Ustawione na najbardziej restrykcyjny z poziomów filtry internetowe blokują blisko 25% stron medycznych oraz ponad 50% stron z informacjami dotyczącymi bezpiecznego seksu.
CIPA trafiła do sądu, który w maju 2002 roku orzekł o niekonstytucyjności ustawy. Jednak Amerykański Departament Sprawiedliwości oraz Amerykański Instytut ds. Muzeów i Bibliotek (U.S. Institute of Museum and Library Sciences) postanowiły się odwołać do Sądu Najwyższego USA. 23 czerwca 2003 roku Sąd Najwyższy w swym orzeczeniu nie zgodził się z sądem niższej instancji stwierdzając, że Pierwsza Poprawka do Amerykańskiej Konstytucji nie zabrania Kongresowi USA nakładać na biblioteki publiczne obowiązku stosowania oprogramowania filtrującego. Dodatkowo sąd uznał, że konstytucyjność ustawy jest zagwarantowana, jeśli nakazane prawem restrykcje mogą zostać deaktywowane na indywidualne żądanie dorosłego użytkownika biblioteki. Użytkownik taki nie musi podawać powodów, dla którego zgłasza administratorowi swoją prośbę.
Jednak bibliotekarze nadal argumentują, że prawo nakazujące im stosowanie filtrów jest wadliwe. Nie rozwiązano jednej z podstawowych kwestii: co to są treści szkodliwe dla dzieci? Czymże są treści obsceniczne? Jak zdefiniować w języku algorytmów stosowanych w oprogramowaniu filtrującym, czym jest pornografia? Aby coś zablokować trzeba to w jakiś sposób określić. Ogólne zapisy nie dają jasnych wskazówek twórcom programów filtrujących, w jaki sposób oprogramowanie ma działać i co ma blokować.
Oceny stosowania filtrów treści znajdujących się w Internecie można dokonywać nie tylko przez pryzmat ochrony dzieci. Koreańska grupa regulacyjna przy Ministrze Informacji i Komunikacji zwana Komisją Etyki Informacji oraz Telekomunikacji stworzyła w 2001 roku czarną listę około 119,000 serwisów internetowych, jej zdaniem o antyspołecznym charakterze. Podobno władze w Pekinie zatrudniają około 30 tysięcy osób do przeglądania poczty elektronicznej osób korzystających z Internetu w Chinach. Tamtejsza cenzura Internetu kwitnie, a wraz z nią pomysły jak ją "wykiwać". Powstała więc sieć peer-2-peer złożona z wtajemniczonych osób. W tej sieci przekazywane są informacje o serwerach proxy, które umożliwiają oglądanie Internetu spoza internetowego Chińskiego Muru. Jak widać każdej akcji towarzyszy reakcja. Również Stany Zjednoczone, upowszechniając na świecie zasady demokracji, postanowiły przeciwdziałać cenzurze Internetu w takich państwach jak Iran czy wspomniane wyżej Chiny. Amerykańska agencja U.S. International Broadcasting Bureau (IBB) znalazła sposób, by uciskani obywatele mogli odwiedzać i czytać treści znajdujące się na blokowanych przez ich kraje stronach.
Jednak, wedle opublikowanego w maju 2004 roku niezależnego raportu OpenNet Initiative: Advisory 001, wspomniana wyżej agencja sama filtruje i blokuje dostęp do niektórych internetowych zasobów, które rzekomo "pozwala" oglądać wyzwalanym z niewoli informacyjnej obywatelom państw trzecich. W ukryty sposób blokowane są strony pornograficzne, ale za względu na niedoskonały algorytm filtrowania blokowane są również serwisy zawierające inne treści: choćby dotyczące zdrowia kobiet (słowo "breast" - piersi, występuje w nazwie jednej z blokowanych domen internetowych) czy praw gay'ów. Paradoksalnie automat blokuje również dostęp do internetowych stron misji dyplomatycznych USA - usembassy.state.gov - gdyż domena zawiera niedozwolony przez twórców filtrującego oprogramowania ciąg znaków "ass". Ze względu na częste wykorzystanie tego słowa w serwisach pornograficznych system blokuje domeny, w których występuje słowo "asian", a te blokuje również Iran. W efekcie serwisy te są zablokowane podwójnie - przez Iran i amerykańskich wyzwolicieli.
O ile w przypadku amerykańskich bibliotek dorosły użytkownik zdaje sobie sprawę z tego, iż dostęp do Internetu dzięki publicznym komputerom jest filtrowany i może żądać jego czasowej deaktywacji, o tyle zapewne nie zdaje sobie sprawy czy i w jaki sposób filtrowane są treści przechodzące przez poszczególne maszyny, zanim trafią do używanego przez niego komputera. Ruch idący "z sieci" do konkretnej maszyny przechodzi przez szereg komputerów (serwerów). Poszczególni operatorzy również mają możliwość wpływania na to, co możemy, a czego nie możemy oglądać. Okazuje się, że British Telecom (dominujący operator na brytyjskim rynku telekomunikacyjnym) codziennie blokuje ponad 10 tys. zapytań o treści zawierające pornografię dziecięcą (wedle innego źródła ponad 23 tysiące takich zapytań). Uruchomiony w 2004 roku system blokuje dostęp do konkretnych, zidentyfikowanych przez Internet Watch Foundation stron internetowych... Użytkownik, który chciałby do nich dotrzeć (celowo lub przez przypadek) otrzyma komunikat o tym, że danej strony nie znaleziono... I znów widzę kilka istotnych problemów, z których warto przynajmniej odnotować kontrowersje wokół sposobu wyboru blokowanych treści, oraz nieuczciwy - w mojej opinii - komunikat o nieznalezieniu żądanego zasobu (zamiast o tym, że strona została zablokowana). Istnieje pokusa wprowadzenia cenzury niewygodnych treści i przemilczenie faktu ich blokowania. Jeśli decydujemy się na blokowanie pornografii z udziałem dzieci, to na monitorze przeglądającego zasoby Sieci powinna pojawić się wyraźna informacja o tym, że dany zasób został zablokowany, oraz informacja o tym, z jakiego powodu taka strona została zablokowana. Ktoś powinien też kontrolować kontrolujących... A czy administrujący oprogramowaniem filtrującym zbiera dane o maszynach (komputerach), z których zostało zadane zapytanie o "szkodliwe" treści? Z technicznego punktu widzenia nie ma z tym problemu. BT ponoć nie zbiera takich danych.
Filtrowanie i blokowanie treści wiąże się ściśle z problemem niechcianej korespondencji elektronicznej. Poza analogiami pomiędzy przesyłaniem takiej korespondencji oraz przeglądaniem stron www istnieją wszakże i różnice. O ile każdy, kto chciałby pozyskać pewne informacje opublikowane w Sieci na stronach www zmuszony jest podjąć pewne działania, o tyle uciążliwa korespondencja kierowana jest na określone, dostępne dla nadawców adresy elektroniczne. Analizując problem spamu politycznego pisałem na łamach kwartalnika Prawo i ekonomia w telekomunikacji: "blokowanie niezamówionej informacji przesyłanej droga elektroniczną, chociaż często nieskuteczne, nie jest ograniczeniem wolności słowa (jak chcą niektórzy - cenzurą), a stanowi realizacje konstytucyjnego prawa do poszanowania prywatności, oraz prawa do władania swoją infrastrukturą teleinformatyczną". Na poparcie tej tezy należy przytoczyć orzeczenia Sądu Najwyższego Holandii z dnia 12 marca 2004 r., którego zdaniem dostawca usług internetowych miał prawo zablokować "napływającą" do jego sieci niezamówioną korespondencję elektroniczną. Sąd zdecydował, że firma XS4ALL miała prawo do decydowania o swoich komputerach, transmisji danych i danych swoich klientów, a więc o swoim systemie komputerowym. Zatem konsekwentnie trzeba przyznać prawo każdemu dysponentowi takiego systemu do swobodnej jego konfiguracji, a więc stosowania filtrów i blokad określonych przez tego dysponenta treści, które osoby trzecie opublikowały w Internecie. Zakładając całkowitą wolność gospodarczą - użytkownicy mogliby samodzielnie decydować czy chcą korzystać z infrastruktury przedsiębiorcy stosującego blokady, czy związać się umową z innym, który takich filtrów nie stosuje. A infrastruktura pozostająca w dyspozycji organizacji państwowej? Jeśli szeroko pojęta administracja publiczna może działać jedynie na podstawie i w granicach przyjętego systemu prawnego - stosowanie ograniczeń musiałoby wynikać z przyjętego w danym państwie prawa. W demokratycznym państwie prawa powinna jednak istnieć równowaga pomiędzy pozyskiwaniem a rozpowszechnianiem informacji, obie te wolności i odpowiadające im prawa podlegają z reguły ochronie konstytucyjnej.
Problem blokowania i filtrowania "niebezpiecznych" treści zgromadzonych w Internecie zawitał również do polskiego Sejmu. Oto 30 czerwca 2004 roku z mównicy sejmowej poseł Stanisław Dualis wygłosił oświadczenie. Jego słuchacze mogli dowiedzieć się, iż "okazja czyni złodzieja". Niezrzeszony poseł, który wszak musi zabiegać o poparcie swoich wyborców postuluje: "Nie twórzmy okazji, lecz starajmy się chronić przed tymi zagrożeniami, tym bardziej że jest ona ("informacja o pornografii, pedofilii i wszelkich wulgaryzmach" - przypuszczenie moje - PVW) wprowadzana świadomie, w określonych celach, przez ludzi chorych, często ograniczonych umysłowo, zboczeńców i dewiantów. W przypadku tych ludzi nie wystarczy kształtowanie świadomości i wpływanie drogą edukacyjną lub nakazami i zakazami. W odniesieniu do nich potrzebne są inne środki, a jedynym realnym środkiem, mimo że bardzo trudnym, jest zabezpieczenie poprzez wyłączenie".
Wielokrotnie wyrażałem pogląd, że mechaniczne stosowanie filtrów i blokad jest "chowaniem głowy w piasek" przed problemem istnienia w Sieci treści kontrowersyjnych (demokratyczne państwo prawa w przypadku systemów totalitarnych) i przestępczych (np. pornografia z udziałem dzieci). Jednocześnie filtrowanie i blokowanie natarczywej reklamy wysyłanej masowo i na chybił - trafił uznawałem i uznaję za rozwiązanie doraźne, które pozwala w sposób przynajmniej znośny korzystać z własnych zasobów informatycznych (np. poczty elektronicznej). Wracając do problemu ochrony dzieci: moim zdaniem, obok działań zmierzających do poprawienia skuteczności ścigania przestępstw, należy informować dzieci i dorosłych o tym, co mogą znaleźć w Internecie. Być może, gdyby zastosować filtry blokujące niektóre polskie słowa, nie mógłbym znaleźć w Sieci treści omawianej wyżej amerykańskiej ustawy mającej właśnie te dzieci chronić. Należy edukować o zagrożeniach, nie zaś stosować wadliwie skonstruowane, nieprecyzyjne (bo blokujące również treści pożądane) blokady. W ten sposób wylewamy przysłowiowe dziecko z kąpielą. W mojej opinii realizujący pomysły blokowania Internetu sprzyjają powstawaniu cenzury. Ale to dzięki wolności słowa cytowany poseł mógł swój pogląd wygłosić, a ja mogę go w niniejszym felietonie zacytować. Z drugiej strony z prawa do wolności słowa wynika również prawo do niesłuchania... A "literacka" twórczość spamerów coraz bardziej przypomina już teraz zajdelowski koalang Paradyzji.
- Login to post comments
Piotr VaGla Waglowski
Piotr VaGla Waglowski - prawnik, publicysta i webmaster, autor serwisu VaGla.pl Prawo i Internet. Ukończył Aplikację Legislacyjną prowadzoną przez Rządowe Centrum Legislacji. Radca ministra w Departamencie Oceny Ryzyka Regulacyjnego a następnie w Departamencie Doskonalenia Regulacji Gospodarczych Ministerstwa Rozwoju. Felietonista miesięcznika "IT w Administracji" (wcześniej również felietonista miesięcznika "Gazeta Bankowa" i tygodnika "Wprost"). Uczestniczył w pracach Obywatelskiego Forum Legislacji, działającego przy Fundacji im. Stefana Batorego w ramach programu Odpowiedzialne Państwo. W 1995 założył pierwszą w internecie listę dyskusyjną na temat prawa w języku polskim, Członek Założyciel Internet Society Poland, pełnił funkcję Członka Zarządu ISOC Polska i Członka Rady Polskiej Izby Informatyki i Telekomunikacji. Był również członkiem Rady ds Cyfryzacji przy Ministrze Cyfryzacji i członkiem Rady Informatyzacji przy MSWiA, członkiem Zespołu ds. otwartych danych i zasobów przy Komitecie Rady Ministrów do spraw Cyfryzacji oraz Doradcą społecznym Prezesa Urzędu Komunikacji Elektronicznej ds. funkcjonowania rynku mediów w szczególności w zakresie neutralności sieci. W latach 2009-2014 Zastępca Przewodniczącego Rady Fundacji Nowoczesna Polska, w tym czasie był również Członkiem Rady Programowej Fundacji Panoptykon. Więcej >>