W środę, 12 września, Parlament Europejski przyjął projekt dyrektywy o prawie autorskim, której artykuł 13 krytykowaliśmy od samego początku. Dla Panoptykonu punktem wyjścia w tej dyskusji jest nie tyle regulacja ochrony praw autorskich czy value gap, ale rola dominujących platform internetowych, takich jak Facebook czy Google. Takie platformy w coraz większym stopniu decydują, z jakimi treściami w Internecie będziemy się mogli zapoznać, a z jakimi nie. Do tej pory robiły to przede wszystkim z własnej inicjatywy. Teraz ich arbitralne działania chce usankcjonować Parlament Europejski.

Z mediów docierają do nas różne przekazy: jedni mówią o końcu wolności Internetu i „ACTA2”, inni – o tym, że Parlament Europejski w końcu zajął się ochroną praw twórców, a krytyka umowy to nieporozumienie. Dlatego w pytaniach i odpowiedziach przyglądamy się temu, co znalazło się w dyrektywie w przyjętej wczoraj wersji.

W czym widzimy problem?

W rosnącej roli platform internetowych, które mają coraz większy wpływ na to, jakie informacje do nas docierają, a jakie nie. Obawiamy się, że powierzenie platformom zadań prywatnego cenzora spowoduje ograniczenie praw i wolności użytkowników, a zwłaszcza wolności słowa i dostępu do informacji w sieci. Zaporowe koszty wdrażania technicznych rozwiązań monitorowania treści lub zatrudniania „czyścicieli Internetu” spowodują umocnienie się duopolu informacyjnego Facebooka i Googla, którzy będą arbitralnie kształtować zasady dostępu do dóbr kultury czy wiadomości politycznych.

Doświadczenia pokazują, że stosowanie przez największe platformy algorytmów wykrywających nielegalne treści (niezależnie od tego, czy chodzi o naruszenia prawa autorskiego, czy innych praw) sprzyja nadmiernym blokadom – bywa, że z portalów usuwane są np. memy zawierające parodię, materiały krytycznie odnoszące się do danej opcji politycznej czy też po prostu „treści niezgodne z zasadami społeczności”. Bardzo często bez uzasadnienia i bez ścieżki odwoławczej. Internet żyje szybko. Nawet jeśli uda nam się skutecznie odwołać od decyzji portalu, to może okazać się, że nasza treść straciła na aktualności i nie jest już potrzebna.

Kto będzie musiał stosować dyrektywę?

Portale, które będą podlegały postanowieniom dyrektywy, muszą posiadać dwie cechy. Po pierwsze, muszą przechowywać „duże ilości” utworów zamieszczanych przez użytkowników. Co to znaczy? Przepisy tego nie precyzują. Po drugie, dyrektywę będą musiały stosować te portale, które aktywnie promują przechowywane treści i optymalizują ich wyświetlanie, np. szeregują je, tagują, wyświetlają podobne treści. Dyrektywa nie znajdzie z kolei zastosowania w przypadku mikro i małych przedsiębiorców oraz w przypadku portali, które mają charakter niekomercyjny. Nie ulega jednak wątpliwości, że przepisy dyrektywy obejmą portale dominujące na rynku, czyli Facebooka oraz należącego do Google’a YouTube’a.

Dlaczego boimy się filtrowania, skoro nie ma o nim mowy w dyrektywie?

Rzeczywiście: dyrektywa nie wspomina bezpośrednio o filtrowaniu Internetu. To jednak nie oznacza, że filtrowanie nie będzie praktyczną konsekwencją przyjętych przepisów. Wszystko dlatego, że portale, o których piszemy wyżej, mają od teraz być odpowiedzialne za całą treść, którą zamieszczają użytkownicy. Jeśli portalom nie uda się zawrzeć umów licencyjnych z właścicielami praw autorskich, będą musiały zadbać o to, by chronione prawem utwory nie były zamieszczane na ich stronie – w przeciwnym razie mogą je czekać poważne konsekwencje finansowe. Jak to zrobić przy ogromie zamieszczanych przez użytkowników treści? Praktyka największych portali pokazuje, że filtrowanie będzie nieuniknione, nawet jeśli w dyrektywie nie ma o nim ani słowa.

Jakie gwarancje będą mieli użytkownicy, jeśli portal usunie treść, która jest zgodna z prawem?

Tego nie wiemy dokładnie. To państwa członkowskie przy wdrażaniu dyrektywy mają określić, w jaki sposób chronione będą prawa użytkowników do swobody wypowiedzi. Dyrektywa jedynie sygnalizuje, że użytkownicy powinni mieć możliwość odwołania się od decyzji portalu i że takie odwołanie powinno być rozpatrywane przez człowieka, a nie przez maszynę. Na ile ten mechanizm zostanie szczegółowo opisany w przepisach, a na ile o jego kształcie będą decydowały same portale, jednocześnie wzmacniając swoją arbitralność? Tego nie wiemy.

Kto będzie czuwał nad tym, czy portale rzetelnie rozpatrują zażalenia użytkowników?

Nie wiadomo. Dyrektywa jedynie wspomina o tym, że użytkownicy powinni mieć dostęp do niezależnego organu, który będzie rozstrzygał spory i dbał o to, żeby portal nie kasował treści zawierających np. parodię czy inne formy dozwolonego użytku. Co to będzie za organ, jak długo potrwa rozpatrywanie spraw – tego dowiemy się dopiero z ustawy implementującej dyrektywę.

Czy dyrektywa już obowiązuje?

Nie, przed dyrektywą kolejny etap unijnego procesu legislacyjnego. Swoją wersję dyrektywy będą teraz wypracowywać państwa członkowskie, których przedstawiciele (w osobie ministrów zajmujących się w danym państwie prawem autorskim) zgromadzeni są w Radzie Unii Europejskiej. Następnie dojdzie do tzw. trialogu, w którym Rada, Parlament i Komisja wynegocjują ostateczną wersję dyrektywy.

Karolina Iwańska

Polecamy również nasze wcześniejsze publikacje i publikacje Centrum Cyfrowego:

Panoptykon: Problem większy niż ochrona praw autorskich w sieci

Panoptykon: Mówimy "nie!" filtrowaniu treści w Internecie

Centrum Cyfrowe: Internet NIE dla ludzi. Zasmucające stanowisko Parlamentu Europejskiego w sprawie reformy prawa autorskiego

Centrum Cyfrowe: Cory Doctorow: Nie w naszym imieniu. Dlaczego europejscy twórcy muszą sprzeciwić się ograniczeniu linkowania i cenzurze internetu