Biuro Porad Prawnych
Oskar Zacharski

ul. Żwirki i Wigury 33/43
26-600 Radom

NIP: 7962987711

600 784 526

o.zacharski@bppz.pl

DSA w Polsce: co naprawdę zmienia Akt o usługach cyfrowych?

DSA w Polsce

DSA (Digital Services Act), czyli unijny Akt o usługach cyfrowych, to regulacja, która miała uporządkować zasady odpowiedzialności i moderacji treści w internecie, a jednocześnie wzmocnić prawa użytkowników w sporach z platformami. DSA zaczęło w pełni obowiązywać w UE 17 lutego 2024 r. Od tego momentu standardy DSA dotyczą całego ekosystemu usług pośrednich, od hostingu po platformy społecznościowe.

W Polsce kluczowe emocje budzi nie sam fakt, że DSA istnieje, ale jak ma działać w praktyce? Kto ma egzekwować przepisy, jak szybko można blokować treści i jak zapewnić, by walka z przestępstwami online nie stała się pretekstem do „nadblokowania” legalnych wypowiedzi?

DSA: o co chodzi i kogo dotyczy?

DSA obejmuje „pośredników” i platformy online (m.in. marketplace’y, social media, platformy udostępniania treści, app store’y czy serwisy rezerwacyjne). W zależności od roli i skali biznesu, obowiązki są stopniowane: najmniejsze podmioty mają mniej wymogów, a bardzo duże platformy (VLOP/VLOSE) muszą spełniać najszersze standardy, w tym w zakresie oceny i ograniczania ryzyk systemowych.

Zapraszamy do współpracy

Szczegółowe informacje o ofercie i warunkach współpracy można uzyskać telefonicznie lub wysyłając zapytanie za pomocą formularza kontaktowego.

Co istotne dla debaty publicznej: według Komisji Europejskiej DSA ma zawierać „robust guarantees” wolności słowa i innych praw podstawowych, a mechanizmy ingerencji mają być konieczne, proporcjonalne i z możliwością kontroli sądowej.

„Nielegalne treści” w DSA: dlaczego to pojęcie jest kluczowe (i problematyczne)?

DSA nie tworzy jednej, unijnej listy „nielegalnych treści”. Logika regulacji jest inna: to prawo (krajowe lub unijne) definiuje, co jest nielegalne, a DSA opisuje procedury (np. zgłaszania i działania, uzasadniania decyzji, odwołań, transparentności). Ten brak jednej definicji jest często przywoływany jako źródło napięć, bo w praktyce platformy muszą operować na styku wielu porządków prawnych.

W polskiej debacie ten punkt wraca regularnie: jeśli „nielegalność” jest rozumiana szeroko lub nieprecyzyjnie, rośnie ryzyko, że platformy – z obawy przed sankcjami – będą usuwać treści „na wszelki wypadek”.

Nadblokowanie (overblocking): dlaczego DSA może je ograniczać… albo niechcący wzmacniać?

Jedna z najbardziej merytorycznych osi sporu wygląda tak:

  • Argument krytyków: DSA zwiększa presję regulacyjną, więc platformy – aby minimalizować ryzyko – mogą usuwać treści prewencyjnie, nawet jeśli są legalne, co zubaża debatę publiczną. Ten kierunek myślenia pojawia się m.in. w analizach badawczych i komentarzach akademickich dotyczących roli platform jako „gatekeepers” dla wolności wypowiedzi.
  • Argument projektodawców i instytucji UE: DSA wprowadza zestaw bezpieczników (uzasadnienia decyzji, procedury skargowe, pozasądowe rozwiązywanie sporów, transparentność), które mają właśnie ograniczać arbitralność i overremoval.

Warto tu znać konkret: DSA wymaga, by platformy przekazywały użytkownikom „statement of reasons” (uzasadnienie decyzji moderacyjnej), a w przypadku VLOP/VLOSE – by takie uzasadnienia trafiały do DSA Transparency Database, co ma umożliwiać analizę skali i kierunków moderacji.

Trusted flaggers w DSA: „zaufani zgłaszający” jako przyspieszona ścieżka

W DSA istnieje instytucja trusted flaggers (zaufanych podmiotów sygnalizujących). Ich zgłoszenia platformy mają traktować priorytetowo i szybko, bo trusted flagger to status nadawany przez krajowego koordynatora usług cyfrowych podmiotom spełniającym kryteria kompetencji i niezależności.

W teorii to mechanizm „odszumiania” zgłoszeń: mniej spamu, więcej jakości. W praktyce krytycy obawiają się, że w niektórych państwach może to stać się narzędziem nacisku – dlatego tak istotne są standardy niezależności koordynatorów i transparentność procesu nadawania statusu.

DSA w Polsce: co wiemy o wdrożeniu i kto ma egzekwować przepisy?

Z perspektywy praktycznej najważniejsze są trzy elementy:

1) Koordynator usług cyfrowych (DSC) – rola UKE

W polskim modelu Prezes UKE ma pełnić funkcję koordynatora ds. usług cyfrowych (DSC), w tym m.in. rozpatrywać skargi użytkowników i współpracować z organami UE. Równolegle kompetencje sektorowe mają mieć też UOKiK (platformy e-commerce) oraz KRRiT (usługi udostępniania wideo).

Co ważne: UE podkreśla, że koordynatorzy powinni być niezależni i mieć adekwatne zasoby, bo inaczej egzekwowanie DSA będzie „papierowe”.

2) Procedura blokowania treści – zamknięty katalog przestępstw

W komunikacie rządowym wskazywano, że projekt przewiduje procedurę wydawania nakazów blokowania treści odnoszących się do ściśle określonych przestępstw (łącznie 27 czynów).

W senackich materiałach i przebiegu prac akcentowano też logikę: skoro prawo UE nie wylicza „treści nielegalnych”, krajowy ustawodawca próbuje je enumeratywnie zakotwiczyć w typach czynów zabronionych, aby ograniczyć uznaniowość.

3) Odwołania użytkowników – spór o realną „tarczę” przed arbitralną moderacją

Istotnym elementem polskiego wdrożenia jest ścieżka, w której użytkownik ma móc kwestionować decyzje platform i dochodzić przywrócenia treści, jeśli blokada była bezpodstawna. To właśnie ten wątek Panoptykon mocno eksponował jako realne wzmocnienie wolności słowa (o ile rozwiązanie będzie dostępne „masowo”, a nie wyłącznie w wąskim katalogu przypadków).

Dlaczego DSA w Polsce budzi kontrowersje? 5 punktów zapalnych

1) Szybkość decyzji vs. gwarancje proceduralne

Szybkie terminy administracyjne mogą być atutem w walce z oszustwami i przemocą, ale im szybsza ścieżka, tym większe ryzyko błędów. W debacie senackiej pojawił się wątek wzmacniania roli sądu jako „ostatniej instancji”, a część poprawek miała ograniczać automatyzm natychmiastowej wykonalności.

2) „Dezinformacja” jako hasło polityczne vs. kategoria prawna

DSA dotyka ryzyk systemowych (w tym dezinformacji) głównie w reżimie obowiązków dla VLOP/VLOSE, ale dyskusja polityczna często miesza porządki: „dezinformacja” bywa używana szeroko, a to zwiększa ryzyko nadinterpretacji. Jednocześnie instytucje UE podkreślają gwarancje wolności wypowiedzi i proporcjonalność działań.

3) Trusted flaggers: skuteczność czy „uprzywilejowany kanał nacisku”?

Mechanizm może przyspieszać reakcję na treści faktycznie nielegalne, ale wymaga twardych reguł niezależności i jawności, bo inaczej będzie postrzegany jako narzędzie selektywnej moderacji.

4) Realne zasoby organów nadzoru

DSA zakłada regulatora zdolnego rozumieć algorytmy, ryzyka systemowe i mechanizmy platform. Komisja Europejska wprost mówi o konieczności zasobów finansowych, technicznych i kadrowych po stronie DSC.

5) Zderzenie dwóch narracji: „bezpieczniejszy internet” vs. „system kontroli debaty”

Krytycy, w tym część komentatorów akademickich, ostrzegają przed przenoszeniem funkcji „quasi-sądu” na prywatne platformy i przed ryzykiem dla wolności słowa.
Z kolei rząd akcentuje ochronę użytkowników, walkę z oszustwami i możliwość skutecznego odwołania się od błędnych decyzji platform.

Co DSA oznacza dla firm, e-commerce i twórców?

Jeśli działasz online, DSA warto czytać nie jako „regulację dla Big Techów”, tylko jako zmianę standardu rynkowego. Najbardziej praktyczne konsekwencje to:

  • większa waga regulaminów i zasad moderacji (muszą być jasne, spójne i egzekwowalne),
  • rosnące znaczenie procedur skargowych i odwoławczych,
  • presja na transparentność decyzji (w tym uzasadnienia),
  • większe ryzyko reputacyjne, jeśli Twoje treści lub konto zostaną zablokowane – i jednocześnie większa szansa na sensowną ścieżkę odwoławczą (w zależności od finalnego kształtu wdrożenia).

FAQ: DSA (najczęstsze pytania SEO)

1) DSA – co to jest?

DSA (Digital Services Act) to unijne rozporządzenie, które ustala obowiązki usług pośrednich i platform online w zakresie m.in. reagowania na treści nielegalne, transparentności moderacji, reklam oraz ochrony użytkowników.

2) Od kiedy obowiązuje DSA?

DSA w pełnym zakresie stosuje się w UE od 17 lutego 2024 r., a dla bardzo dużych platform część obowiązków zaczęła działać wcześniej (po ich formalnym wyznaczeniu).

3) Czy DSA wprowadza cenzurę?

Instytucje UE wskazują, że DSA zawiera gwarancje wolności słowa i mechanizmy kontroli decyzji, a działania muszą być proporcjonalne i podlegać zaskarżeniu. Krytycy odpowiadają, że presja regulacyjna może zwiększać ryzyko nadblokowania. W praktyce „testem prawdy” będzie egzekucja i działanie środków odwoławczych.

4) Kim są trusted flaggers w DSA?

Trusted flaggers to „zaufani zgłaszający”, którym status nadaje krajowy koordynator usług cyfrowych. Ich zgłoszenia platformy mają obsługiwać priorytetowo, bo mają być składane przez podmioty kompetentne i niezależne.

5) Kto w Polsce ma egzekwować DSA?

W polskim modelu kluczową rolę ma odgrywać Prezes UKE jako koordynator usług cyfrowych, a kompetencje sektorowe przewidziano także dla UOKiK (e-commerce) i KRRiT (wideo).

6) Na jakim etapie jest ustawa wdrażająca DSA w Polsce?

Sejm uchwalił nowelizację wdrażającą DSA 21 listopada 2025 r., następnie prace toczyły się w Senacie (w tym posiedzenia komisji 9 grudnia 2025 r.), a w grudniu 2025 r. medialnie opisywano też pakiet poprawek senackich.