Biuro Porad Prawnych
Oskar Zacharski

ul. Żwirki i Wigury 33/43
26-600 Radom

NIP: 7962987711

600 784 526

o.zacharski@bppz.pl

AI w mediach. Co myślą Polacy? Wnioski z badania KRRiT

Sztuczna inteligencja w mediach

AI w mediach nie jest już ciekawostką technologiczną, tylko elementem codziennej produkcji treści. Coraz częściej wspiera research, tłumaczenia, obróbkę materiałów wizualnych czy automatyzację prostych form informacyjnych. Jednocześnie rośnie napięcie wokół zaufania: odbiorcy chcą korzystać z wygody, jaką daje technologia, ale nie akceptują braku przejrzystości i ryzyka manipulacji.

Dobrą mapę tych nastrojów daje raport z badania opinii publicznej zrealizowanego przez Ogólnopolską Grupę Badawczą (OGB) na zlecenie Krajowej Rady Radiofonii i Telewizji (KRRiT), zaprezentowany podczas konferencji „AI – media w erze algorytmów” (grudzień 2025).

Badanie KRRiT: metodologia w skrócie

Badanie przeprowadzono w dniach 23 – 27.10.2025 r. metodą CATI na reprezentatywnej próbie N=1000 pełnoletnich mieszkańców Polski, dobranej kwotowo-losowo m.in. według płci, wieku, wykształcenia i miejsca zamieszkania (wg danych GUS).

Zapraszamy do współpracy

Szczegółowe informacje o ofercie i warunkach współpracy można uzyskać telefonicznie lub wysyłając zapytanie za pomocą formularza kontaktowego.

To oznacza, że raport opisuje nie „opinię bańki technologicznej”, tylko przekrojowy obraz społecznych postaw wobec wykorzystania AI w telewizji, radiu oraz w Internecie.

92,29% Polaków wie, że dziennikarze korzystają z AI

Pierwszy mocny wniosek to skala świadomości: 92,29% respondentów deklaruje, że ma świadomość wykorzystywania AI przez dziennikarzy w telewizji, radiu i internetowych portalach informacyjnych.

Wysoka świadomość nie przekłada się jednak automatycznie na akceptację. Gdy badani dowiadują się, że cały materiał medialny został wygenerowany przez system AI, najczęściej deklarowaną emocją jest niepewność. Dokładnie 59,54% odpowiada: „Czuję się niepewnie – wolę treści tworzone przez ludzi”.

Ta kombinacja (wysoka świadomość + wysoka niepewność) jest kluczowa dla strategii mediów: odbiorcy wiedzą, że AI już działa w tle, ale oczekują jasnych reguł i sygnałów jakości.

Oznaczanie treści AI. 95,80% oczekuje jednoznacznej informacji

Najbardziej jednoznaczny sygnał z raportu dotyczy transparentności. Aż 95,80% badanych uważa, że treści tworzone z wykorzystaniem AI powinny być wyraźnie oznaczone, w tym 82,79% odpowiada „zdecydowanie tak”.

To wynik, który w praktyce zmienia status oznaczeń z „opcji wizerunkowej” na „rynkowy wymóg zaufania”. Innymi słowy: brak czytelnego oznaczenia nie jest neutralny. Dla części odbiorców będzie sygnałem, że medium unika odpowiedzialności lub próbuje ukryć sposób powstania materiału.

Gdzie odbiorcy widzą sens AI: tłumaczenia, oszczędność czasu i lepsza warstwa wizualna

Raport pokazuje, że Polacy dostrzegają konkretne, praktyczne korzyści AI w mediach. Najczęściej wskazywane są automatyczne tłumaczenia treści zagranicznych (51,14%), oszczędność czasu przy tworzeniu i pozyskiwaniu informacji (41,11%) oraz poszerzenie możliwości wizualnych i estetycznych w prezentacji informacji, np. grafika danych czy wizualizacje (35,71%).

To ważne, bo akceptacja rośnie tam, gdzie AI jest postrzegana jako narzędzie „wspierające warsztat”, a nie jako zamiennik człowieka. Odbiorcy mogą kupować „ułatwienia”, ale dużo trudniej akceptują „zastępowanie”.

Największe obawy: manipulacja, dezinformacja i halucynacje AI

Po stronie ryzyk dominują kwestie wpływu na opinię publiczną i jakości przekazu. Najczęściej wskazywanym zagrożeniem jest możliwość manipulowania opinią publiczną za pomocą treści tworzonych przez algorytmy (66,77%). Kolejne to wzrost ryzyka dezinformacji (44,79%) oraz tzw. halucynacje AI, czyli generowanie błędnych lub fałszywych informacji jako faktów (44,38%).

Dla rynku mediów to jasna informacja: największe ryzyko nie dotyczy „technicznej nowości”, tylko fundamentu relacji medium–odbiorca, czyli wiarygodności i rzetelności.

Człowiek kontra AI: preferencje są jednoznaczne

W pytaniu o preferowaną formę przekazu przewaga człowieka jest przytłaczająca. 95,67% respondentów wskazuje, że woli przekaz tworzony przez człowieka, 3,39% jest obojętne, a 0,94% wybiera przekaz generowany przez AI.

To nie musi oznaczać odrzucenia narzędzi AI jako takich. Raczej potwierdza, że odbiorcy nadal oczekują „ludzkiej odpowiedzialności” – kogoś, kto weryfikuje, rozumie kontekst i ponosi konsekwencje publikacji.

Prezenter AI w telewizji, radiu i internecie: różnice są widoczne, ale sceptycyzm dominuje

Raport rozdziela akceptację „prezentera wygenerowanego przez AI” w zależności od medium i tu widać ciekawą gradację. W telewizji 76,01% badanych nie akceptuje takiego rozwiązania, 16,11% nie ma zdania, a 7,88% akceptuje. W radiu sprzeciw wynosi 73,09%, brak zdania 17,48%, a akceptacja 9,43%.

Najwyższą akceptację (choć nadal mniejszościową) uzyskuje internet: 67,34% odpowiada „nie”, 19,07% „nie mam zdania”, a 13,59% „tak”.

W praktyce to sygnał, że odbiorcy są nieco bardziej skłonni tolerować eksperymenty w środowisku cyfrowym, ale nie udzielają „powszechnego mandatu” na zastępowanie człowieka syntetycznymi postaciami.

Granice etyczne są ostre: „podszywanie się” AI pod osoby zmarłe w publicystyce

Jednym z najmocniejszych wyników w raporcie jest sprzeciw wobec wykorzystywania AI do podszywania się pod osoby zmarłe w rozmowach publicystycznych (np. wywiady radiowe). 93,28% badanych odpowiada „nie”, 4,12% nie ma zdania, a 2,60% odpowiada „tak”.

To wprost pokazuje, że nawet jeśli technologia umożliwia „wskrzeszanie głosu” czy wizerunku, społeczne przyzwolenie w obszarze publicystyki jest skrajnie niskie. Dla mediów to nie tylko kwestia etyki, ale też reputacji i ryzyka utraty zaufania.

Ciekawa statystyka, która zmienia perspektywę: zaufanie do „kontrolowanego” użycia AI jest niskie

Najbardziej „diagnostyczną” liczbą w raporcie nie jest sama świadomość korzystania z AI, tylko poziom zaufania do tego, że media robią to odpowiedzialnie. Na pytanie, czy respondenci ufają, że media i dziennikarze należycie i w kontrolowany sposób wykorzystują AI w swojej pracy, tylko 17,66% odpowiada „tak”. Aż 63,46% odpowiada „nie”, a 18,88% wybiera odpowiedź pośrednią („ani tak, ani nie”).

Ten wynik dobrze tłumaczy, dlaczego oznaczanie treści i komunikowanie procedur jest tak ważne. Odbiorcy nie mówią „nie” technologii, tylko mówią „sprawdźcie to, pokażcie zasady i udowodnijcie, że panujecie nad procesem”.

Co z tego wynika? 5 wniosków dla mediów, twórców i regulatorów

Wyniki badania prowadzą do wniosku, że oznaczanie treści tworzonych z wykorzystaniem AI powinno stać się rynkowym standardem, a nie fakultatywną praktyką zależną od redakcji czy platformy. Skoro 95,80% badanych oczekuje wyraźnych oznaczeń, transparentność staje się warunkiem zaufania i elementem jakości przekazu, a nie wyłącznie kwestią wizerunkową.

Jednocześnie widać wyraźną różnicę w akceptacji społecznej w zależności od roli, jaką AI pełni w procesie tworzenia przekazu. Odbiorcy relatywnie lepiej oceniają zastosowania wspierające, takie jak tłumaczenia czy usprawnienia w pracy z informacją, niż rozwiązania, które zastępują człowieka w roli prezentera lub prowadzą do pełnej automatyzacji przekazu. Potwierdzają to zarówno odpowiedzi o korzyściach (gdzie wysoko są tłumaczenia), jak i sceptycyzm wobec prezenterów AI, szczególnie w telewizji i radiu.

Trzeci wniosek dotyczy ryzyk, które w oczach odbiorców są kluczowe: manipulacji i dezinformacji. Skoro 66,77% obawia się manipulowania opinią publiczną, a około 44–45% wskazuje ryzyko dezinformacji i halucynacji AI, to priorytetem dla mediów powinno być wzmacnianie weryfikacji, kontroli jakości i pracy na źródłach, a dla regulatorów oraz branży – rozwijanie standardów minimalizujących ryzyko publikacji treści błędnych lub wprowadzających w błąd.

Czwarty wniosek jest spójny z ogólną preferencją treści tworzonych przez ludzi: odbiorcy oczekują, że człowiek pozostanie ostatecznym „bezpiecznikiem” jakości i rzetelności. Skoro 95,67% woli przekaz tworzony przez człowieka, rola człowieka jako finalnego weryfikatora powinna być komunikowana jasno i wiarygodnie, jako realny element procesu redakcyjnego, a nie deklaracja marketingowa.

Wreszcie, raport pokazuje bardzo wyraźne granice etyczne, szczególnie w obszarze podszywania się AI pod osoby zmarłe w publicystyce. Przy sprzeciwie na poziomie 93,28% trudno mówić o społecznym mandacie dla takich praktyk, co oznacza wysokie ryzyko reputacyjne i potencjalnie eskalację kryzysów zaufania.

Podsumowanie: społeczne „tak” dla narzędzi, ale „tak pod warunkami”

Jeśli zebrać raport w jednym zdaniu, brzmiałoby ono następująco: Polacy dopuszczają AI w mediach jako narzędzie, ale oczekują przejrzystości, ludzkiej kontroli i realnych zabezpieczeń przed manipulacją. Wysoka świadomość wykorzystywania AI w pracy dziennikarzy (92,29%) idzie w parze z dominującą niepewnością wobec treści generowanych algorytmicznie (59,54%), a prawie powszechne oczekiwanie oznaczania materiałów AI (95,80%) jest odpowiedzią na niskie zaufanie do tego, że media korzystają z tej technologii w sposób kontrolowany (63,46% odpowiedzi „nie”).

FAQ pod SEO: najczęstsze pytania o AI w mediach w Polsce

Czy Polacy chcą oznaczania treści tworzonych przez AI?
Tak. 95,80% respondentów uważa, że treści generowane z wykorzystaniem AI powinny być wyraźnie oznaczone.

Jaka jest największa obawa związana z AI w mediach?
Najczęściej wskazywana jest możliwość manipulowania opinią publiczną za pomocą treści tworzonych przez algorytmy (66,77%).

Czy Polacy akceptują prezenterów AI w telewizji i radiu?
W większości nie. Sprzeciw wobec prezenterów AI wynosi 76,01% w telewizji i 73,09% w radiu.

Czy Internet jest bardziej otwarty na prezenterów AI?
Relatywnie tak, ale nadal dominuje sprzeciw. Akceptacja w Internecie wynosi 13,59%, a odpowiedź „nie” wskazuje 67,34% badanych.

Czy Polacy ufają, że media używają AI w sposób kontrolowany?
Poziom zaufania jest niski: 17,66% odpowiada „tak”, a 63,46% „nie”.