Strony z fałszywymi treściami generowanymi przez AI mogą być destrukcyjne dla społeczeństwa, negatywnie wpływać na zaufanie do mediów oraz rozpoznawanie dezinformacji - wskazali PAP prof. Aleksandra Przegalińska oraz prezes ZPWC Maciej Kossowski.
W grudniu 2025 r. specjalistka w dziedzinie sztucznej inteligencji prof. Przegalińska poinformowała w serwisie X o istnieniu szeregu stron internetowych prowadzonych przez jeden podmiot, na których znajdują się fałszywe treści na jej temat, masowo generowane przy pomocy AI. Jak podała ekspertka, na tych “farmach treści“ publikowane są fake newsy także o innych osobach publicznych, m.in. aktorach i politykach, w tym wicepremierze i ministrze cyfryzacji Krzysztofie Gawkowskim oraz o znanych, polskich i zagranicznych markach.
“Po mojej interwencji konkretne wpisy zniknęły, ale same strony nadal działają, bo ich logika nie dotyczy jednej osoby ani jednego tekstu. To są fabryki treści, które w miejsce usuniętych materiałów natychmiast produkują kolejne. Dla ich twórców pojedyncza korekta czy zgłoszenie to tylko koszt operacyjny, a nie realna bariera“ - przekazała PAP prof. Przegalińska.
Zaznaczyła, że kiedy zobaczyła fałszywe treści o sobie, towarzyszyło jej zdziwienie, irytacja i poczucie bezradności. “To doświadczenie jest niepokojące, bo uświadamia, jak łatwo można stworzyć alternatywną wersję rzeczywistości, która zaczyna żyć własnym życiem, niezależnie od faktów i intencji osób, których dotyczy“ - podkreśliła.
“Tego typu stron nie można w żadnym wypadku uznać za dziennikarstwo“ - zaznaczył z kolei Maciej Kossowski, prezes Związku Pracodawców Wydawców Cyfrowych (ZPWC), zrzeszającego największe spółki mediowe w Polsce. Jak podkreślił Kossowski, strony z treściami o niskiej jakości powstawały od lat. Ich uruchomienie nie było trudne, ale jednak potrzebni byli do tego ludzie - wskazał.
“Teraz, z AI, jest to banalne. Jeden człowiek może tworzyć dziesiątki treści i serwisów w dowolnym temacie“ - zaznaczył.
Zdaniem prof. Przegalińskiej tego typu portale powstają głównie z powodów ekonomicznych i politycznych. “Generowanie masowych treści przez AI jest tanie, szybkie i łatwo je monetyzować przez reklamy albo manipulowanie ruchem“ - zauważyła. Oceniła, że osobom, które stoją za takimi stronami często towarzyszy też chęć wpływu na debatę publiczną, testowania narracji albo chęć wywołania chaosu informacyjnego, sprzyjającego tym, którzy potrafią nim zarządzać.
“Skutki istnienia takich stron są poważne“ - podkreśliła. Jak podała, dla jednostek oznacza to “ryzyko reputacyjne, stres i konieczność ciągłego reagowania na nieprawdziwe informacje“. Natomiast dla społeczeństwa oznacza to - według ekspertki - “erozję zaufania do mediów, ekspertów i instytucji, a w dłuższej perspektywie także osłabienie zdolności do odróżniania wiedzy od dezinformacji“.
Według prezesa ZPWC, przypadek prof. Przegalińskiej powinien zostać potraktowany jako ostrzeżenie. “To prymitywne działania ukierunkowane na zarabianie pieniędzy, ale powinno nam uświadomić, jak groźne mogą być współczesne narzędzia w rękach obcych służb, które chcą destabilizować społeczeństwa“ - podkreślił Kossowski. “Przykłady można mnożyć. Wyobraźmy sobie ťfejkowyŤ serwis z poradami medycznymi lub psychologicznymi, których nikt nie weryfikuje i jakie skutki może mieć taka działalność“ - podał.
Według ekspertów, walka z tym zjawiskiem wymaga kilku równoległych działań, w tym legislacyjnych. “Potrzebne są mądre regulacje, które nie zabiją innowacji, ale ograniczą rozprzestrzenianie technologii, które mogą być destrukcyjne dla społeczeństw“ - ocenił Kossowski.
Jeżeli chcesz codziennie otrzymywać informacje o aktualnych publikacjach ukazujących się na portalu netTG.pl Gospodarka i Ludzie, zapisz się do newslettera.