AI generujące prawdziwe i fałszywe informacje – ilustracja raportu NewsGuard 2025

Dlaczego AI rozprzestrzenia dezinformację: Dane z najnowszego raportu NewsGuard

Świeżo opublikowany raport NewsGuard ujawnia niepokojącą prawdę o obecnym stanie sztucznej inteligencji. Pomimo obietnic firm technologicznych o bezpieczniejszych systemach AI, wskaźnik rozprzestrzeniania fałszywych informacji prawie się podwoił – z 18% w sierpniu 2024 do 35% w sierpniu 2025.

Problem, który się pogłębia zamiast rozwiązywać

Badanie objęło 10 najważniejszych narzędzi AI na rynku, w tym ChatGPT, Claude, Gemini i Perplexity. Wyniki są alarmujące: co trzecia odpowiedź na pytania dotyczące bieżących wydarzeń zawiera obecnie dezinformację.

Pełny ranking modelów AI (od najlepszych do najgorszych):

  1. Claude: 10% błędnych odpowiedzi
  2. Gemini: 16,67%
  3. Grok: 33,33%
  4. You.com: 33,33%
  5. Mistral: 36,67%
  6. Copilot: 36,67%
  7. ChatGPT: 40%
  8. Meta: 40%
  9. Perplexity: 46,67%
  10. Inflection: 56,67%

Kluczowe trendy:

  • 35% odpowiedzi zawiera fałszywe informacje (wzrost z 18%)
  • 0% odmów udzielenia odpowiedzi (spadek z 31%)
  • Wszystkie modele odpowiadają teraz na każde pytanie (koniec ery „nie wiem”)

Dlaczego problem się nasilił?

Fundamentalny problem leży w architektonicznej zmianie podejścia firm AI. W pogoni za responzywnością systemów, firmy zintegrowały wyszukiwanie internetowe w czasie rzeczywistym. Skutek? Systemy AI przestały odmawać odpowiedzi, ale zaczęły czerpać informacje z zanieczyszczonego internetowego ekosystemu informacyjnego.

Strukturalny kompromis:

  • Wcześniej: AI odmawiało odpowiedzi w 31% przypadków
  • Obecnie: AI odpowiada zawsze, ale w 35% przypadków nieprawdziwie

Rosyjskie sieci dezinformacyjne wykorzystują słabości AI

Raport dokumentuje systematyczne wykorzystywanie przez rosyjskie operacje propagandowe słabości systemów AI:

  • 32% przypadków w lipcu 2024: modele AI powtarzały rosyjską propagandę z sieci Storm-1516
  • 33% przypadków w marcu 2025: systemy cytowały fałszywe informacje z sieci Pravda (150 moskiewskich witryn pro-kremlowskich)

Studium przypadku: Dezinformacja o Mołdawii

W najnowszym teście, 6 z 10 modeli AI powtórzyło fałszywą informację o moldawskim polityku Igorze Grosu, jakoby porównywał obywateli do „stada owiec”. To był sfabrykowany materiał rosyjskiej operacji dezinformacyjnej przed wyborami parlamentarnymi w Mołdawii.

Mistral AI odpowiedział: „Tak, Igor Grosu porównał Mołdawian do 'stada owiec'” i jako źródło podał artykuł z sieci Pravda – organizacji objętej sankcjami UE za rozprzestrzenianie dezinformacji.

Mistral AI: Europejska konkurencja dla amerykańskich gigantów

Mistral AI, francuski model promowany przez prezydenta Emmanuela Macrona jako europejska odpowiedź na amerykańską dominację w AI, osiąga wyniki porównywalne z konkurencją:

  • 36,67% błędnych odpowiedzi – lepiej niż ChatGPT i Meta (po 40%)
  • Brak postępu w ciągu roku (identyczny wynik w 2024 i 2025)
  • Problematyczne źródła – cytowanie sankjonowanych źródeł dezinformacyjnych
  • Partnerstwo z Agence France-Presse nie poprawiło jakości odpowiedzi

Wyniki pokazują, że pochodzenie AI (amerykańskie vs europejskie) nie determinuje jakości – problem jest systemowy dla całej branży.

Perplexity: Dramatyczny spadek niezawodności

Szczególnie niepokojący jest przypadek Perplexity. W sierpniu 2024 osiągnęło 100% wskaźnik debunkowania dezinformacji – oznacza to, że zawsze prawidłowo rozpoznawało i obalało fałszywe twierdzenia (choć czasem odmawiało odpowiedzi).

Rok później sytuacja się dramatycznie zmieniła:

  • 46,67% błędnych odpowiedzi w sierpniu 2025
  • 0% odmów odpowiedzi (wcześniej odmawiało w trudnych przypadkach)
  • Utrata ostrożności – system przestał odmawać w sytuacjach niepewności

Użytkownicy Reddita masowo skarżą się na spadek jakości tego narzędzia.

Nowe metody omijania zabezpieczeń

Sieci dezinformacyjne dostosowują się do blokad. Microsoft Copilot przestał cytować strony Pravda po marcowym raporcie NewsGuard, ale w sierpniu znów powtarzał ich treści – tym razem czerpał z postów Pravda w rosyjskiej sieci społecznościowej VK.

Strategia zalewania informacji:

  • Konto Pravda Catalan na VK: 21 obserwujących, 3000 postów w 5 miesięcy
  • Zero interakcji ludzkich (brak polubień, komentarzy, udostępnień)
  • Cel: wpływanie na modele językowe, nie na ludzi

Co to oznacza dla biznesu?

Natychmiastowe implikacje:

  1. Weryfikacja informacji z AI musi stać się standardem
  2. Szkolenia zespołów w rozpoznawaniu dezinformacji są kluczowe
  3. Polityki bezpieczeństwa informacyjnego wymagają aktualizacji

Długoterminowe konsekwencje:

  • Normalizacja zanieczyszczonego ekosystemu informacyjnego
  • Erozja zaufania do narzędzi AI
  • Przewaga państw autorytarnych w wojnie informacyjnej

Szczerość branży o problemie

Sam Altman, CEO OpenAI, powiedział wprost w czerwcu 2025: „Ludzie bardzo ufają ChatGPT, co jest interesujące, bo AI halucynuje. To powinna być technologia, której nie ufasz zbytnio.”

Jensen Huang z Nvidia już w listopadzie 2024 ostrzegał: „Musimy dojść do punktu, w którym odpowiedzi, które otrzymujesz, będziesz mógł w dużej mierze im zaufać. Myślę, że jesteśmy od tego kilka lat.”

Rok później mamy odwrotny postęp.

Praktyczne rekomendacje dla firm

Dla polskich firm średniej wielkości (50-200 pracowników):

  1. System weryfikacji wieloźródłowej
    • Implementacja protokołów sprawdzania AI przez minimum 2 niezależne źródła
    • Szacowany koszt: 15-25 tys. zł rocznie
    • Zwrot z inwestycji: redukcja ryzyka błędnych decyzji o 60-80%
  2. Protokoły bezpieczeństwa informacyjnego
    • Obowiązkowa weryfikacja wszystkich danych AI przed użyciem w procesach biznesowych
    • Lista zatwierdzonych źródeł dla różnych obszarów działalności
    • Procedury eskalacji przy wątpliwościach
  3. Szkolenia zespołów
    • Warsztat rozpoznawania dezinformacji dla kluczowych pracowników
    • Koszt: 800-1200 zł na uczestnika
    • Czas trwania: 8 godzin

Dla sektora finansowego:

  1. Podwójna weryfikacja regulacyjna
    • Każda informacja AI dotycząca compliance musi być potwierdzona przez oficjalne źródła (NBP, KNF)
    • Automatyczne flagi dla danych starszych niż 24 godziny
  2. Audit trail decyzji
    • Dokumentacja wszystkich zapytań AI używanych w decyzjach biznesowych
    • System śledzenia źródeł informacji

Realny koszt braku działania

Problem dezinformacji w AI nie jest teoretyczny. Błędne informacje mogą prowadzić do:

  • Nieprawidłowych analiz rynkowych kosztujących miliony złotych
  • Naruszenia wymogów compliance w branży finansowej
  • Szkód reputacyjnych wobec klientów i partnerów
  • Błędnych decyzji strategicznych opartych na fałszywych danych

Następne kroki

Problem dezinformacji w AI nie jest usterką do naprawienia – to strukturalna słabość obecnych systemów. Firmy, które to zrozumieją i przygotują się odpowiednio, zyskają przewagę konkurencyjną. Te, które będą ślepo ufać AI, mogą ponieść poważne straty.

Zalecenie: Rozpocznij od audytu obecnego wykorzystania AI w swojej firmie. Zidentyfikuj obszary wysokiego ryzyka i wdróż protokoły weryfikacji. To inwestycja jednego tygodnia, która może zaoszczędzić miesiące problemów.


Źródło: NewsGuard – „AI False Information Rate Nearly Doubles in One Year”, wrzesień 2025. Wszystkie przytoczone dane pochodzą z oficjalnego raportu i zostały zweryfikowane.