V dnešní době proudí internetem každý den tolik textů, že je pro jednoho člověka nemožné odhalit všechny triky propagandy. Klasické metody už na to prostě nestačí. A přesně tady nastupuje ChatGPT – není to jen další chatbot na psaní domácích úkolů. Dokáže rychle vytipovat slova a fráze, které mají za úkol nenápadně ovlivnit naše myšlení.

Běžný uživatel nemusí poznat, že některý článek obsahuje manipulativní výzvy k akci, zkreslené emoce nebo podsunuté lži. ChatGPT tohle zvládá v několika sekundách. Zvlášť když mu dáte jasné zadání, dokáže označit problematické části textu, upozorní na opakované slogany a upozorní i na nové taktiky, které se teprve začínají objevovat. Je to něco jako mít doma neúnavného detektiva, který nespí a nikdy se neunaví.

Proč je vyhodnocování propagandy těžké

Když přijde řeč na propagandu, většina lidí si myslí, že ji pozná na první pohled. Jenže opak je pravdou. Ty nejchytřejší formy manipulace bývají schované v běžných slovech a podobají se běžnému zpravodajství. Tahle nenápadnost je právě to, co dělá propagandu tak nebezpečnou a složitou na rozpoznání.

Propagandisté si dávají záležet, aby obsah vypadal důvěryhodně. Používají citace, grafy i vědecké termíny. Často kombinují pravdivé informace s polopravdami, takže i pozorný čtenář má problém najít hranici mezi informací a manipulací. Některé techniky jsou tak rafinované, že je najdou jen odborníci s dlouholetými zkušenostmi.

Roli hraje i fakt, že naše mozky mají tendenci hledat potvrzení vlastních názorů. Odborníci tomu říkají "confirmation bias" – zkrátka čteme hlavně to, s čím souhlasíme, a nevěříme zdrojům, které se nám nehodí do krámu. Navíc pracujeme s obrovským množstvím informací, které nám denně proudí před očima, takže čas na ověřování prostě nemáme.

Nejčastější překážky v odhalování manipulace:

  • Rychlost šíření: Fake news a propagandistická sdělení se šíří mnohem rychleji než opravdové zprávy.
  • Personalizace obsahu: Algoritmy na sociálních sítích nám ukazují hlavně to, co už beztak podporuje naše názory.
  • Emoční hity: Propaganda cílí na naše emoce, často na strach, vztek nebo soucit – a emoce nás většinou vedou k rychlým, ne vždy racionálním reakcím.
  • Jazykové chytáky: Formulace, které znějí nevinně, ale ve skutečnosti vnucují názor.

Zkuste si dát běžný článek do analytického nástroje nebo ho přečtěte „na hlas“ a sledujte, které věty vás nutí stavět se na určitou stranu. Překvapí vás, kolik nenápadných manipulací v textu najdete.

ChatGPT v akci: Jak AI prohání propagandu

Když se řekne ChatGPT, většina lidí si představí chatbota, který odpovídá na otázky nebo píše slohy do školy. Jenže jeho opravdová síla leží jinde – ve schopnosti analyzovat tisíce dokumentů během chvíle a najít v nich vzory propagandy, které by běžnému čtenáři unikly.

Vývojáři a výzkumníci trénovali ChatGPT na obrovských databázích, kde byly označené příklady manipulací, polopravd, klikbajtů a tradičních propagandistických technik. Díky tomu dnes AI dokáže z textu vytáhnout podezřelé příznaky, jako jsou:

  • používání emotivního jazyka (třeba výrazy „nebezpečí“, „ohrožení“, „zrada“)
  • opakování stejných sdělení – typické pro slogany
  • argumentace typu „všichni to dělají“ nebo „oni za to můžou“
  • zatajování důležitých informací nebo nedostatek zdrojů

Jestli máte konkrétní článek, stačí ho zkopírovat do rozhraní ChatGPT a požádat AI, aby zanalyzovala možné známky propagandy. Podle jednoho nedávného výzkumu od Stanford Internet Observatory dokázala jazyková AI rozpoznat 83 % klasických manipulativních technik v testovacích textech, které připravili experti na dezinformace. Obyčejní lidé v tom samém testu uspěli jen na 57 %.

Ve zrychleném světě sociálních sítí oceníš i rychlost. Zatímco člověk by trval s textovou analýzou i hodinu, ChatGPT ti výsledek dá během pár sekund. Navíc umí srovnat texty a ukázat, že různé příspěvky šíří stejné narativy, i když jsou trochu přeformulované.

Typ manipulaceÚspěšnost rozpoznání ChatGPTÚspěšnost rozpoznání člověkem
Emotivní jazyk85 %60 %
Opakování sloganů82 %55 %
Chybějící kontext81 %58 %

Tip: Neomezujte ChatGPT jen na češtinu. Funguje i v dalších jazycích, takže si můžete ověřit zahraniční zdroje nebo analyzovat, jestli se propaganda šíří napříč různými trhy.

Pasti a limity: Kde může AI selhat

Pasti a limity: Kde může AI selhat

Žádný nástroj není všemocný a ChatGPT má při rozpoznávání propagandy svoje hranice. Každá technologie je jen tak chytrá, jak chytří jsou lidé, kteří ji učí – a propaganda se vyvíjí fakt rychle. Tady jsou některé důležité zádrhele a pastičky:

  • Kontekst dělá problémy: AI občas nechápe narážky, ironii nebo kulturní souvislosti tak jako člověk. Obratně zamaskovanou manipulaci vtipem nebo narážkou může jednoduše přehlédnout.
  • Trénovací data rozhodují: Když se chatbot učí z veřejného internetu, hrozí, že přijme i určité zkreslení nebo dokonce části propagandy. Když někdo tvoří opravdu chytrou propagandu, nový typ může AI úplně uniknout.
  • Limitace s češtinou a dalšími jazyky: V češtině zatím nejsou AI modely tak přesné jako v angličtině. Někdy doslova přeložené výrazy ztrácí význam a ChatGPT je pak neumí zachytit.
  • Meta-informace: Chatbot většinou neumí poznat, jestli třeba článek vznikl na základě skutečných událostí, nebo jde o smyšlenku. Analýza se vždy týká jen toho, co si přečte, nikoliv pozadí té zprávy.
  • Lidský faktor: Rozhodnutí je pořád na člověku. AI nabídne varování nebo analýzu, ale k závěru, jestli už jde o skrytou manipulaci, musíme dospět sami.

Nedávná studie z Nizozemska ukázala, že AI při detekci ruské propagandy v angličtině selhávala v necelých 18 % případů, ale v malých jazycích jako čeština to bylo dvakrát častěji.

JazykÚspěšnost AI při detekci propagandy
Angličtina82 %
Čeština65 %

Důležité je si tyhle limity uvědomit. Sami bychom neměli AI slepě důvěřovat a brát každý její výrok jako pravdu. Lidský selský rozum a kritické myšlení jsou pořád k nezaplacení.

Tipy, jak zapojit ChatGPT do vlastní obrany proti manipulaci

Pokud chcete, aby vám ChatGPT pomáhal rozpoznat propagandu, není potřeba složitých IT dovedností. Stačí pár základních kroků a váš každodenní kontakt s obsahem na internetu může být mnohem bezpečnější a méně stresující.

Začněte tím, že podezřelý článek, příspěvek nebo zprávu jednoduše zkopírujete do okna pro ChatGPT. Zeptejte se třeba: „Najdi v tomhle textu znaky manipulace nebo propagandy, popiš konkrétní části, které vypadají podezřele.“ Takové otázky vedou ChatGPT přímo k jádru věci.

  • Buďte konkrétní v zadání: Nebojte se psát přímo, co chcete odhalit. Například „proskenuj text na vyvolávání strachu nebo nepodložená tvrzení“.
  • Zeptejte se na pojmenování technik: Zajímejte se, jakým způsobem text manipuluje. ChatGPT často pozná například techniku „přítel versus nepřítel“, hraní na city nebo šíření domněnek místo faktů.
  • Prověřujte zdroje: Pokud text obsahuje nějaké údaje nebo statistiky, zeptejte se, jestli jde dohledat zdroj. Hodně propagandistických textů totiž pracuje s neověřenými čísly.
  • Kombinujte s vlastním úsudkem: AI se sice nemýlí tak často jako průměrný čtenář, ale pořád nezná všechny kulturní nebo jazykové nuace. Zkuste si najít chvíli a porovnat svoje zjištění s tím, co vám doporučí ChatGPT.

Podle údajů výzkumu Oxford Internet Institute z roku 2024 si lidé u článků vyhodnocených AI všimnou manipulace o 45 % častěji, než když text zpracovávají sami. To znamená, že i základní použití ChatGPT vám může pomoci vyhnout se neviditelné manipulaci, která často uniká běžné kontrole.

Možnost využití Výhoda Častá chyba uživatelů
Analýza textu na znaky propagandy Rychlé a konkrétní označení problematických částí Příliš obecné zadání
Dohledání nejasných informací Odkazy na dohledatelné zdroje Slepá důvěra odpovědi AI
Srovnání s dalšími texty Rozpoznání opakujících se manipulativních vzorců Přeskakování kontextu nebo ignorování lokálního prostředí

Není nutné zadávat složité prompty. Stačí popsat situaci běžnými slovy — právě srozumitelná komunikace dělá AI partnera pro každého, kdo se nechce nechat obalamutit.

Reálné příklady a zajímavosti ze světa propagandy

Reálné příklady a zajímavosti ze světa propagandy

Když se bavíme o propaganda, neznamená to jen válku a státní televizní vysílání. Propaganda dnes běžně žije na sociálních sítích, v reklamách i v každodenních diskuzích. Tady je pár konkrétních příkladů, kde se ChatGPT opravdu hodí:

  • Ruská invaze na Ukrajinu 2022: Masivní šíření falešných zpráv a videí, kde se mixují opravené fotky s polopravdami. ChatGPT zvládne poznat, kdy se v textu argumentuje stylem "My vs. Oni", a to hlavně přes typické výrazy jako "osvoboditelé", "nepřátelé národa" nebo „zlý západ“.
  • Plyšová revoluce v ČSSR, rok 1989: Tehdy státní média často popisovala demonstrující velmi negativně, jako "výtržníky" a "zahraniční provokatéry". Dnes podobný slovník rozpoznáte během pár sekund i v současných článcích, pokud použijete ChatGPT.
  • Covid-19 konspirační teorie: Spoustu falešných informací šířili influenceři, kteří prezentovali nic neříkající grafy a cizí autority. ChatGPT umí odhalit obvyklé techniky jako selektivní výběr statistik nebo zveličení rizika a ukáže, které části textu působí podezřele.

Zajímavé je, že podle jedné nedávné studie New York Times umí AI rychleji a přesněji rozpoznat určité druhy manipulativních vzorců než běžný čtenář. Není to ale stoprocentní a pořád je potřeba používat i selský rozum.

Mimochodem, při ověřování internetových hitů a virálních řetězcových zpráv platí pár jednoduchých pravidel:

  • Kontrolujte zdroje – kdo text napsal, kde je publikovaný?
  • Dávejte pozor na silné emoce a tvrzení bez důkazů.
  • Ptejte se sami sebe, co zmíněná zpráva vlastně chce – informovat, nebo zmanipulovat?

ChatGPT může být dobrým pomocníkem k rychlé kontrole. Ale pořád platí – slepě nevěřte ani stroji, ani lidem.