Zkuste si představit, že čtete článek na sociálních sítích a nevíte, jestli se snaží manipulovat vaším názorem, nebo je to prostě upřímná zpráva. Propaganda je chameleon, který mění barvy podle potřeby – jednou působí nenápadně, jindy křičí do světa lži a polopravdy. Ve společnosti, kde se každý týden objeví tisíce zpráv, statusů a videí, které mohou být nepravdivé, se běžný člověk těžko orientuje. Tady přichází na scénu ChatGPT – neúnavně hodnotí texty, hledá vzorce manipulace a pomáhá třídit informace rychlostí, kterou by člověk nikdy nezvládl.
Co je propaganda a proč je dnes ještě nebezpečnější
Propaganda není jen politický nástroj dávných režimů. V roce 2025 každodenně potkáváme propagandu ve zprávách, na Facebooku, Instagramech i v běžných diskusích. Moderní propaganda je vychytralá: její tvůrci využívají psychologii, data i technologie, aby nenápadně ovlivnili myšlení velkých skupin lidí. Dokonalým příkladem jsou dezinformační kampaně o očkování, klimatických změnách nebo ruské invazi na Ukrajinu. V roce 2024 sledovala organizace EUvsDisinfo přes 13 000 případů ruské propagandy napříč Evropou. Tyhle útoky přicházejí ve všech možných formách – od zkreslených titulků, přes virální videa až po deepfakes.
Státy, organizace i jednotlivci se snaží tahle nebezpečí odhalit, ale často je to boj s větrnými mlýny. Typická propaganda dnes totiž není jednobarevná – vyvolává emoce, rozděluje společnosti, často napadá menšiny, prosazuje extrémy. Lidé v Olomouci, Praze i Ostravě tak denně naráží na fake news, které se tváří jako běžné informace. Právě tady mají digitální nástroje své místo – pomáhají tu sílu převrátit v náš prospěch. Každý může být hodnotitelem obsahu, jen je třeba mít správný nástroj.
Principy fungování ChatGPT při hodnocení propagandy
ChatGPT není jen chatbot na povídání – je to jazykový model, který „čte“ a analyzuje texty se schopností pochopit jazyk na mnoha úrovních. V praxi to znamená, že když mu dáte například článek z pochybných webů, umí najít, kde jsou v textu emocionální manipulace, nelogické argumenty, vytrhané citace nebo zjevné chyby v tvrdých faktech. Model analyzuje styl psaní, hledá extrémní výrazy, opakující se fráze i různé formy nátlaku na emoce. Třeba když narazí na formulaci „všichni experti tvrdí“ nebo „věda dávno prokázala“, automaticky zbystří a upozorní na možnou manipulaci.
V čem ale ChatGPT opravdu boduje, je schopnost srovnat informace z různých zdrojů a rychle vyhledat rozporuplná tvrzení. Tady třeba Češi často naráží na nesrovnalosti v textech o politice nebo společenských tématech. Například před prezidentskými volbami používali lidé ChatGPT k porovnání volebních slibů se skutečnými kroky kandidátů. Model jednoduše a bez emocí odhalí rozdíly a vystaví manipulace na světlo. ChatGPT navíc funguje jako diskusní partner – klade doplňující otázky, doptává se na zdroje a pomáhá rozklíčovat, jestli je článek důvěryhodný, nebo zda jde spíše o pokus zmanipulovat čtenáře.

Jak nástroje AI hodnotí a zpracovávají obsah krok za krokem
Celý proces začíná tím, že vložíte do ChatGPT text, odkaz nebo popis situace. Model nejdřív zpracuje obsah, rozebere ho na části a vytvoří „myšlenkovou mapu“: hledá, kdo informace předává, jaké používá argumenty a jestli někde necítí známky nátlaku. Následuje série kroků, kde analyzuje jazykové vzorce – například kolikrát článek využívá silná emocionální slova, jak často manipuluje fakty nebo používá ironii a zesměšňování. To je častá technika proruské propagandy, kterou popsal Český rozhlas ve své analýze: zesměšnění protivníka a následné posilování vlastního narrative.
AI pak porovnává data s věrohodnými zdroji. Když třeba narazí na tvrzení o ekonomice, porovná ho s daty Českého statistického úřadu nebo Eurostatu. Nejde jen o to, jestli je číslo správně, ale i o způsob, jak je prezentováno. Propaganda často používá pravdivá čísla, ale dává jim nový kontext. ChatGPT v těchto případech upozorní na vytrhávání informací z kontextu a navrhne uživateli, na co dát pozor.
- Kroky AI při hodnocení propagandy:
- Přehled zdrojů a jejich ověření
- Analýza jazykových manipulací
- Emocionální vyhodnocení obsahu
- Křížová kontrola s ověřenými daty
- Vytvoření uživatelské zpětné vazby
Tímto postupem můžete hodnotit dezinformační články, videa i příspěvky na sítích. Stačí kopírovat text a zeptat se na jeho hodnověrnost. Spousta rodičů, a nejen v Olomouci, to v posledních letech využívá pro kontrolu, co čtou jejich děti. Zprávy, které bývají až příliš „senzační“, bývají podezřelé. ChatGPT je takový digitální parťák, který nenápadně hlídá, kdo nám servíruje polopravdy k večeři.
Výhody, slabiny a limity používání ChatGPT při odhalování propagandy
Jasnou výhodou AI nástrojů je jejich rychlost a schopnost zvládnout ohromné množství dat. Člověk zvládne přečíst několik článků, AI jich může projít stovky během minut. Už dnes některé mediální domy v Česku využívají AI pro předběžné „pročištění“ textů před publikací. V praxi tedy média získají rychlou analýzu, která upozorní na podezřelé úseky – rozhodně už se nestane, že by třeba omylem publikovala zjevnou lež.
V čem má ChatGPT ještě rezervy? Model není vševědoucí a stále mu dělá potíže například analýza hlubších kulturních narážek nebo sarkasmu. V českých reáliích je spousta jazykových nuancí, které zatím AI vždy nezachytí, hlavně když jde o jemnou ironii či slovní hříčky. AI rovněž nedokáže vždy rozlišit záměr autora – někdy nerozezná, jestli je článek parodií nebo skutečnou propagandou. Filtrace podle jazyka je omezená kapacitou modelu pro konkrétní lokální kontext.
Tabulka ukazuje, jak se AI nástroje v Česku využívají v různých oblastech pro odhalování propagandy:
Oblast použití | Popis využití | Limitace |
---|---|---|
Média | Automatická analýza článků a komentářů, označování sporných sekcí | Chybovost v analýze humoru, kulturních narážek |
Školství | Kontrola úrovně manipulace v učebnicích nebo materiálech | Limitované možnosti v rozpoznávání metajazyka žáků |
Odborná veřejnost | Rychlé vyhodnocení nových zpráv a volebních programů | Přílišná závislost na aktualizaci modelu |
Rodiny | Kontrola informačních zdrojů, které používají děti a mládež | Neschopnost přesně hodnotit multimediální obsah (obrázky, videa) |

Ověřené tipy jak využít ChatGPT při odhalování manipulací
Hledáte snadno použitelné rady, jak si pomocí AI ověřit informace? Zkuste si stanovit tři základní kroky: vždy požádejte ChatGPT o rozbor hlavní myšlenky textu, poté si nechte analyzovat jazyk a nakonec zeptejte modelu, na jaká rizika nebo sporné body by upozornil. Například když narazíte na podezřelou zprávu, jednoduše ji do modelu vložte a napište: „Zjisti, jestli je v textu manipulace a vysvětli proč.“ Model obvykle vypíše věty nebo fráze, které jsou podezřelé, a upozorní na možné argumentační klamy.
- Ptejte se ChatGPT na konkrétní tvrzení v článku – model vás nasměruje ke zdrojům nebo na slabiny v argumentaci.
- Nechte si navrhnout alternativní interpretace. Když je článek černobílý, model často vyhledá i opačné argumenty.
- Používejte ChatGPT k přípravě textů před sdílením na sociálních sítích. Model označí sporné části, takže nesdílíte omylem manipulaci.
- Nesuďte jen podle nástroje – vždy je fajn zapojit vlastní kritické myšlení. Když model neví, ptejte se dál a ověřujte z vícero zdrojů.
Děti ve školách dnes už také běžně využívají AI k ověřování textů, například když píšou referáty a potřebují vysvětlit, jestli je článek fakt seriózní. Některé školy v Olomouci dokonce zařadily do výuky krátké workshopy, kde si žáci zkouší s ChatGPT odhalovat fake news v praxi. S dětmi doma testujeme občas stejný postup, když Dominik nebo Magdaléna přinesou něco podivného z internetu.
Pokud chcete zůstat v obraze, je fajn sledovat projekty jako Demagog.cz nebo manipulatori.cz, které také využívají AI pro rychlejší ověření informací. Digitální gramotnost není jenom buzzword – je to dnes základní výbava každého rodiče i studenta. Kdo si zvykne používat nástroje jako ChatGPT, ušetří spoustu času a nervů, když bude potřebovat rychle se zorientovat v záplavě protichůdných informací. AI není samospásná, ale v ruce šikovného uživatele je to mocná ochrana proti moderní propagandě.