iVysílání

stránky pořadu
Premiéra:
11. 12. 2018
19:00 na ČT24

1 2 3 4 5

14 hlasů
18610
zhlédnutí

Fokus Václava Moravce

Doba dezinformační

Složitý svět přeplněný informacemi. Jak se v nich vyznat? Jak odlišit fakta od výmyslů a lží? A komu prospívá informační chaos? Pozvání přijali armádní generál Petr Pavel, astronom Jiří Grygar, politický geograf Michael Romancov, politoložky Anna Durnová a Petra Vejvodová nebo analytik František Vrabel.

119 min | další Publicistika »

upozorňovat

do playlistu

Přehrávač videa

Načítám přehrávač...

Fokus Václava Moravce

  • 00:00:04 Jakou cenu má pravda
    jak drahá je lež?
  • 00:00:08 Mám osobní zkušenost, že nemusí
    být politika svázaná se lží.
  • 00:00:14 Jak se vyznat ve světě
    zaplaveném informacemi?
  • 00:00:20 Těch změn je tolik a jsou
    tak rychlé, že prostě nestačíme.
  • 00:00:25 Jak odhalit smyšlenky
    a lži a jak najít jejich autory?
  • 00:00:29 Prezidentské volby
    obnažily nemilý fenomén.
  • 00:00:32 Lživé zprávy,
  • 00:00:33 které si v hromadných e-mailech
    navzájem rozesílají senioři.
  • 00:00:37 Co je alternativou k pravdě
    a co je alternativní pravda?
  • 00:00:40 To byl první střet s pravdou.
  • 00:00:43 Když řekli, že mají
    svá alternativní fakta.
  • 00:00:46 A tím to začalo.
  • 00:00:47 Přestože bylo jasné,
  • 00:00:48 že tam na Donalda Trumpa
    přišlo méně lidí.
  • 00:00:55 Tlak na média roste a slovních
    útoků přibývá.
  • 00:00:59 Jsou ostřejší, ale také
    frekventovanější.
  • 00:01:03 Začíná 36. díl měsíčníku
    fokus Václava Moravce.
  • 00:01:07 Tentokrát na téma
    Doba dezinformační.
  • 00:01:27 Post faktický nebo fake news.
  • 00:01:29 Pojmy, které se v uplynulých
    letech staly slovy roku.
  • 00:01:33 První odkazuje na dobu, kdy fakta
    hrají čím dále tím menší roli,
  • 00:01:36 protože hrají emoce.
  • 00:01:38 Druhé odkazuje na falešné
    informace,
  • 00:01:41 které mohou klamat veřejnost
    a přispívat tak k panice.
  • 00:01:45 Jde nebo nejde pouze o módní slova?
  • 00:01:48 Neměla každá doba
    svoje dezinformace?
  • 00:01:53 Nejen o tom bude dnešní Focus.
  • 00:01:54 Dobrý večer vám divákům
    zpravodajské ČT 24,
  • 00:01:57 dobrý večer publiku tady ve studiu
    jedna na Kavčích horách v Praze,
  • 00:02:02 které ztvárnili malíři
    ČT na základě výtvarného návrhu
  • 00:02:07 Jaroslava Klimeše.
  • 00:02:08 Hezký dobrý večer.
  • 00:02:09 Vítejte.
  • 00:02:16 Hosty v publiku dnes jsou studenti
    a pedagogové třeboňského gymnázia
  • 00:02:21 a starší dospělí a senioři
    z univerzity třetího věku
  • 00:02:24 při knihovně v Lounech.
  • 00:02:26 Focus právě začíná.
  • 00:02:37 První kapitolu otevírají
    armádní generál Petr Pavel.
  • 00:02:42 Dobrý večer.
  • 00:02:45 A mé pozvání přijal také politický
    geograf Michael Romancov.
  • 00:02:48 Dobrý večer.
  • 00:02:50 Je namístě nazývat dnešní
    dobu dobou dezinformační?
  • 00:02:54 Pane generále?
  • 00:02:55 Já bych ji nazýval
    spíše dobou informační.
  • 00:02:59 Žijeme v době, kdy informace
    se stávají hojnější než vzduch.
  • 00:03:05 Pokrok v technologiích umožnil
    nejen jejich šíření velice rychle,
  • 00:03:10 ale zároveň také jejich produkci.
  • 00:03:12 Protože jestliže dříve nositelem
    informace byly v podstatě pouze
  • 00:03:20 jednotlivci, tak dnes
    to může být každý.
  • 00:03:23 Ta informace díky technologiím
    se šíří bez ohledu na to,
  • 00:03:27 aby byl známý její původce.
  • 00:03:30 Takže dost často se stává,
    že informace,
  • 00:03:33 kterou vytvořil jeden bezejmenný
    jedinec se mnoho násobením zdrojů
  • 00:03:39 stává celosvětovou pravdou.
  • 00:03:42 Pane Romancove, podepsal byste
    se pod slogan doba dezinformační?
  • 00:03:48 Není důvod to akceptovat.
  • 00:03:51 Ty dezinformace v dnešním
    světě jsou, ale byly vždy.
  • 00:03:55 Možná dnes máme
    nesrovnatelně lepší šanci,
  • 00:04:00 jak je identifikovat a jakým
    způsobem je vyvracet.
  • 00:04:04 Ta produkce na straně těch,
    kteří ty dezinformace vytvářejí,
  • 00:04:08 tak je výrazně větší.
  • 00:04:09 Možná toho historického
    hlediska bude remíza.
  • 00:04:13 Pouze to nebude skóre
    1:1 a třeba 50:50.
  • 00:04:17 Nemyslíte, že to množství
    informací je dnes větší?
  • 00:04:20 Když si vzpomenete na vynález
    knihtisku a šíření informací
  • 00:04:25 pomocí knih.
  • 00:04:27 Nebyla vlastně každá éra svým
    způsobem érou nadbytku
  • 00:04:31 informací čehosi?
  • 00:04:32 Co využívali nebo
    zneužívaly vládcové?
  • 00:04:35 Nepochybně.
  • 00:04:36 Nemusí to být pouze knihtisk,
    ale třeba rozšíření telegrafu.
  • 00:04:40 Víme,
  • 00:04:41 jakým způsobem se tento vynález
    třeba na řadě míst světa podepsal
  • 00:04:46 pod spekulační bubliny, když
    se spekulovalo na ceny třeba zlata,
  • 00:04:52 diamantů a tak dále.
  • 00:04:56 Ať už diváci tady ve studiu,
  • 00:04:59 nebo u televizních obrazovek
    si vzpomenou na vynikající americký
  • 00:05:02 film Podraz, kde to dohraje
    úžasnou roli.
  • 00:05:06 Každá doba má svá úskalí
    a své příležitosti.
  • 00:05:11 Jsou tam ty negativní dopady.
  • 00:05:12 Jde spíše o to více si vědom toho,
  • 00:05:14 že něco takového existuje
    dvojí připraven tomu čelit.
  • 00:05:17 Když se podíváte do svých
    oborů a do historie.
  • 00:05:22 Role falešných zpráv
    a dezinformací.
  • 00:05:26 Jakou roli hraje při utváření
    nebo při rozpadu státu,
  • 00:05:29 nebo popřípadě ve vojenství?
  • 00:05:32 Určitě obrovskou.
  • 00:05:33 V zásadě od okamžiku,
  • 00:05:34 kdy se hluboko ve středověku
    objevila představa,
  • 00:05:38 že křesťanství vlád se by mezi
    sebou neměly válčit.
  • 00:05:42 Pokud není vhodný důvod.
  • 00:05:48 A tak se generoval průmysl,
    který vytvářel ty důvody.
  • 00:05:58 Adolf Hitler když útočil na Polsko,
  • 00:06:01 tak prvně vyprodukoval
    incident a potom řekl,
  • 00:06:07 že Německo se pouze brání.
  • 00:06:09 Bylo to tady odjakživa
    a je to tady také dnes.
  • 00:06:12 Tančí se podívat na důvody,
    které ruská strana uvedla,
  • 00:06:17 proč vtrhla na Krym.
  • 00:06:21 Apod.
  • 00:06:22 V zásadě můžeme říci, že co svět
    světem stojí,
  • 00:06:24 tak se takto chovaly
    všechny mocnosti.
  • 00:06:26 To znamená,
  • 00:06:27 že už tehdy kupříkladu za Hitlera
    počátek napadení Polska byl svým
  • 00:06:31 způsobem informační válkou?
  • 00:06:34 Informační válka, nebo dezinformace
    byly součástí vojenství odjakživa.
  • 00:06:40 Už v dávných dobách se vojevůdci
    vždy snažili klamat svého
  • 00:06:46 protivníka o své skutečné síle
    a svých skutečných záměrech.
  • 00:06:50 Snažili se vytvořit nějakou
    fikci, která by je uvedla v omyl.
  • 00:06:56 Například kde bude
    hlavní směr úderu,
  • 00:06:59 případně které jsou kritické
    body, o které se budou snažit.
  • 00:07:03 Takže dezinformace byly
    vždy součástí válčení.
  • 00:07:07 Už od dávnověku se šířily cíleně.
  • 00:07:11 Dokonce v době, kdy se používaly
    pro šíření zpráv poštovní holubi,
  • 00:07:15 tak se jim dávali falešné zprávy.
  • 00:07:20 Potom se často vyprodukovali
    falešné dokumenty a mapy
  • 00:07:25 s příslušnými dokumenty,
  • 00:07:26 který byly potom ještě násobené
    falešným radiovým vysíláním,
  • 00:07:30 nebo nechali zajmout
    moto spojku nebo kurýra,
  • 00:07:40 který měl vytvořit zdání toho,
  • 00:07:43 že veze naprosto cenné
    zásadní informace.
  • 00:07:46 Jinými slovy, informační
    válka není nový pojem.
  • 00:07:50 Není vůbec nový pojem.
  • 00:07:52 Pouze moderní doba mu dává
    trochu nový obsah.
  • 00:07:56 Vypadá to, že informační válka
    je dílem posledních pár let.
  • 00:08:00 Ale ta je součástí naší
    historie odjakživa.
  • 00:08:03 Já bych k tomu co pan generál
    říkal si dovolil možná doplnit
  • 00:08:06 jeden detail.
  • 00:08:08 Určitě souhlasím s tím co bylo
    řečeno.
  • 00:08:10 Možná právě ta kvantita těch
    informací, které se na nás valí,
  • 00:08:14 tak nás nutí začít uvažovat.
  • 00:08:16 A možná vojáky nově
    definovat pojem hrozeb.
  • 00:08:22 Třeba za Napoleona nikdo nevěnoval
    pozornost vzdušnému prostoru,
  • 00:08:25 protože ze vzduchu nebylo
    možné ovlivnit boj na bojišti.
  • 00:08:30 Ze vzduchu nebylo možné pořádně
    sbírat informace o protivníkovi.
  • 00:08:34 První světová válka a druhá
    světová válka.
  • 00:08:37 Najednou se začaly ve vzduchu
    odehrávat souboje.
  • 00:08:40 Dnes máme obrovské množství
    prostředků umístěných na oběžných
  • 00:08:44 drahách kolem planety Země.
  • 00:08:45 A každý stát si vlastně hlídá
    ten prostor co je nad ním.
  • 00:08:50 Hlídáme si co je pod námi.
  • 00:08:52 Možná je načase začít
    bránit, co není vidět,
  • 00:08:54 ale co je stejně důležité označil
    bych to termínem digitální hranice.
  • 00:08:57 Mluvíte v budoucím čase.
  • 00:09:00 Není to tak, že už si hlídáme?
  • 00:09:02 Když se podíváme na všechny
    strategie NATO.
  • 00:09:05 Teď nejnověji přijatá
    koncepce evropské 27.
  • 00:09:10 Boje proti falešným zprávám
    a dezinformacím, jako prostředku,
  • 00:09:15 který má vést k erozi demokracie
    nebo národních států.
  • 00:09:20 Máte pravdu, že první
    kroky byly udělány.
  • 00:09:23 Jsem přesvědčen, že to bude
    efektivní v okamžiku,
  • 00:09:25 kdy to přijme za své široká
    veřejnost.
  • 00:09:29 To,
  • 00:09:29 že něco jsou schopni identifikovat
    experti a začínají se první korky
  • 00:09:33 konat, tak zaplať pánbůh za to.
  • 00:09:35 Ale to je první krok.
  • 00:09:37 Abychom byli úspěšní,
  • 00:09:39 tak si to musí uvědomit
    široká veřejnost.
  • 00:09:41 Ta si zatím není vědoma hrozby?
  • 00:09:44 Zatím ne.
  • 00:09:45 Když člověk pozoruje co se děje
    na sociálních sítích.
  • 00:09:48 Pane generále?
  • 00:09:52 To hlavní úsilí informačního
    působení se přesouvá spíše do emocí
  • 00:09:57 než do faktů.
  • 00:09:59 Protože fakta, zvlášť když
    se budu držet toho svého,
  • 00:10:03 tak ta vojenská fakta jsou
    velice často dobře ověřitelná.
  • 00:10:08 Jestli dříve stačilo
    vytvořit iluzi,
  • 00:10:11 že za kopcem mám schovanou jízdu,
  • 00:10:14 tak dnes se to dá velice snadno
    zjistit ze satelitních snímků
  • 00:10:16 a dronů a dalších druhů průzkumu.
  • 00:10:20 Ty jsou dnes tak kvalitní,
  • 00:10:21 že se velice těžko schová
    nějaká fyzická síla.
  • 00:10:25 Proto se ty dezinformace
    zaměřují spíše do našeho vědomí.
  • 00:10:29 A k ovládání toho vědomí
    prostřednictvím velice cílených
  • 00:10:35 informací a dezinformací,
  • 00:10:37 které mají tvořit nějaký náš názor
    a nějaké naše pocity.
  • 00:10:41 V tom je to horší.
  • 00:10:42 Protože to není vidět.
  • 00:10:44 Je to působení, které se šíří
    pod povrchem trochu jako rakovina.
  • 00:10:48 Když je potom metastáze,
    tak zjistíme,
  • 00:10:51 že se nějak projevuje.
  • 00:10:53 A to už může být pozdě.
  • 00:11:13 Dezinformace je obecně jakákoliv
    zkreslená nebo falešná informace
  • 00:11:26 používaná s cílem ovlivnit
    jednotlivce i určitou skupinu lidí
  • 00:11:32 určitým způsobem.
  • 00:11:42 Většinou v zájmu politickém,
    ideologickém nebo soukromém.
  • 00:11:49 Dezinformaci je často zaměřená
    k ovlivnění veřejného mínění.
  • 00:11:54 Může být takovým
    záměrem už vytvořená.
  • 00:11:58 Může ale vzniknout náhodně.
  • 00:12:00 Nebo pro jiný účel, který
    nemusí být dezinformační.
  • 00:12:05 Například pokud je způsobená
    vytržením určitého sdělení
  • 00:12:08 z původního kontextu.
  • 00:12:10 Respektive jeho zasazením
    do kontextu jiného.
  • 00:12:14 Jaké jsou pane generále
    kritéria toho,
  • 00:12:23 aby dezinformace byla úspěšná?
  • 00:12:25 Když se na to díváte
    z pohledu vojenství.
  • 00:12:31 Měla by obsahovat element pravdy.
  • 00:12:34 Protože většina z nás,
    až na malé výjimky,
  • 00:12:38 které přejímají dogma a nemají
    potřebu ani přemýšlet,
  • 00:12:42 tak většina z nás má tendenci
    si informace nějakým
  • 00:12:45 způsobem ověřit.
  • 00:12:47 Ale vzhledem k nedostatku
    času a přemíře informací,
  • 00:12:50 tak velké části z nás stačí,
  • 00:12:52 když si ověříme část informace
    a potom máme tendenci pojmout celou
  • 00:12:58 informaci jako pravdivou.
  • 00:13:01 Kdybych vytvářel dezinformaci
    a nedal za pravdu, tak není účinná?
  • 00:13:07 Může být informace
    založená na úplné lži.
  • 00:13:11 Jsme toho svědky v informačním
    prostoru.
  • 00:13:14 V poslední době například ta zpráva
    ruských médií o tom člověku,
  • 00:13:21 který měl údajně pocházet z Kyjeva
    Majdanu a on to byl občan Minsku.
  • 00:13:28 Takže to byla úplně
    fabrikovaná zpráva.
  • 00:13:31 Ale taková se dá snadno odhalit.
  • 00:13:33 Právě jestliže chceme dělat
    dezinformace sofistikovaně,
  • 00:13:37 tak je budeme dělat tak,
  • 00:13:39 že tam bude velká část pravdy
    a ten zbytek bude velice umně
  • 00:13:45 dotvořen, aby vytvářel
    požadovaný efekt.
  • 00:13:48 To jsou nejúčinnější
    lži v současnosti?
  • 00:13:54 Další ingredience
    je práce s emocemi.
  • 00:13:58 Pokud do toho zamíchám emoce a dáme
    tomu věrohodnou fasádu a budeme
  • 00:14:05 to dostatečně dlouho opakovat
    dostatečného množství zdrojů,
  • 00:14:08 tak taková dezinformace má velkou
    šanci na úspěch.
  • 00:14:11 Co byste k tomu dodal?
  • 00:14:12 Obrazová složka nebo psaný text?
  • 00:14:16 Optikou mé profese platí, že dobrá
    mapa je za 1000 slov.
  • 00:14:20 To platí také v těchto
    záležitostech.
  • 00:14:23 Jestliže něco pod kreslíte obrazem,
    nebo zvukem a můžete to kombinovat,
  • 00:14:28 tak je to úžasné.
  • 00:14:31 Myslím si, že každý
    zvukař vám řekne,
  • 00:14:33 že máte jednu a tu samou natočenou
    scénu, kdy paní žehlí košili.
  • 00:14:37 Když tomu dáte dramatickou
    hudbu a otevřou se dveře,
  • 00:14:41 tak máte pocit že vstoupí drah.
  • 00:14:43 Když dáte dětskou písničku,
    tak máte pocit, že vstoupí dítě.
  • 00:14:48 Scéna je úplně stejná,
    ale dramaticky to změní ta hudba.
  • 00:14:50 Současná doba hodně přeje emocím.
  • 00:14:54 Když se podíváme na to,
  • 00:14:56 jak se snadno dostupnými
    prostředky jako je telefon,
  • 00:15:01 nebo videokamera atd., tak počítač
    může sloužit jako studio na střih.
  • 00:15:08 Takže člověk tomu může velice
    rychle s nízkými náklady vytvořit
  • 00:15:12 neuvěřitelně sugestivní informaci.
  • 00:15:15 Islámský stát a jeho videa.
  • 00:15:17 To všechno fungovalo
    na tomto principu.
  • 00:15:20 A bylo to účinné.
  • 00:15:21 Byla to velice účinná propaganda
    Islámského státu a videa,
  • 00:15:25 která zahlcovala
    internetový prostor?
  • 00:15:29 Hlavně sázela na to,
    na čem je postavený terorismus.
  • 00:15:33 Šířit hrůzu.
  • 00:15:35 Prezentovat něco,
    co natolik šokuje,
  • 00:15:38 že se tím každý nejen síť otřesen,
    ale má potřebu to poslat dále.
  • 00:15:43 To byla ta videa,
  • 00:15:45 kdy se tam podřezávali
    lidé v přímém přenosu,
  • 00:15:51 případně polili
    benzinem a zapálili.
  • 00:15:54 To jsou samozřejmě informace,
    které nejsou dezinformací.
  • 00:15:59 To je opravdu brutální propaganda
    a brutální informační teror.
  • 00:16:04 Ale zavíral.
  • 00:16:05 Pracující s emocemi.
  • 00:16:07 Jak o tom mluvil Michal Romancov.
  • 00:16:10 Co je dobrou živnou
    půdu pro dezinformace
  • 00:16:14 v demokratických státech?
  • 00:16:16 Mluvil jste o emocích.
  • 00:16:17 Není to paradox,
  • 00:16:18 že jsme ve 21. století a máme
    za sebou a neseme si spolu
  • 00:16:24 výdobytky osvícenství.
  • 00:16:26 Jak je možné, že ty emoce
    hrají tak zásadní roli?
  • 00:16:30 Možná že proto,
  • 00:16:31 že obecně ten prostor fungování
    demokratických států je otevřený.
  • 00:16:36 V demokratické společnosti,
    pluralitní společnosti,
  • 00:16:40 jakýkoliv názor alespoň na začátku
    má stejnou šanci
  • 00:16:43 na to aby v tom prostoru
    zaznělo a byl replikován.
  • 00:16:46 Aby někoho zaujal, nebo se někdo
    vůči němu vymezil.
  • 00:16:49 Všechny autoritářské a totalitní
    režimy si přísně ten prostor
  • 00:16:53 informační střeží
    a v tom informačním prostoru
  • 00:16:57 má šanci působit pouze
    ten držitel moci.
  • 00:17:02 Autoritativní režimy utužují
    svoji sílu našimi technologiemi?
  • 00:17:08 Západními technologiemi,
    sociálními sítěmi a internetem?
  • 00:17:11 To bezesporu.
  • 00:17:12 O tom nemůže být pochyb.
  • 00:17:15 Protože oni upřímně řečeno
    utužují nejen svůj prostor,
  • 00:17:18 ale také v očích našich spoluobčanů
    zdůrazňují a zvýhodňují svoji
  • 00:17:25 pozici tím, že třeba
    převzali náš slovník,
  • 00:17:29 kterým my označujeme fungování
    a existenci našich institucí.
  • 00:17:35 Pokud byste byl konkrétní.
  • 00:17:36 Například v současném světě
    najdete pouze šest států,
  • 00:17:39 které o sobě netvrdí,
    že jsou demokracie.
  • 00:17:41 Všechny ty státy
    co to se mi netvrdí jsou
  • 00:17:43 absolutní monarchie.
  • 00:17:49 Celý zbytek jsou demokracie.
  • 00:17:51 A všichni ti lidé se naučili,
  • 00:17:53 že v demokracii musíte
    mít ústavu a dělbu moci.
  • 00:17:57 Existuje to tam na papíře,
    ale v realitě to příjemné není.
  • 00:18:01 Není to tam přítomné.
  • 00:18:03 Stačí se podívat do Ruska
    nebo Běloruska.
  • 00:18:10 Když jsou všechna fakta
    natolik relativizovaná,
  • 00:18:12 že málokdo je schopen se orientovat
    to je fakt a co je lež,
  • 00:18:17 takto to zabírá opravdu,
    tak to jsou emoce.
  • 00:18:20 Ty na nás působí univerzálně.
  • 00:18:23 Je přirozené, že s těmi
    emocemi dnes všichni pracují.
  • 00:18:27 A to nejen dezinformátoři, kteří
    stojí na opačné straně proti nám.
  • 00:18:32 Ale mnohdy také ti dezinformátoři
    vnitřní.
  • 00:18:35 Protože elementy různých
    lží a milosrdných leží a vytržených
  • 00:18:40 informací jsou součástí
    našeho života každý den.
  • 00:18:45 Jaké máte vysvětlení pro to,
  • 00:18:46 že právě ty autoritativní režimy
    jako Čína a Rusko umějí využít
  • 00:18:51 našich technologií,
    informačního prostoru,
  • 00:18:54 aby vůdci upevnili svoji autoritu.
  • 00:18:57 Zatímco ty demokratické
    země, země EU se handrkují,
  • 00:19:03 jestli vůbec ten prostor
    nějakým způsobem regulovat.
  • 00:19:07 Kdo se začne zabývat nějakou
    byť malou formou regulace,
  • 00:19:11 které u tradičních médií,
    tak je označován za cenzora.
  • 00:19:15 Je to myslím dáno tím,
  • 00:19:16 že víme co všechno napáchala
    cenzura v nacistickém Německu
  • 00:19:21 a ve všech státech, které
    budovali tzv. reálný socialismus.
  • 00:19:26 Takže je přirozená obava z toho,
    aby něco nebylo zneužito.
  • 00:19:29 V zásadě ten svět v posledních
    30 letech nám neuvěřitelně přál
  • 00:19:33 v tom, že všechny ty věci
    a standardy co jsme vytvořili tady,
  • 00:19:37 tím nemyslím v Česku,
    ale obecně na západě,
  • 00:19:39 tak byly také pro ten ne západní
    svět natolik sexy,
  • 00:19:44 že minimálně v té rétorické rovině
    oni měli a stále mají potřebu
  • 00:19:48 nás replikovat.
  • 00:19:50 Nevím o nikom tady v Evropě,
    možná ani nikde ve světě,
  • 00:19:53 kdo by se vážně zamýšlel v nad tím,
  • 00:19:56 že převezme čínské učení do svého
    hodnotového rámce.
  • 00:20:04 Ale také Čína tvrdí, že buduje
    lidovou demokracii.
  • 00:20:07 V Severní Koreji mají Lidovou
    demokratickou republiku.
  • 00:20:11 Demokratická republika Kongo.
  • 00:20:13 To všechno je minimálně
    formálně ten náš obsah.
  • 00:20:17 Definovali jsme standardy.
  • 00:20:18 A je přirozené, že z těch standardů
    třeba svobody nechceme ustupovat.
  • 00:20:22 Máme pocit, že by se to mohlo
    obrátit proti nám.
  • 00:20:25 Samozřejmě je otázkou, jestli,
  • 00:20:28 což se uvidí také při tom zpětném
    pohledu,
  • 00:20:31 tak náhodou teď nejsme skutečně
    ve stavu informační války.
  • 00:20:35 Tak jako ve druhé světové
    válce v některých zemích byla
  • 00:20:39 suspendována některá práva,
    protože byl válečný stav,
  • 00:20:44 tak zdali něco vhodného by nebylo
    zavést tady u nás.
  • 00:20:48 Je to tak vážné?
  • 00:20:49 Je to možné.
  • 00:20:51 Musím se zeptat armádního generála,
    zdali jste zavedli takový stav.
  • 00:20:57 Já myslím,
  • 00:20:58 že vždy zapotřebí zvážit
    tu nepřímou úměru mezi svobodami
  • 00:21:02 a bezpečností.
  • 00:21:05 Vždy jedno vyvažovat druhým.
  • 00:21:09 Já rozumím tomu, že občané
    si zvykli na velkou míru svobod.
  • 00:21:16 Na druhou stranu ty jsou mnohdy
    v přímém rozporu s bezpečností.
  • 00:21:21 Vysvětlit lidem, že je v jejich
    zájmu,
  • 00:21:26 aby třeba bezpečnostní
    složky měly přehled o tom,
  • 00:21:30 co se děje na sítích včetně
    sítí mobilních telefonů,
  • 00:21:34 protože to může zachránit
    jejich životy, tak to je těžké.
  • 00:21:38 Protože lidé si chtějí
    chránit své soukromí.
  • 00:21:44 Nebude to konec demokracie?
  • 00:21:46 Demokracie je poznaná Svoboda.
  • 00:21:50 Jestli budeme naši svobodu
    definovat poznáním,
  • 00:21:54 že pro svoji bezpečnost
    musíme část svobod obětovat,
  • 00:21:59 tak je to naše svobodné
    rozhodnutí a vědomé a tím pádem
  • 00:22:02 se demokracie nezbavujeme.
  • 00:22:05 Dodal bych jednu věc,
    kromě přivedl pan generál,
  • 00:22:08 když mluvil o mobilních
    operátorech.
  • 00:22:10 Jeden z našich mobilních operátorů
    před pár lety měl slogan velice
  • 00:22:14 chytlavý, ale nebezpečný.
  • 00:22:18 Nevaž se odvaž se.
  • 00:22:20 Cokoliv co se odváže
    a utrhne ze řetězu,
  • 00:22:23 tak to vypadá dobře ve filmu,
    ale jakmile to je v reálném životě,
  • 00:22:28 tak to napáchá škody.
  • 00:22:31 Nesmírně důležitou součástí
    demokracie je odpovědnost.
  • 00:22:34 Zvykli jsme si na to,
  • 00:22:36 demokracie jsou práva
    a každé to právo musí
  • 00:22:38 být vyváženo povinností.
  • 00:22:40 My jsme rezignovali na to,
    že budeme plnit povinnosti,
  • 00:22:42 protože povinnosti jsou nepříjemné.
  • 00:22:58 Poté co zemřel velice náhle,
  • 00:23:00 v listopadu 1457 mladý český
    král Ladislav pohrobek,
  • 00:23:06 rozšířila se dezinformace,
  • 00:23:09 že ho nechal otrávit
    Jiří z Poděbrad.
  • 00:23:11 Ten se po Ladislavově
    smrti ujal vlády.
  • 00:23:15 Další spiklenecká teorie
    přisuzovala objednávku vraždy
  • 00:23:19 dokonce manželce Jiřího z Poděbrad.
  • 00:23:22 Účel zvěstí byl jednoznačný.
  • 00:23:25 Poškodit nového panovníka.
  • 00:23:27 Teprve v 80. letech 20. století
    výzkum ostatků jednoznačně
  • 00:23:32 prokázal, že Ladislav
    pohrobek zemřel na leukémii.
  • 00:23:40 Rukopis královédvorský tzv. objevil
    v roce 1817 Václav Hanka.
  • 00:23:47 Rukopis zelenohorský o rok později
    někdo anonymně zaslal
  • 00:23:50 hraběti Kolovratovi.
  • 00:23:54 Skutečné autorství údajně
    prastarých písemností se tradičně
  • 00:23:57 přisuzuje objeviteli Václavu
    Hankovi a dalšímu vlasteneckém
  • 00:24:01 buditeli Josefu Lindovi.
  • 00:24:05 Pravděpodobní falzifikátoři chtěli
    existencí rukopisů prokázat
  • 00:24:09 kulturní velikost českého
    národa už v dávné minulosti.
  • 00:24:14 Vedle naprosté většině odborné
    veřejnosti označil dokumenty
  • 00:24:17 za podvrh už Tomáš
    Garrigue Masaryk.
  • 00:24:20 V 80. letech 19. století.
  • 00:24:23 Ještě dnes je však otázka pravosti
    rukopisů předmětem bouřlivých
  • 00:24:27 internetových debat.
  • 00:24:30 Jaké bylo mé překvapení,
    když jsem se dozvěděl,
  • 00:24:33 že jsem členem jakéhosi
    tajného spolku omladina,
  • 00:24:36 jehož tendence jsou velezrádné.
  • 00:24:38 A jehož dílem byly veškeré
    poslední demonstrace.
  • 00:24:42 Policejní síly Rakousko-Uherska
    se vyznamenali zejména procesem
  • 00:24:46 se Omladinou.
  • 00:24:51 Mladí političtí aktivisté,
  • 00:24:53 liberálové a socialisté
    se radikalizovali.
  • 00:25:04 Pak proběhl proces s desítkami
    údajných členů spiknutí.
  • 00:25:08 Organizace ve skutečnosti
    nikdy neexistovala.
  • 00:25:12 Záminkou velkolepé dezinformace
    se stala především výpověď
  • 00:25:16 policejního informátora
    Rudolfa Mendy.
  • 00:25:19 Tento dobový tvůrci
    konspiračních teorií
  • 00:25:22 byl za své udavačství zavražděn.
  • 00:25:27 Právě jsme viděli,
  • 00:25:29 jaké dezinformace a lži byly
    v minulosti na našem území šířené.
  • 00:25:34 Přesto stále část populace
    věří kupříkladu rukopisům,
  • 00:25:39 že to nebyla falza.
  • 00:25:41 Jak je možné ty lži definitivně
    vyvrátit, pokud to je možné.
  • 00:25:44 Já si myslím, že to nelze vyvrátit.
  • 00:25:46 Některé věci se vracejí cyklicky.
  • 00:25:49 Na chvíli to zapadne a potom
    to někdo vytáhne.
  • 00:25:51 Některé věci jsou natolik
    hluboce zažrané pod kůži,
  • 00:25:56 že je někdo nese v sobě
    třeba díky umění.
  • 00:25:59 Typicky Richard třetí díky
    Shakespearovi je padouch.
  • 00:26:03 Ono to pravděpodobně tak velký
    padouch nebyl.
  • 00:26:06 Ale prostě už to má díky
    tomuto geniálnímu dramatikovi
  • 00:26:10 na věky věků.
  • 00:26:12 A s tím se v uvozovkách
    nedá nic dělat.
  • 00:26:14 Protože je také
    zapotřebí si uvědomit,
  • 00:26:17 že jestli Richard třetí
    byl nebo nebyl padouch,
  • 00:26:19 to už na současnou Británii
    žádný zásadní vliv nemá.
  • 00:26:24 Podobně asi jako rukopisy už dnes
    nemají nějaký zásadní vliv
  • 00:26:28 na fungování, nebo ne fungování
    demokratického právního státu v ČR.
  • 00:26:34 Pohled na naše národní dějiny.
  • 00:26:36 A zásadní dezinformace, o kterých
    se dnes večer budeme povídat.
  • 00:26:40 Pokud to srovnáte s jinými národy.
  • 00:26:43 Jsme národem,
  • 00:26:44 který má své dějiny výrazně
    postaveny na dezinformacích?
  • 00:26:47 Myslím si, že ne.
  • 00:26:49 Podívejte se do vedlejšího Německa.
  • 00:26:51 Němci dlouho trpěli tím,
    že to byl prostor a nikoliv stát.
  • 00:26:55 Také potřebovali nějakým způsobem
    najít nějaký mýtus a něco,
  • 00:26:59 k čemu by se mohli upnout.
  • 00:27:02 V tu dobu už to nemuseli
    dělat Francouzi,
  • 00:27:04 protože už svůj stát měli,
    stejně jako Angličané.
  • 00:27:10 Němci to udělat museli.
  • 00:27:11 My jsme se v tom Německu
    vždy inspirovali.
  • 00:27:13 Německo bylo velké
    a bylo hned vedle.
  • 00:27:16 Bylo srozumitelné.
  • 00:27:18 Stačí se podívat na Sokola.
  • 00:27:19 Sokol vznikl v Česku proto,
    že se inspirovali v Německu,
  • 00:27:23 jak fungovaly tamní
    tělocvičné spolky.
  • 00:27:27 Takže to je zcela standardní.
  • 00:27:29 Pokud byste měl mluvit
    o průměrné zemi,
  • 00:27:32 která staví své národní
    dějiny na důležitých lžích
  • 00:27:37 a dezinformacích?
  • 00:27:40 Něco jako nadprůměrná
    nebo podprůměrná země
  • 00:27:42 historie neexistuje.
  • 00:27:45 Stejně jako tvrze, že jsou
    přirozené a umělé státy.
  • 00:27:49 To je nonsens.
  • 00:27:50 Ty věci se z nějakého
    důvodu časoprostoru stanou.
  • 00:27:54 Potom buď obhájí anebo neobhájí
    své právo na existenci.
  • 00:27:58 To je vše.
  • 00:27:59 Jak jsme na tom s bojem
    proti lžím a dezinformacím?
  • 00:28:02 Pokud to srovnáte z toho armádního
    pohledu ty jednotlivé země světa.
  • 00:28:10 Nejsme na tom úplně nejlépe.
  • 00:28:11 Přestože jsme začali.
  • 00:28:13 Máme celkem jasno v tom,
  • 00:28:16 jak dezinformace a dezinformační
    válku definovat.
  • 00:28:20 Mám jasno
    v tom čím a jak se projevuje.
  • 00:28:24 Mám jasno v tom, jaké
    nástroje nejlépe použít.
  • 00:28:28 Ale nemáme úplně jasno v tom,
  • 00:28:33 jak definovat původce
    a nositelé té hrozby.
  • 00:28:38 Od toho se to vše odvíjí.
  • 00:28:39 Pokud nebudeme schopni jednoznačně
    říci kdo je naším přítelem
  • 00:28:45 a kdo není.
  • 00:28:46 Kdo má zájem
    na tom nás destabilizovat
  • 00:28:50 a kdo naopak má zájem,
    abychom byli stabilní,
  • 00:28:54 tak se dá těžko proti
    dezinformacím bojovat.
  • 00:28:57 To je problém politiků?
  • 00:28:59 Z velké části ano.
  • 00:29:00 U nich to začíná.
  • 00:29:03 Potom je tam samozřejmě celý
    ten velký informační prostor
  • 00:29:06 a sociální sítě.
  • 00:29:09 Já bych řekl,
  • 00:29:10 že 100 000 zpráv sociálních
    sítí možná nemá takovou váhu,
  • 00:29:14 jako jedno vyjádření prezidenta
    nebo premiéra kterékoliv země.
  • 00:29:19 Nepřeceňujete ta vyjádření
    prezidenta nebo premiéra?
  • 00:29:23 Jámy, já myslím, že ne.
  • 00:29:24 Jsou to naši zvolení reprezentanti.
  • 00:29:30 Mají povinnost nás reprezentovat.
  • 00:29:32 Tím, že se ucházejí o úřad,
    tak nikdo z nich tam není proto,
  • 00:29:37 že by se do té funkce dostali tím,
  • 00:29:39 že je spontánně vyvolalo
    nějaký dav na náměstí.
  • 00:29:43 Oni se dobrovolně přihlásili
    do soutěže a v té byli úspěšní
  • 00:29:46 a zvítězili.
  • 00:29:47 Od toho se odvíjí jejich povinnost
    nás reprezentovat po dobu,
  • 00:29:51 po kterou trvá jejich mandát.
  • 00:29:53 Mimo jiné skládají
    přísahu a ta je zavazuje.
  • 00:30:02 Druhá věc je, nakolik tomu
    dostojí nebo nedostojí.
  • 00:30:08 Není to tak, že třeba podlehli
    sloganu nevaž se odvaž se?
  • 00:30:13 Já si myslím, že by se to tam dalo
    vysledovat.
  • 00:30:19 A myslím si, že k tomu bych
    nepotřeboval ani ten slogan.
  • 00:30:22 Že to v zásadě nějakým způsobem
    koresponduje spíše s jejich
  • 00:30:26 osobnostními rysy.
  • 00:30:30 V tento okamžik máme na nejvyšších
    pozicích příliš málo těch,
  • 00:30:33 kteří chtějí sloužit a příliš
    mnoho těch, kteří se domnívají,
  • 00:30:37 že tím že byli zvoleni,
  • 00:30:39 tak mají právo se odvázat
    bez ohledu na cokoliv.
  • 00:30:44 Děkuji vám.
  • 00:30:45 Uzavřeli jsme první
    kapitolu dnešního Focusu.
  • 00:30:55 Hosty Fokus Václava Moravce na téma
    Doba dezinformační dnes večer jsou.
  • 00:31:01 Armádní generál Petr Pavel,
    politický geograf Michael Romancov,
  • 00:31:08 datový analytik František Vrabel,
    politoložka Petra Vejvodová,
  • 00:31:14 astrofyzik Jiří Grygar
    a politoložka Anna Durnová.
  • 00:31:26 A proti trollům povstali elfové.
  • 00:31:29 To není pohádka ani fantazie.
  • 00:31:31 To je skutečnost, která
    se v ČR odehrává.
  • 00:31:35 Tato anonymní skupina dobrovolníků
    se pojmenovala právě elfové
  • 00:31:39 po vzoru svých pobaltských kolegů.
  • 00:31:41 Stejně jako oni, bojují proti lžím
    a dezinformacím na internetu.
  • 00:31:47 S jedním z šéfů elfů
    natáčela Marta Pilařová.
  • 00:31:54 Proč elfové?
  • 00:31:58 Název elfové přišel z baltských
    republik.
  • 00:32:01 Kde jsou s touto prací
    mnohem dále než my.
  • 00:32:04 Všichni jsou anonymní?
  • 00:32:07 Proč?
  • 00:32:08 Všichni anonymní nejsme.
  • 00:32:09 Ti lidé, kteří pro nás pracují,
    nebo sami pracují a spolupracují,
  • 00:32:14 tak si hlídají svoji
    identitu proto,
  • 00:32:17 že třeba nechtějí být vystaveni
    útokům zvenčí.
  • 00:32:21 My vnímáme, že se českým
    prostorem, zejména tím virtuálním,
  • 00:32:27 šíří celá řada dezinformací.
  • 00:32:28 Celá řada z nich je šířena s velice
    explicitně špatným záměrem,
  • 00:32:33 který jde třeba proti
    zájmům naší země.
  • 00:32:39 Byli jsme tím znepokojeni.
  • 00:32:40 Tak nás vyrostla ta chuť
    s tím něco dělat.
  • 00:32:46 Ta skupina je velice pestrá.
  • 00:32:49 Můžete si představit
    pohlednou slečnu psycholožku,
  • 00:32:52 můžete si přestavit
    chlapce na vysoké škole,
  • 00:32:55 nebo padesátiletého otce od rodiny,
  • 00:33:00 který třeba má nějaké zkušenosti
    s datovou analýzou apod.
  • 00:33:10 Je to vlastně hobby, možná také
    fotbal člověk nehraje pouze sám.
  • 00:33:16 Sdílíme to co umíme.
  • 00:33:18 Ten kdo umí třeba zachytávat
    dezinformační e-maily,
  • 00:33:22 které putují po internetu,
    tak už je nemusí umět analyzovat.
  • 00:33:27 Psycholog zase když mu dáme
    ty obsahy, tak z toho řekne ano,
  • 00:33:31 toto třeba cílí právě na takovou
    emoci a takovou emoci.
  • 00:33:38 Tady máme video, kdy se nějaký
    novinář dostal do trolí farmy.
  • 00:33:49 To jsou ti lidé co tam stojí
    za spoustou počítačů
  • 00:33:52 v nějaké budově.
  • 00:33:55 Je to velice malá část z nich.
  • 00:33:56 Ale ta aktivní a nebezpečná.
  • 00:33:59 Je podstatné, že to mohou
    být ty prvotní chovatele hybatele.
  • 00:34:04 Musíme rozlišovat ty, kteří
    šíří dezinformační obsahy,
  • 00:34:08 protože jim sami v dobré víře
    uvěřili a nechali se podvést,
  • 00:34:14 od těch kteří podvádějí.
  • 00:34:17 To je to nejzákladnější dělení.
  • 00:34:20 My jdeme proti těm digitálním
    šmejdům, jestli to takto mohu říci.
  • 00:34:25 Těm, kteří moc dobře vědí,
  • 00:34:27 že šíří lež a snaží se pochopitelně
    získávat důvěru těch,
  • 00:34:32 kteří potom ty dezinformace
    v dobré víře posílají dále.
  • 00:34:37 Ale ti nejsou naším cílem.
  • 00:34:39 To jsou lidé, které my naopak
    chceme chránit.
  • 00:34:42 Ti jsou obětí toho
    dezinformačního konání.
  • 00:34:47 Těch je nejvíce.
  • 00:34:48 Není to dlouho, co o sobě
    elfové dali veřejně vědět.
  • 00:34:51 Můžeme si říci nějaké výsledky?
  • 00:34:54 Myslím si, že ano.
  • 00:34:57 Poměrně dobře se nám daří
    to mapování dezinformační scény.
  • 00:35:02 Dobře se nám daří zachytávání
    dezinformačních e-mailu.
  • 00:35:06 Máme už poměrně
    obsáhlou databázi toho,
  • 00:35:09 jakým způsobem se šíří
    a odkud se šíří.
  • 00:35:14 A jak jsou přeposílány.
  • 00:35:15 Pokud bychom chtěli něco takového
    vysloveně viditelného a vizuálního,
  • 00:35:19 tak bych třeba odkázal
    na jednu akci.
  • 00:35:22 S tou akcí přišli elfové
    z baltských států,
  • 00:35:26 kterým se nelíbilo,
  • 00:35:28 že Amazon prodává trička a další
    reklamní předměty se srpem
  • 00:35:34 a kladivem apod.
  • 00:35:36 Tak vytvořili jednoduchý mem.
  • 00:35:38 Ptá se.
  • 00:35:39 Když prodáváte Kličko se, tedy
    tričko se srpem a kladivem,
  • 00:35:41 tak proč nepodáváte také
    ten s hákovým křížem.
  • 00:35:49 A tak se začal vytvářet tlak
    na Amazon, aby s tím něco dělal.
  • 00:35:55 Kde tyto aktivity se začali
    zapojovat dobrovolníci,
  • 00:35:58 kteří velice čerstvě
    se k nám začali přidávat.
  • 00:36:03 Za chtěl jsem před pár dny jsem
    zachytil,
  • 00:36:05 že tato otázka se začala
    probírat v Evropském parlamentu.
  • 00:36:08 Poznají se ty výsledky navenek,
  • 00:36:12 nebo se někdy o nich
    nikdy nedovíme?
  • 00:36:14 Chtějí elfové, aby veřejnost
    znala ty výsledky?
  • 00:36:22 Někdy ano a někdy ne.
  • 00:36:25 Nikdo z nás,
  • 00:36:26 kteří se této věci věnujeme ve svém
    volném čase to nedělá proto,
  • 00:36:31 že by si za to chtěl vysloužit
    nějaké společenské uznání.
  • 00:36:41 To bychom dělali něco jiného.
  • 00:36:47 Druhou kapitolu dnešního Focusu
    otevírají politoložka Petra
  • 00:36:50 Vejvodová z Masarykovy
    univerzity v Brně.
  • 00:36:53 Dobrý večer.
  • 00:36:56 A vítám také datového
    analytika Františka Vrabela.
  • 00:36:59 Dobrý večer.
  • 00:37:02 Začneme u vás Petro.
  • 00:37:04 Zvítězí elfové nebo trollové?
  • 00:37:07 To je velice těžká
    otázka v tuto chvíli.
  • 00:37:12 Protože to je aktivita,
    která je relativně nová.
  • 00:37:16 Ty výsledky,
  • 00:37:17 nebo respektive efekt jejich
    činnosti asi uvidíme v budoucnu.
  • 00:37:21 Já doufám, že zvítězí.
  • 00:37:23 Doufám, že zvítězí rozum
    nad emocemi a dezinformacemi.
  • 00:37:28 Že ta jejich aktivita bude úspěšná.
  • 00:37:30 Je to jedna z možných cest,
    nebo existují cesty jiné,
  • 00:37:35 že elfové povstali proti trollům?
  • 00:37:40 Je to určitě jedna z možných
    cest a jedna ze chtěných cest.
  • 00:37:44 Je velice dobře, že samotná
    část společnosti,
  • 00:37:49 v podstatě občanská společnost
    se aktivizovala v kontextu tohoto
  • 00:37:54 problému, kterému čelíme.
  • 00:37:56 To znamená dezinformacím.
  • 00:37:59 Je to vlastně vítaná aktivita.
  • 00:38:01 Protože v demokracii
    je velice pozitivní,
  • 00:38:07 pokud společnost věnuje pozornost
    problémům a výzvám, kterým čelí.
  • 00:38:14 Ale není to lék na všechno.
  • 00:38:15 Rozhodně to,
  • 00:38:16 že někdo vyvrací dezinformace
    na internetu a objevuje zdroje
  • 00:38:20 dezinformací, přičemž
    není jediná cesta,
  • 00:38:24 kterou můžeme léčit tento problém.
  • 00:38:28 Jsou to moderní,
  • 00:38:29 které výrazně přispěly k šíření
    lží a dezinformací?
  • 00:38:34 Ano.
  • 00:38:35 Navázal bych na vaši
    předchozí otázku.
  • 00:38:38 Já fandím elfům.
  • 00:38:40 A to z následujícího důvodu.
  • 00:38:42 Ty naše výzkumy nad těmi velkými
    daty, což je naše doména.
  • 00:38:46 Zpracováváme 90 % se to jeho
    obsahu a jako jedni z mála vidíme
  • 00:38:51 ten velký obraz
    dezinformační sféry.
  • 00:38:55 Tak vidíme, že bohužel veřejné
    mínění je zrcadlový obsah toho,
  • 00:39:00 co se píše v dostatečně velkém
    agregátu těch on-line médiích.
  • 00:39:08 Pokud nebude slyšet ten pozitivní
    hlas elfů a ostatních,
  • 00:39:13 kteří se snažíme přispívat
    do té demokratické debaty
  • 00:39:17 pravdivými informacemi,
  • 00:39:18 nebo pravdivým poznáním a čistými
    úmysly, tak ti lidé,
  • 00:39:25 kteří jsou řízeni velice
    přesně ze zahraničí,
  • 00:39:31 tak ten jejich hlas
    bude daleko silnější.
  • 00:39:33 A budou mít tak příležitost
    ovlivňovat veřejné mínění daleko
  • 00:39:37 více, než když proti
    nim povstaneme.
  • 00:39:39 Vy analyzujete obrovské množství
    datového obsahu v kyberprostoru.
  • 00:39:47 Ano.
  • 00:39:48 Jak velké množství
    lží a dezinformací,
  • 00:39:51 pokud byste měl procentuálně
    to porovnat.
  • 00:39:55 Z toho velkého objemu
    to porovnáváme denně,
  • 00:39:58 tak to je přes milion článků.
  • 00:40:00 Abyste měl řád.
  • 00:40:02 Tak to je asi 25 % obsahu, který
    se nějakým způsobem týká politiky.
  • 00:40:09 Více nebo méně.
  • 00:40:11 A v tom českém prostředí je bohužel
    osm až 10 % obsahu,
  • 00:40:17 který můžeme hodnotit jako součást
    nepřátelské dezinformační kampaně.
  • 00:40:25 Narůstá to v čase?
  • 00:40:26 Mírně to narůstá.
  • 00:40:30 Řádově v %.
  • 00:40:31 Dvě nebo tři % ročně.
  • 00:40:34 Nakolik je podhoubím šíření
    informací problematika ekonomických
  • 00:40:40 modelů těch technologií?
  • 00:40:42 To znamená sociálních sítí.
  • 00:40:44 Když se podíváme na všechny
    ty aféry kupříkladu Facebooku jako
  • 00:40:48 je Cambridge Analytica.
  • 00:40:51 Ty algoritmy,
  • 00:40:52 které ovládají sociální sítě dost
    značně přispívají k tomu problému,
  • 00:40:57 kterému tady čelíme a kvůli
    kterému se tady dnes scházíme.
  • 00:41:02 Algoritmus je těmi společnostmi
    vlastnícími sociální média
  • 00:41:07 nastavený tak, aby se k nám dostal
    obsah,
  • 00:41:10 který odpovídá našim zájmům
    naší politické orientaci a tomu
  • 00:41:14 co vyhledáváme na internetu.
  • 00:41:17 Vychází to z různých
    výzkumů veřejného mínění.
  • 00:41:21 A také z toho co se teď dělalo
    v rámci průzkumu na školách.
  • 00:41:26 Většinová společnost netuší,
    nebo ta jejich znalost o tom,
  • 00:41:32 že se jim ukazuje jiný obsah
    při vyhledávání stejných klíčových
  • 00:41:37 slov, takto se různí.
  • 00:41:43 Reklamy co na nás jdou
    jsou velice různé.
  • 00:41:45 Sociální sítě a internet považujeme
    za nejsvobodnější médium a přitom
  • 00:41:50 je s námi manipulováno tak jako
    nikdy v historii právě kvůli
  • 00:41:55 monetizaci, reklamě a marketingu.
  • 00:41:58 Je to rozhodně paradoxní.
  • 00:42:01 Je to věc, která prostě
    přispívá k tomu,
  • 00:42:03 že nečteme dost často příliš
    objektivní informace.
  • 00:42:09 Dovolte mi technický pohled na věc.
  • 00:42:12 Jak to vlastně celé
    funguje ta mašinérie.
  • 00:42:17 Já si myslím, že je nutné
    pojmenovat kdo za tím stojí.
  • 00:42:21 To co nás skutečně ohrožuje
    je nepřátelská propaganda
  • 00:42:28 a dezinformace jsou její součástí.
  • 00:42:30 Ta je řízená z Moskvy z Kremlu.
  • 00:42:35 A je to součástí,
  • 00:42:36 oficiální součástí informační
    a bezpečnostní strategie Ruska.
  • 00:42:42 Kde za ujímá informační
    válka důležitou roli.
  • 00:42:45 Jak říkal pan generál,
  • 00:42:47 tak je daleko lacinější
    a efektivnější.
  • 00:42:52 Je to vysoce efektivní,
    ovlivňovat toho protivníka.
  • 00:42:57 Oni nás považují za nepřítele.
  • 00:42:59 Ten model je následující.
  • 00:43:06 Existuje poměrně málo webů
    v našem českém prostředí,
  • 00:43:12 řekněme 20 nebo 30,
  • 00:43:15 ze kterých proudí
    podle našich průzkumů
  • 00:43:17 s 22 proudí 66 % nepřátelské
    propagandy proti tomu státu.
  • 00:43:22 Jsou lehce dohledatelné
    ty jejich vazby na Rusko.
  • 00:43:28 Ty publikují dezinformace,
  • 00:43:30 které používáte ruská
    propaganda jako střelivo.
  • 00:43:35 A to střelivo je potom
    přebíráno přes sociální sítě,
  • 00:43:39 které fungují jako
    takové multiplikátory.
  • 00:43:43 Násobiče a roznašeče obsahu.
  • 00:43:48 Tady máme desítky zpravodajských
    důstojníků ruských, případně lidí,
  • 00:43:52 kteří jsou s nimi spojeni,
  • 00:43:54 kteří distribuují ten obsah
    a řídí tu aktivitu.
  • 00:43:57 Potom jsou tady stovky lidí,
  • 00:44:00 většinou to jsou už naši
    lidé a naši občané,
  • 00:44:03 kteří to dělají z nejrůznějších
    důvodů.
  • 00:44:06 Třeba aby se zviditelnili,
    nebo jim to dělá dobře,
  • 00:44:08 nebo jsou nespokojeni s tím,
    jak se tady v Česku žije.
  • 00:44:13 A ti potom ty dezinformace
    co byly vytvořeny v Rusku,
  • 00:44:18 tak potom mezi nás pouští.
  • 00:44:21 A bohužel, a teď bych
    pokračoval tím co říkala Petra.
  • 00:44:27 Ty algoritmy a především Facebook,
  • 00:44:29 který hraje tu nejsmutnější
    roli v tomto příběhu,
  • 00:44:33 jak jsou postavené tak a málo
    lidí si to uvědomuje,
  • 00:44:37 že drobí společnost na co nejmenší
    kousky.
  • 00:44:42 Marketingově.
  • 00:44:43 Dělá to proto, aby je zacílil
    a aby jim ukazoval,
  • 00:44:49 nebo těm lidem v těch
    informačních bublinách,
  • 00:44:53 aby osvětlil za cílenou reklamou,
  • 00:44:56 za kterou dostanou
    mnohem více peněz,
  • 00:44:59 než kdyby reklamu
    prezentoval celé veřejnosti,
  • 00:45:04 takže v tom jejich modelu
    je rozdělit společnost
  • 00:45:12 na co nejmenší kousky.
  • 00:45:14 Zamotat je do těch informačních
    bublin, aby mezi sebou nemluvili.
  • 00:45:20 To co Rusové, případně Číňané
    dělají je pouze vlastně to,
  • 00:45:24 že implementují ten byznys
    model, který využíván reklamou,
  • 00:45:30 tak to využívají na politiku.
  • 00:45:35 Aniž bych zpochybňoval
    data Františka Vrabela.
  • 00:45:38 Když se bude poukazovat
    na Čínu a Rusko,
  • 00:45:42 tak je to účinné vůči části
    společnosti, která to vnímá tak,
  • 00:45:46 že to je politický
    souboj Američanů.
  • 00:45:49 Akorát tradiční média
    neodhalují také tyto nástroje,
  • 00:45:53 které může používat CIA apod.
  • 00:45:57 Rozhodně.
  • 00:45:58 V momentě,
  • 00:45:59 kdy začneme celou tu debatu
    o nějakém společenském fenoménu
  • 00:46:04 balit,
  • 00:46:05 nebo obalovat politikou
    a politickými aktéry a nositeli
  • 00:46:09 politických zpráv,
  • 00:46:11 tak si automaticky
    zablokovává část veřejnosti.
  • 00:46:15 Část publika,
  • 00:46:16 ke kterému se snažíme mluvit
    a kterému se snažíme vysvětlit,
  • 00:46:19 že tady jakýsi fenomén
    a jakýsi problém,
  • 00:46:21 který se nemusí týkat pouze
    politických nositelů,
  • 00:46:24 nebo být v souvislosti s těmi
    politickými nositeli.
  • 00:46:28 Ale mohou to být také témata
    z naprosto jiných oblastí,
  • 00:46:31 jako je zdravotnictví.
  • 00:46:33 Očkování.
  • 00:46:34 Přesně tak.
  • 00:46:35 Jak škodlivé je očkování.
  • 00:46:37 Až bude snížena hranice
    proočkovanosti.
  • 00:46:42 Nebo způsoby,
  • 00:46:43 jak se dá léčit rakovina
    pomocí čistících prostředků
  • 00:46:46 na bazény apod.
  • 00:46:48 Na tom vy jste začínala,
  • 00:46:50 aby se došlo k tomu co popisuje
    František?
  • 00:46:55 Záleží na tom, s jakou tou cílovou
    skupinou hovoříme.
  • 00:46:59 Nám se bohužel tady v ČR vůbec
    v Evropě stalo to,
  • 00:47:02 že jsme tu debatu o dezinformacích
    a o tom bezpečnostním riziku,
  • 00:47:07 které z toho plyne,
  • 00:47:08 začali v souvislosti s Ruskem
    a ruskou informační válkou.
  • 00:47:12 Je to logické, protože prostě
    tak ta situace nastala.
  • 00:47:16 Nicméně je zapotřebí
    se posunout dále.
  • 00:47:20 Je zapotřebí to téma
    odpolitizovat tak,
  • 00:47:22 abychom se dostali k těm cílovým
    skupinám,
  • 00:47:24 které také mohou kdy zasažené
    dezinformací,
  • 00:47:27 ale třeba také jiného charakteru.
  • 00:47:31 Běžným jevem na internetu
    jsou poplašná často zbytečné
  • 00:47:35 řetězové zprávy.
  • 00:47:36 Tzv. hoaxy.
  • 00:47:38 Řídí se bleskovou rychlostí
    po sociálních sítích,
  • 00:47:41 nebo v e-mailech.
  • 00:47:43 A přestože existuje mnoho druhů
    hoaxů, mají jeden společný znak.
  • 00:47:48 Nabádají k dalšímu
    rozesílání a sdílení.
  • 00:47:53 Hoaxy mají různý obsah.
  • 00:47:55 Informaci zábavné, o urgentní
    nebezpečí,
  • 00:47:59 falešné prosby o pomoc a petice.
  • 00:48:02 Citově vydírají, nebo třeba
    varují před virovým ohrožením.
  • 00:48:07 Některé hoaxy obsahují
    nebezpečné rady.
  • 00:48:11 Šíření hoaxů může zničit pověst
    jednotlivce nebo skupiny.
  • 00:48:16 Který nebo která má údajně
    stát za ohrožením,
  • 00:48:20 nebo způsobit zneužití
    osobních údajů.
  • 00:48:25 Při přeposílání hoaxů lidé často
    nechávají předešlé příjemce
  • 00:48:29 ve zprávě.
  • 00:48:36 Takto internetem běží obrovský
    seznam e-mailových adres,
  • 00:48:39 což zvyšuje riziko,
  • 00:48:41 že někdo zneužije třeba k rozšíření
    počítačového viru.
  • 00:48:50 Původ slova hoax se datuje
    do 17. století.
  • 00:48:53 U nás ale užíváme tento termín
    spíš až teď v souvislosti s těmi
  • 00:48:58 řetězovými e-maily.
  • 00:49:00 Kolik těch zpráv, jak o nich
    mluvila Petra,
  • 00:49:02 se týká také těch běžných věcí.
  • 00:49:05 Ve zdravotnictví.
  • 00:49:06 Rakovinu je možné vykadit,
  • 00:49:07 nebo na ní použít čistící
    prostředky na bazén.
  • 00:49:14 Nemám přesné číslo.
  • 00:49:16 Naší doménou je zpravodajství,
    nikoliv řetězové e-maily.
  • 00:49:22 Nicméně o nich něco vím a mohu
    k tomu komentovat.
  • 00:49:30 Ten základní směr toho útoku
    ruské nepřátelské propagandy
  • 00:49:35 je zpochybňování pravdy.
  • 00:49:37 Jestliže někdo říká, že lze léčit
    rakovinu nějakým kloktadlem.
  • 00:49:44 Pampeliškové listí.
  • 00:49:45 Tak se lidé říkají,
    jak to vlastně je?
  • 00:49:50 Já čtu v televizi něco jiného.
  • 00:49:52 Takže to je součástí toho,
  • 00:49:53 že jim pouštíme
    nejrůznější nesmysly,
  • 00:49:56 aby začali věřit pomalu tomu
    co jim potom posuneme dále.
  • 00:50:02 Když si vezmeme konkrétní případ
    a volbu prezidenta českého,
  • 00:50:09 tu poslední volbu,
    tak proti panu prof.
  • 00:50:14 Drahošovi šlo více než milion
    těchto řetězových e-mailů.
  • 00:50:19 A byly velice přesně zacíleny.
  • 00:50:22 Byla to organizovaná
    dobře promyšlená akce.
  • 00:50:26 Například ty řetězové
    e-maily na jižní Moravě,
  • 00:50:29 kde je hodně katolíků,
  • 00:50:30 tak líčili pana Drahoše jako
    iluminace nebo svobodného zednáře.
  • 00:50:38 Na severní Moravě bylo psáno,
    že mu platí kampaň Zdeněk Bakala.
  • 00:50:43 Na Karlovarsku nebo Liberecku
    byl zase jiný ten příběh.
  • 00:50:48 Kdy ukazovali podepsanou smlouvu
    mezi německou kancléřkou,
  • 00:50:52 francouzským prezidentem a prof.
  • 00:50:54 Drahošem, že když vyhraje,
  • 00:50:56 tak sem přemístí jeden
    a půl milionu uprchlíků
  • 00:51:00 ze západní Evropy.
  • 00:51:01 To je ten typ nebezpečného
    pronikání a vlivových operací Ruska
  • 00:51:06 v ČR.
  • 00:51:07 Petro, prostupuje to tedy
    celou společností?
  • 00:51:11 Kromě snažení elfů je to nějaká
    mediální gramotnost
  • 00:51:16 a mediální vzdělávání?
  • 00:51:18 Jako lék na dezinformace a hoaxy.
  • 00:51:23 Přesně tak.
  • 00:51:25 To je ta zásadní aktivita,
    kam bychom měli upínat naše síly.
  • 00:51:29 Mediální gramotnost a podpora
    kritického myšlení.
  • 00:51:32 Samozřejmě je zapotřebí
    podporovat také činnost,
  • 00:51:36 kterou vykonávají elfové.
  • 00:51:39 Různé organizace
    kontrolující informace.
  • 00:51:42 Zapotřebí je vyvracet
    hoaxy a upozorňovat
  • 00:51:44 na faktickou nesprávnost.
  • 00:51:47 Do budoucna,
  • 00:51:48 to co nám bude fungovat
    a to co funguje třeba ve státech
  • 00:51:54 jako je Finsko,
  • 00:51:55 kde ta úroveň odolnosti vůči
    dezinformacím je poměrně nízká,
  • 00:51:59 třeba ve srovnání
    se středoevropskými státy.
  • 00:52:02 Tak to je vzdělávání,
    podpora mediálním zdravosti.
  • 00:52:06 Pokud nás někdo bude
    útočit dezinformacemi,
  • 00:52:09 tak potřebujeme to mediální
    vzdělání.
  • 00:52:21 Ty druhy manipulace se zdokonalují.
  • 00:52:27 Jedno slovo, které bude módní
    jako slovo o fake news.
  • 00:52:32 Deep Fake.
  • 00:52:34 Je to vrchol manipulace.
  • 00:52:38 Už každý díky internetu může
    vkládat do úst to co nikdy neřekli
  • 00:52:44 tak, že to na videu nikdo nepozná.
  • 00:52:48 Nemůžeme ani věřit tomu,
  • 00:52:50 co vidíme na vlastní oči a slyšíme
    na vlastní uši.
  • 00:52:54 Ať už je to Donald Trump
    nebo Barack Obama,
  • 00:52:57 technologií Deep Fake je možné
    donutit kohokoliv,
  • 00:53:01 aby říkal to co chcete.
  • 00:53:32 Deep Fake dostal svůj název,
    protože používají deep learning,
  • 00:53:36 počet oveček počítačové učení.
  • 00:53:43 Používají neuronové
    počítačové sítě,
  • 00:53:46 které mají napodobovat
    lidský mozek.
  • 00:53:52 Umělá inteligence si zapamatuje
    mimiku tváře,
  • 00:53:56 nebo typické zvyky a zlozvyky
    v mluveném projevu.
  • 00:54:34 Teď se ještě nesrovnalosti
    dají zachytit.
  • 00:54:36 Pokud ovšem víte co hledáte.
  • 00:55:07 Webový server bustfeed
    si vyzkoušel,
  • 00:55:10 jak snadné je podvrh vytvořit.
  • 00:55:12 Novináře oslovili herce a režiséra,
    aby imitoval hlas Baracka Obamy.
  • 00:55:40 Použili běžně dostupný software
    na trikovou postprodukci.
  • 00:55:44 A program fake up využívající
    dané technologie.
  • 00:56:04 Experti předvídají,
  • 00:56:05 že se Deep Fake stanou největší
    zbraní v dezinformační válce proti
  • 00:56:10 západním demokraciím.
  • 00:56:11 Kladu si otázku zda, tedy ne kladou
    si otázku zda se to stane,
  • 00:56:15 ale kdy se to stane.
  • 00:56:21 Logicky začnu u datového
    analytika Františka Vrabela.
  • 00:56:25 Jak daleko je svět s analýzou
    Deep Fake?
  • 00:56:30 Pro naši demokracii to je zásadní
    problém.
  • 00:56:34 To mimo jiné proto, že důležité
    věci jako je mediální gramotnost,
  • 00:56:39 tak to už nebude k ničemu.
  • 00:56:42 Protože to bude tak dokonalé,
    že to člověku nepomůže.
  • 00:56:49 Takže bude muset spoléhat
    na umělou inteligenci?
  • 00:56:53 Protože sami svojí
    inteligencí, jak se ukazuje,
  • 00:56:56 nerozlišíme jestli mluvil Barack
    Obama nebo někdo úplně jiný.
  • 00:57:01 Strategie boje proti těm Deep
    Fake ještě nejsou vytvořeny,
  • 00:57:06 ale pracuje se na nich.
  • 00:57:08 Ono to má nějakou posloupnost.
  • 00:57:10 Začalo to tím,
  • 00:57:11 že se automaticky generuje obsah
    a vlastně člověk ho téměř není
  • 00:57:17 schopen rozpoznat
    ve většině případů.
  • 00:57:19 Nebo ho nerozpozná.
  • 00:57:21 Důležitou roli sehrály v amerických
    volbách, kdy se ví,
  • 00:57:25 že celých 20 % tweetů na Twitteru
    bylo tvořeno roboty
  • 00:57:34 v americké volbě.
  • 00:57:36 A v případě kampaně Brexit,
    o vystoupení Británie z EU,
  • 00:57:43 tak to byla celá 1 třetina.
  • 00:57:46 Tím dalším krokem je zapojování
    těch robotů,
  • 00:57:52 kteří s vámi hovoří a vedou
    dialog na sociálních sítích.
  • 00:57:58 Tam ještě ta technologie
    není úplně dokonalá,
  • 00:58:01 ale už to je pouze otázka
    měsíců, nebo roku nebo dvou,
  • 00:58:04 kdy nerozpoznáte, že ten kdo s vámi
    hovoří nejste vy, ale je to robot.
  • 00:58:10 Toto bude úplně nový fenomén,
    kdy v politické debatě čekáme,
  • 00:58:16 že na té druhé straně s námi
    mluví člověka nikoliv stroj.
  • 00:58:20 Ten stroj nevede jednu konverzaci,
  • 00:58:22 ale může vést milion
    konverzací dohromady.
  • 00:58:27 Ten mediální prostor
    se zaplaví roboty.
  • 00:58:32 To si budou moci dovolit ti,
  • 00:58:34 kteří nevyznávají žádnou
    etiku a nemají skrupule.
  • 00:58:40 Ty despotické režimy.
  • 00:58:43 Ty Deep Fake,
  • 00:58:44 ke kterým myslím nedojde efektivně
    dříve než za několik málo let,
  • 00:58:49 tak tam není řešení
    analýza na úrovni obsahu.
  • 00:58:57 Ale komplexní analýza.
  • 00:59:00 Ve které musí sehrát roli
    ti technologičtí giganti,
  • 00:59:04 kteří vytvářejí hardware,
    na kterém to lze dělat.
  • 00:59:11 Kteří dávají v té kritické
    infrastruktury internetu ty klíčové
  • 00:59:17 komunikační uzly.
  • 00:59:18 Proto bychom si třeba měli
    chránit a nepřijímat technologie
  • 00:59:22 od firmy Huawei.
  • 00:59:24 Ale spoléhat se na ty naše
    západní dodavatele té páteřní
  • 00:59:30 internetové komunikace.
  • 00:59:33 Výrobci softwaru, kteří
    jsou všichni ze západu,
  • 00:59:37 tak aby přijali svoji odpovědnost
    a aby byly vytvořeny také takové
  • 00:59:43 technické podmínky,
  • 00:59:45 aby to bylo rozpoznáno
    nikoliv na úrovni obsahu,
  • 00:59:47 ale jak to video bylo vytvořeno.
  • 00:59:49 Když tady František
    Petro líčí tuto vizi?
  • 00:59:55 Co to udělá s uspořádáním
    společnosti,
  • 00:59:57 když posloucháte tuto
    technologickou vizi?
  • 01:00:00 Umělá inteligence, Deep Fake
    co jsme viděli v ukázce.
  • 01:00:06 To do budoucna se obávám
    napáchá obrovské škody.
  • 01:00:11 Právě proto,
  • 01:00:12 že to je pro nás naprosto
    nerozeznatelné od toho zdali
  • 01:00:15 to je pravda nebo ne.
  • 01:00:18 Pouze si představme třeba videa,
  • 01:00:20 na kterých uvidíme politiky
    říkající informace jdoucí proti
  • 01:00:27 zájmům ČR, zpochybňujícím
    vůbec ČR jako takovou.
  • 01:00:34 Zpochybňující demokratické hodnoty.
  • 01:00:36 Nebo si představme třeba
    příslušníky ozbrojených sil,
  • 01:00:40 kteří páchají něco co by normálně
    nespáchali.
  • 01:00:46 Jak to zahýbe veřejným míněním.
  • 01:00:49 Nebude potom druhý extrém,
  • 01:00:50 že už vůbec nebudeme
    věřit reálným obrazům?
  • 01:00:56 Existuje fenomén deep fake.
  • 01:01:06 Řekneme si, žádné
    video není pravdivé.
  • 01:01:08 Žádná fotka.
  • 01:01:11 Budeme zpochybňovat
    naprosto cokoliv.
  • 01:01:13 Co uvidíme, co uslyšíme.
  • 01:01:17 Primárně věříme důkazům,
    které vidíme na vlastní oči.
  • 01:01:21 Dnes video a audio nahrávky
    se používají v důkazním řízení
  • 01:01:25 v rámci soudních sporů.
  • 01:01:27 V budoucnu pravděpodobně
    toto nebude možné.
  • 01:01:30 Pokud nebude prokázáno, že nahrávka
    nebo audio je skutečně pravé.
  • 01:01:35 Doufám, že bude technologie,
    která rozpozná,
  • 01:01:39 jestli je to fake nebo nikoliv.
  • 01:01:47 Každopádně to bude mít velký
    dopad na demokratický systém.
  • 01:01:50 Z Belgie známe případ,
  • 01:01:52 kdy jedna belgická entita
    vytvořila to deep fake video,
  • 01:01:56 ale za tím účelem,
    aby na to upozornila.
  • 01:02:08 Bylo to video s Donaldem Trumpem.
  • 01:02:12 Záměrem bylo ukázat
    na tuto technologii.
  • 01:02:16 A tento způsob manipulace.
  • 01:02:18 Přesto se ozvala spousta
    lidí, která tomu uvěřila.
  • 01:02:22 A následovala toto video.
  • 01:02:25 Ve snaze šířit ho.
  • 01:02:27 Podívejte se, co Donald Trump říká.
  • 01:02:32 Já věřím, že se najde takové
    technologické řešení,
  • 01:02:35 které do velké míry zamezí tomu,
  • 01:02:37 aby se deep fake vůbec
    dostali na sociální sítě.
  • 01:02:45 Aby byly indexovány a zobrazovány
    vyhledávacími stroj.
  • 01:02:50 Podle vás je to jediná možnost?
  • 01:02:53 Podle mého.
  • 01:02:57 Tak moc děkuji oběma.
  • 01:02:59 Děkujeme.
  • 01:03:05 Jak snadné je přesvědčit
    přesvědčené?
  • 01:03:11 Dost často se jedná o spíše
    na nahlodání názorových základů.
  • 01:03:27 Jak se dá dělat účinná propaganda?
  • 01:03:29 Jak ukázal výzkum mezi vyučujícími,
  • 01:03:32 30 % z nich považuje servery
    šířící proruskou propagandu
  • 01:03:38 za důvěryhodné.
  • 01:03:39 Co dokáží na poli propagandy
    nové technologie?
  • 01:03:50 Představte si takové
    konspirační teorie.
  • 01:03:58 Ale realita.
  • 01:03:59 Je čas omezit virtuální svět?
  • 01:04:02 Sociální síti Facebook
    zrušila další desítky stránek
  • 01:04:06 a uživatelských účtů,
    které šířily dezinformace.
  • 01:04:10 Sledujte fokus Václava Moravce.
  • 01:04:13 Na téma Doba dezinformací.
  • 01:04:19 Manipulace.
  • 01:04:20 Takový termín známe z veřejného
    prostoru velice dobře.
  • 01:04:24 Skupinu seniorek navštívila
    na Valašsku také Marta Pilařová.
  • 01:04:30 Našla pozitivnější obraz.
  • 01:04:32 Dámy jsou v technologiích vzdělané.
  • 01:04:35 Na internetu zvídavé, ale vůči
    nástrahám více než podezřívavé.
  • 01:04:44 Valašský kraj se mění celý.
  • 01:04:46 Trénovat hlavy učí se dědečkové
    a babičky.
  • 01:04:50 Hádáme a luštíme.
  • 01:04:51 Paměť si cvičíme.
  • 01:04:53 Při takové prevenci
    vyhneme se demenci.
  • 01:04:57 Vnoučata jen čučí,
    co nás všechno učí.
  • 01:05:01 Dostali jsme se k tomu kolem 70.
  • 01:05:03 To neříkej, kolik máš roků.
  • 01:05:05 Neříkám.
  • 01:05:10 Mě vnuk řekl.
  • 01:05:12 Babi, já nevím,
    to by jsi ale nepochopila.
  • 01:05:14 To mě tak nakoplo.
  • 01:05:19 Já jsem neříkala nic v tu chvíli.
  • 01:05:23 Ale v tu chvíli jsem si řekla,
    já ti kamaráde ukážu.
  • 01:05:27 Že já to pochopím.
  • 01:05:33 Já mám také notebook.
  • 01:05:41 Má doma vnučku, která
    jí na to pustí.
  • 01:05:45 10 způsobů dobrého sexu.
  • 01:05:51 Rodina po mně chtěla,
    abych pletla ponožky.
  • 01:05:55 Jsem to zapomněla, tak jsem
    hledala pomoc na internetu.
  • 01:06:01 Našla jsem.
  • 01:06:02 Pletla jsem.
  • 01:06:05 Tak.
  • 01:06:07 Jak se vykládá o tom surfování,
    to jsem si přečetla.
  • 01:06:18 Potřebuji každopádně si zjistit,
    kdy jede vlak nebo autobus.
  • 01:06:23 Potřebuju najít cestu.
  • 01:06:27 Potřebovala jsem do Mohelnice.
  • 01:06:30 Vlakem to vůbec nešlo.
  • 01:06:33 Teď jsme v Karolince.
  • 01:06:37 Ano.
  • 01:06:38 Tak Karolinka.
  • 01:06:39 Obec.
  • 01:06:40 Pojedeme do Nového Hrozenkova.
  • 01:06:46 Nebo musíš do Penny.
  • 01:06:52 Takže koupit?
  • 01:06:56 Co koupit?
  • 01:06:57 Jízdenku.
  • 01:06:58 Tak počkej.
  • 01:06:59 Tady poslat spojení.
  • 01:07:02 Tato generace vyrůstala
    dost často na tom,
  • 01:07:05 že noviny a televizní
    zprávy jsou vždy pravda.
  • 01:07:08 Já mám rodiče, co mají
    86 až 90 let.
  • 01:07:12 Když přijdou domů, tak se mě ptají,
    maminko, myslíš, že toto je pravda?
  • 01:07:19 Narodilo se prase podobné člověku.
  • 01:07:27 A ty pracky mělo hrozně dlouhé.
  • 01:07:29 To byla taková běžná
    informace, která tam proběhla.
  • 01:07:34 Říkám, to je přece blbost.
  • 01:07:36 Za 14 dní vyléčíme klouby.
  • 01:07:40 A během 14 dnů budete celý zdraví.
  • 01:07:43 Jako kamzíci.
  • 01:07:49 To jsou blbosti.
  • 01:07:50 Po člověku chtějí hlavně peníze.
  • 01:07:53 Já se podívám, kolik to stojí.
  • 01:07:59 A to je ten problém.
  • 01:08:00 Dokážete ty špatné věci
    na internetu poznat?
  • 01:08:02 Když se mi to nelíbí,
    tak okamžitě jdu jinam.
  • 01:08:07 Vůbec se o to nezajímám.
  • 01:08:10 Dělám jen, co mě zajímá.
  • 01:08:13 Říkali jste, že se potřebujete
    naučit, jak někomu posílat kopie.
  • 01:08:20 A nechcete, aby bylo
    vidět, kdo to všechno čte.
  • 01:08:23 Ano.
  • 01:08:40 Takže to uděláme tak.
  • 01:08:50 Čím se to likviduje?
  • 01:08:52 Já špatně vidím.
  • 01:08:53 O finanční gramotnosti,
    povědomost máme.
  • 01:08:57 O nástrahách ulice, tam si také
    pozor dáme.
  • 01:09:00 Děkují vám babičky, které
    trénují své hlavičky.
  • 01:09:06 Tak ahoj, na shledanou.
  • 01:09:08 Na shledanou.
  • 01:09:11 Těšilo nás.
  • 01:09:19 Informační obezita.
  • 01:09:25 Hosty třetí kapitolu dnešního
    Focusu je astrofyzik doktor
  • 01:09:29 Jiří Grygar.
  • 01:09:30 Dobrý večer pane doktore.
  • 01:09:34 A vítáme také politoložku
    Annu Durnovou.
  • 01:09:36 Dobrý večer.
  • 01:09:40 Je to, nebo není
    informační obezita?
  • 01:09:43 Která způsobuje,
  • 01:09:44 že před vědeckým poznáním dáváme
    raději přednost těm nejjednodušším
  • 01:09:50 vysvětlením a možná šarlatánům?
  • 01:09:54 Samozřejmě, když tolik pracujeme
    ve vědě, tak si najdeme snadno,
  • 01:09:57 co je dobré, co není.
  • 01:09:59 Máme výhodu, že naším protivníkem
    není široká veřejnost.
  • 01:10:04 Která má nejrůznější názory.
  • 01:10:06 Ale naším protivníkem
    je matka příroda.
  • 01:10:09 Matka příroda má dvě výhody.
  • 01:10:10 Matka příroda nesnáší podvod.
  • 01:10:14 To se odhalí.
  • 01:10:15 A za druhé je neutrální.
  • 01:10:18 Neblafuje.
  • 01:10:19 Nedělá podvody nebo takové věci.
  • 01:10:23 Kdo tento způsob zkoumání světa
    přijme, tak je vlastně za vodou.
  • 01:10:30 Také v době takového
    množství informací?
  • 01:10:32 Jistě.
  • 01:10:33 Dnes máme prostředky,
  • 01:10:34 abychom třeba v našem oboru
    mohli mít obrovské soubory dat.
  • 01:10:44 Máme 10 na patnáctou bajtů.
  • 01:11:04 Jsou lidé občas, kteří asi z důvodu
    toho, že chtějí vyniknout,
  • 01:11:08 prostě mají deformace v chování,
    tak dokáží v nějaké práci podvést.
  • 01:11:15 Ale na to se přijde rychle.
  • 01:11:17 Ale jako vědci se stáváte obětí.
  • 01:11:20 Že jste pozván do rozhlasového
    studia.
  • 01:11:23 A sedíte proti člověku,
    nebo hovoříte s člověkem,
  • 01:11:26 který provozuje
    server Placatá země.
  • 01:11:29 To se vám před nástupem
    internetu stalo?
  • 01:11:33 Ne.
  • 01:11:34 To je paradox, který se stal
    už v těch předchozích případech.
  • 01:11:40 K internetu se dostane každý
    kdo má minimální gramotnost
  • 01:11:44 a umí mačkat knoflíky.
  • 01:11:47 Prostě lidé toho zneužívají.
  • 01:11:49 A zneužívají to někdy z hlouposti.
  • 01:11:51 Někdy úmyslně.
  • 01:11:53 Jak už jsme slyšeli.
  • 01:11:54 Nevím, co je horší.
  • 01:11:56 Asi to druhé.
  • 01:11:58 Stalo se, že bych v životě nečekal,
  • 01:12:01 že ve 21. století budu muset
    v rozhlase obhajovat se proti
  • 01:12:08 člověku, který byl na druhé
    straně linky.
  • 01:12:13 A který říkal, že má pokusy,
    kterými dokazuje,
  • 01:12:15 že je Země placatá.
  • 01:12:17 Je to informační obezita,
  • 01:12:20 která potlačuje výdobytky
    vědeckého poznání?
  • 01:12:25 Do jisté míry to je informační
    obezita.
  • 01:12:27 Ale není to tak jednoduché.
  • 01:12:29 My si můžeme říci, že v 21. století
    jsme ve století,
  • 01:12:33 kde jsme nikdy neviděli více.
  • 01:12:35 Zároveň jsme nepochybovali
    více o tom, co víme.
  • 01:12:42 Vědecké poznání je dostupné
    komukoliv.
  • 01:12:44 Spousta vědeckých informací
    se objevuje v televizi.
  • 01:12:48 Také na sociálních sítích.
  • 01:12:50 Zároveň se ale objevují informace,
    které parodují vědecké informace.
  • 01:12:54 Tady si myslím, že musíme
    být velice obezřetní.
  • 01:12:57 Možná bych doplnila
    informaci o tom,
  • 01:13:00 jak věda funguje mimo společnost.
  • 01:13:03 Ona sice na jedné straně
    věda je nad společností.
  • 01:13:06 Protože vytváří prognózy.
  • 01:13:08 Protože nám říká, co máme dělat.
  • 01:13:11 Jak se máme léčit.
  • 01:13:12 Má přesné nástroje.
  • 01:13:15 Nadneseně vidí do budoucna.
  • 01:13:17 Na druhé straně věda na společnosti
    je závislá.
  • 01:13:20 Můžeme začít tím, že je závislá
    na financování výzkumu.
  • 01:13:25 Ne každý výzkum na počátku,
    když byl představen,
  • 01:13:28 tak to měl jednoduché.
  • 01:13:31 V Británii se vykládá
    oblíbená příhoda.
  • 01:13:34 Robert Edwards.
  • 01:13:36 To je původce umělého oplodnění.
  • 01:13:39 Ten odpor, který byl proti
    výzkumu, toho umělého oplodnění,
  • 01:13:44 tak nebyl jen odpor
    církevní a náboženský,
  • 01:13:47 ale byl také samotné
    vědecké komunity.
  • 01:13:50 Která v těch 70. letech v běhu
    populační exploze řekla,
  • 01:13:55 dává to smysl, můžeme to udělat,
    ale kdo to bude chtít?
  • 01:14:04 Pan prof. mluvil o exabytech.
  • 01:14:17 Že to je tak složité, že se raději
    uchýlíme k jednoduchému řešení.
  • 01:14:22 Rakovinu je možné vakadit?
  • 01:14:30 My se uchylujeme k domnělým
    názorům.
  • 01:14:33 Na jedné straně je vědecká
    komunita,
  • 01:14:36 kde třeba ještě občanská
    společnost a politika.
  • 01:14:41 Na druhé straně pomatená veřejnost.
  • 01:14:46 Tato opozice je nebezpečná.
  • 01:14:49 Emoce existují na obou stranách.
  • 01:14:51 Bez vášně není vědecké pozvání.
  • 01:14:53 Všichni vědci a vědkyně
    jsou tím, kým jsou,
  • 01:14:55 protože chtějí měnit svět.
  • 01:14:59 Součástí vědy je pochybnost
    a náhoda.
  • 01:15:03 Také odpor proti vědeckému poznání.
  • 01:15:05 Protože věda občas chce nám říci
    něco, co jsme chtěli,
  • 01:15:09 nebo nechtěli vědět.
  • 01:15:13 Věda je pravdivá, ať už tomu
    věříme, nebo ne.
  • 01:15:18 Já jsem přemýšlel nad dilematem
    pana doktora.
  • 01:15:23 Měl jít diskutovat se člověkem,
    který si myslí, že je placatá země?
  • 01:15:28 A dávat legitimitu jeho názoru?
  • 01:15:35 Je velice dobře, že ta diskuze
    proběhla.
  • 01:15:37 Otázka pro mě je, jakým
    způsobem probíhá.
  • 01:15:41 Ta diskuze může proběhnout
    tak, že člověka sice slyšíte,
  • 01:15:45 a legitimitu mu nedáváte.
  • 01:15:48 To je to, co jsem zmiňovala,
    že opozice je příliš černobílá.
  • 01:15:58 My musíme společnost nějakým
    způsobem přesvědčit,
  • 01:16:00 aby nám věřila.
  • 01:16:02 Musíme zajistit, aby veřejnost
    důvěřovala vědeckému poznání.
  • 01:16:06 By důvěřovala institucím, které
    vědecké informace předávají.
  • 01:16:12 Když opakujeme ten slavný bonmot,
    že rakovinu je možné vykadit.
  • 01:16:17 My můžeme tímto nesmyslem pohrdat,
  • 01:16:19 ale nesmíme toho člověka
    nechat úplně být.
  • 01:16:21 Musíme ho naopak
    přesvědčit o pravdě.
  • 01:16:27 Co vy na to?
  • 01:16:34 No, mě to tak nevzrušuje.
  • 01:16:37 Už jsem slyšel horší věci.
  • 01:16:47 Tak jsem s tím.
  • 01:16:53 Nám vadilo, že veřejnosti se šířily
    tyto proti vědecké nálady.
  • 01:16:59 Říkalo se, že konzervativní
    věci hájí staré pravdy,
  • 01:17:03 které už nejsou pravda.
  • 01:17:06 Že se šíří pravdivější
    avantgardní názory.
  • 01:17:12 Tak jsme se rozhodli obhajovat
    kritické vědecké myšlení.
  • 01:17:17 První, kdo nám začal
    nadávat, tak byli novináři.
  • 01:17:21 To bylo pro nás překvapení.
  • 01:17:23 Novináři se domnívali, že svoboda
    projevu je bezvadná.
  • 01:17:27 Že všichni si máme
    myšlenky brát rovnocenně.
  • 01:17:30 To není pravda.
  • 01:17:33 Že doba je postmoderní.
  • 01:17:35 Tímto to začalo.
  • 01:17:37 Ale teď jsou novináři
    kupodivu na naší straně.
  • 01:17:40 Už vidí, že se to týká také jejich.
  • 01:17:44 Zaznamenal jsem u společenských
    vědců, když to hodně zjednoduším,
  • 01:17:47 že tak jako lidé mají právo
    na pravdu, tak mají právo na lež.
  • 01:17:54 No, mám takovou teorii, že kromě
    bytu existují také debyty.
  • 01:18:02 Jako debilita.
  • 01:18:16 Musíte zachovávat
    rovnováhu ve vesmíru.
  • 01:18:18 Přibývá tedy logických bytů,
  • 01:18:20 tak musí přibývat také
    nesmyslných debilytů.
  • 01:18:41 Je důležité si uvědomit určitou
    historickou kontinuitu poznání.
  • 01:18:46 Když to zjednoduším, máme
    jak konzervativní vědu,
  • 01:18:49 tak v Idu avantgardní.
  • 01:18:51 Věda se stává avantgardní, většinou
    když přijde na něco nového.
  • 01:18:55 Čemu ještě vědecká komunita nevěří.
  • 01:18:58 Co ještě neuznala za pravdivé.
  • 01:19:00 Posléze se stává konsenzuální
    a konzervativní.
  • 01:19:07 Když se díváte jak funguje vědecké
    poznání historie a společnost,
  • 01:19:10 tak zjišťujete,
  • 01:19:11 že zatímco věda byla po dlouhou
    dobu v opozici vůči náboženství,
  • 01:19:15 byla taková subverzi v ní síla.
  • 01:19:19 Samotná pitva byla problém
    pro katolickou církev.
  • 01:19:25 Pak zejména v moderní době a době
    industriální se dostala do konsenzu
  • 01:19:30 se na kapitalistickou produkcí.
  • 01:19:40 Dnes se dostáváme do fáze,
  • 01:19:42 kdy některé vědecké
    poznání je v rozporu
  • 01:19:44 s kapitalistickou produkcí.
  • 01:19:46 Nejlepší příklad je klimatická
    změna.
  • 01:19:50 To jde přímo proti zájmu
    kapitalistické společnosti.
  • 01:19:54 Právě proto je to tak kontroverzní.
  • 01:19:57 A to je to, čemu se chci dostat.
  • 01:19:58 Proto je to napadáno,
    že to je nestranné,
  • 01:20:01 že to není objektivní.
  • 01:20:03 Že to je zpolitizované.
  • 01:20:04 Proč?
  • 01:20:05 Společnosti se nelíbí, co říká.
  • 01:20:08 Teď se mluví o klimatických
    změnách.
  • 01:20:14 Je to největší zbraň.
  • 01:20:16 Největší Achillova pata
    vědeckého poznání.
  • 01:20:18 Totiž, že může být konsenzus
    avantgardní zároveň.
  • 01:20:22 Potřebujeme subtilní
    nástroje, jak to poznat.
  • 01:20:28 Zprávy nesleduji.
  • 01:20:30 Tento názor není zdaleka jen český.
  • 01:20:34 Vědci při oxfordské
    univerzitě oslovili
  • 01:20:37 na 70 000 uživatelů internetu.
  • 01:20:41 Z 36 zemí napříč kontinenty.
  • 01:20:43 Téměř třetina dotázaných uvádí,
    že zprávy nechce ani vidět.
  • 01:20:47 Ani slyšet.
  • 01:20:51 Hlavní důvod?
  • 01:20:52 Kazí jim to náladu.
  • 01:20:54 Alespoň se k tomu přiznává
    polovina dotázaných.
  • 01:20:59 Více než třetina lidí si myslí,
    že se nemůže spolehnout,
  • 01:21:03 že to co ve zprávách ČT nebo
    vidí, tak je pravda.
  • 01:21:07 Ze všech zkoumaných zemí si občasný
    zpravodajský půst nejvíce dopřávají
  • 01:21:13 v Řecku a Turecku.
  • 01:21:15 To tvrdí více než polovina
    oslovených.
  • 01:21:18 Zprávy často vypínají také lidé
    v Chorvatsku, nebo v Polsku.
  • 01:21:23 Čas od času se jich straní
    také 38 % obyvatel v Americe
  • 01:21:27 té V ČR je to 23 %.
  • 01:21:38 Nejméně se zprávám
    vyhýbají v Japonsku.
  • 01:21:40 Kde se k tomu přiznává
    jen šest % respondentů.
  • 01:21:44 Když lidé napříč Evropou a Amerikou
    a Austrálií a Asií zprávy
  • 01:21:49 vyhledávají,
  • 01:21:50 čerpají je poměrně často on-line
    zdrojů a sociálních sítí.
  • 01:21:55 To platí zejména pro mladé lidi.
  • 01:21:56 Od 18 do 24 let.
  • 01:22:00 Také pro věkovou skupinu
    od 25 do 34 let.
  • 01:22:08 Za svůj hlavní informační zdroj
    označila on-line zpravodajství
  • 01:22:12 z webů.
  • 01:22:13 A sociálních sítí.
  • 01:22:14 Polovina lidí ve věku
    od 35 do 44 let.
  • 01:22:19 Méně důležité je to pro věkovou
    kategorii od 45 do 54 let.
  • 01:22:27 Nejmenší zájem jeví
    konzumenti starší 55 let.
  • 01:22:34 Ty zprávy všímají
    hlavně z televize.
  • 01:22:39 U mladších skupin je to logicky
    naopak.
  • 01:22:53 Pan doktor Grygar
    mluvil o novinářích.
  • 01:22:55 A překvapení, které zaznamenal
    sám na sobě na počátku 90. let.
  • 01:23:02 Podíváme se na průzkumy.
  • 01:23:04 Rostoucí nedůvěra vůči
    tradičním médiím.
  • 01:23:08 Potažmo také vůči novým médiím.
  • 01:23:09 Jak budovat společnost úvěry?
  • 01:23:13 Kdy to, že nám média
    zprostředkovávají nějaký obraz,
  • 01:23:17 bez kterého se neobejdeme,
    tak začne být kontroverzní?
  • 01:23:25 Je to zajímavá otázka.
  • 01:23:27 Řešení je komplexní.
  • 01:23:29 Musí se upírat především tím,
    proč média důvěru ztratila.
  • 01:23:33 Je to způsob podávání informací?
  • 01:23:35 Rychlost?
  • 01:23:36 Komplexnost?
  • 01:23:37 Nebo přehršel faktů?
  • 01:23:40 Nebo něco, co vlastně
    lidé nechtějí slyšet?
  • 01:23:43 Protože se jim tzv. mění
    svět před očima.
  • 01:23:48 Podíváme se na data.
  • 01:23:53 Pokud bych se mohla podívat
    na rakouskou situaci,
  • 01:23:55 kterou znám také zevnitř,
    tak tam dochází jednak k tomu,
  • 01:24:00 že doba se opravdu zrychlila.
  • 01:24:03 Těch informací je mnohem více.
  • 01:24:05 A ten čas, který s tím můžete
    trávit, tak je možná v součtu toho,
  • 01:24:10 když se díváte na smartphonu větší.
  • 01:24:14 Ale intenzita toho,
    jak se tím zabýváte,
  • 01:24:16 tak je neskutečně rychlá.
  • 01:24:21 My potřebujeme nějaké kritické
    zpomalení celkové společnosti.
  • 01:24:26 My potřebujeme se nějakým způsobem
    nezaobírat tolika informacemi,
  • 01:24:30 ale kvalitními informacemi.
  • 01:24:33 Musíme najít způsob,
  • 01:24:34 jak se v tom nepřeberném množství
    vyznat v těch informacích.
  • 01:24:38 Nemůžeme čekat od lidí, kteří mají
    desetihodinovou pracovní směnu,
  • 01:24:42 že se informacím budou
    ještě večer věnovat.
  • 01:24:44 Ani na to nemají čas a náladu.
  • 01:24:46 Napadá vás řešení?
  • 01:24:49 U nás to řešení máme.
  • 01:24:51 Máme veřejnoprávní televizi.
  • 01:24:52 Veřejnoprávní rozhlas.
  • 01:24:54 Ti mají ze zákona
    určité povinnosti.
  • 01:24:57 Když to srovnám s tím, co se děje
    na naší scéně obecně,
  • 01:25:00 tak ty povinnosti
    plní velice slušně.
  • 01:25:03 Zejména právě v oboru
    politické zpravodajství.
  • 01:25:06 Ale problém je,
  • 01:25:07 že také veřejné služby jsou tažené
    tou komplexní nedůvěrou vůči médiím
  • 01:25:14 jako takovým.
  • 01:25:16 To je holé neštěstí.
  • 01:25:19 Ale nic lepšího asi nemůžeme najít.
  • 01:25:21 Protože říkám, jsou společnosti,
    Facebook, sociální sítě,
  • 01:25:27 ty nemají žádnou odpovědnost.
  • 01:25:29 Prostě buďto se u nich máme bavit,
  • 01:25:34 nebo dokonce jsou tam zájmy
    nějakých soukromých společností.
  • 01:25:38 Které toho už teď zneužívají
    ve velkém měřítku.
  • 01:25:43 A bude to ještě horší.
  • 01:25:47 U nás máme veřejnoprávní
    média naštěstí.
  • 01:25:50 Také ČTK.
  • 01:25:52 A jsou povinné dodávat
    objektivní informaci.
  • 01:25:55 Které musí být ověřené.
  • 01:25:57 Jako to děláme my ve větě.
  • 01:25:59 Když publikujeme nějakou práci.
  • 01:26:03 Musíme to mít sami
    dobře zdůvodněné.
  • 01:26:07 A ještě dostaneme oponenty.
  • 01:26:10 Ti hledají chyby.
  • 01:26:15 Přesto je veřejnost obecná
    ještě k tomu kritická.
  • 01:26:23 Takže to je taková trojí kontrola.
  • 01:26:25 Která by samozřejmě měla být všude.
  • 01:26:28 Ale to vynutit je těžké.
  • 01:26:30 Jak zpomalit?
  • 01:26:32 Možná bych se vrátila na počátek.
  • 01:26:34 Vy jste mluvil o té opozici
    fakta versus emoce.
  • 01:26:37 Myslím, že jediným vodítkem
    by bylo podívat se na to,
  • 01:26:41 co jsme s emocemi jako
    takovými udělali.
  • 01:26:43 Nechali jsme si je ukrást
    šarlatány a konspirační teorie.
  • 01:26:47 A populisty.
  • 01:26:50 To je škoda.
  • 01:26:51 Je to velice neefektivní
    a nebezpečné pro demokracii.
  • 01:26:55 Měli bychom najít způsob,
    jak emoce vrátit zpátky.
  • 01:26:58 Když zůstaneme u té své oblasti.
  • 01:27:01 To je vědecké poznání a jeho
    komunikace vůči veřejnosti,
  • 01:27:04 tak musíme najít způsob,
    jak emotivně mluvit o vědě.
  • 01:27:09 Nejen vědeckých objevech,
    a jak zpřístupnit to,
  • 01:27:12 co říkal pan Grygar.
  • 01:27:15 Jak vědecké poznání vůbec vzniká.
  • 01:27:17 Co za ním věcí.
  • 01:27:18 Je tam spoustu kritiky.
  • 01:27:20 Spoustu práce.
  • 01:27:21 Vědecké poznání jako
    takové je kontroverzní.
  • 01:27:24 Teď nemyslím náboženství
    versus věda,
  • 01:27:26 ale i uprostřed té komunity
    je nedořešený problém.
  • 01:27:31 Takže rozlišit pro veřejnost,
    co rozlišoval už Platon.
  • 01:27:36 Pravdivé mínění versus
    pravdivé poznání.
  • 01:27:42 To můžeme jít touto
    filozofickou cestou.
  • 01:27:44 Ale můžeme jít i jinou cestou.
  • 01:27:50 Investovat více peněz
    do vědecké výchovy.
  • 01:27:52 Řekněte, máme mediální výchovu,
    tak ještě vědeckou výchovu.
  • 01:27:55 Ale my se o vědě učíme všude.
  • 01:27:59 Učíme se základy společenských věd.
  • 01:28:01 Tam je prostor pro to,
    vytvářet kritické myšlení.
  • 01:28:05 Jak už zaznělo v pořadu kritické
    myšlení je to, co nás zachrání.
  • 01:28:24 Osvědčený prostředek k odstranění
    politika.
  • 01:28:26 Lež.
  • 01:28:27 Slavila úspěch v roce 1929.
  • 01:28:34 O Jiřím Stříbrném se šířila
    zpráva, že má syfilis.
  • 01:28:38 Autor dezinformace, Václav Klofáč,
    tak si obstaral i názor lékaře.
  • 01:28:46 Ten ale stříbrného nikdy neviděl.
  • 01:28:49 Motivaci národních socialistů,
  • 01:28:51 proč odstranit stříbrného
    z vysoké politiky,
  • 01:28:54 měla spočívat v korupčních
    skandálech.
  • 01:28:57 Do kterých byl politik
    během 20. let zapleten.
  • 01:29:00 Jiří Stříbrný se po skandálu začal
    věnovat vydávání bulvárního tisku.
  • 01:29:05 Politické spolupráci s nacionalisty
    a fašisty.
  • 01:29:10 Pražská papežská
    nunciatura přikazuje.
  • 01:29:15 Starý dobrý přítel Franka.
  • 01:29:21 Farář Toufar.
  • 01:29:25 Tuhý boj proti římskokatolické
    církvi rozpoutala nepravdivá zpráva
  • 01:29:29 komunistické StB o tzv. čihošťském
    zázraku.
  • 01:29:34 V prosinci 49 během adventní
    mše sloužené místním farářem
  • 01:29:39 Toufarem se podle asi dvou desítek
    svědků několikrát pohnul kříž
  • 01:29:44 na hlavním oltáři.
  • 01:29:45 Papežská nunciatura přikazuje,
    čehož se stane poutním místem.
  • 01:29:53 StB rozšířila informaci, že křížem
    i hýbal sám Josef Toufar.
  • 01:29:57 Pomocí vyrobeného mechanismu.
  • 01:29:59 Tajná policie zatkla několik lidí.
  • 01:30:01 Josef Toufar byl ve vězení
    donucen přiznat se.
  • 01:30:09 A účinkovat v snímku,
  • 01:30:11 kde byl pohoršen a ukázán
    jako podvodník.
  • 01:30:19 Udělal to z nenávisti
    k lidové demokracii.
  • 01:30:23 Krátce nato na následky
    krutého týrání zemřel.
  • 01:30:29 Dezinformace, která vyžadovala
    od StB terénní přípravu.
  • 01:30:33 To byl nález beden s údajnými
    nacistickými dokumenty v roce 64.
  • 01:30:39 První z beden, které
    vyvolaly evropskou senzaci.
  • 01:30:44 Z Černého jezera na Šumavě
    je vylovil štáb
  • 01:30:47 Československé televize.
  • 01:30:48 Který prozkoumával pověstmi
    opředené vody pro pořad
  • 01:30:52 Zvědavá kamera.
  • 01:30:58 StB za obsah beden vydávala
    dokumenty dodané Sovětským svazem.
  • 01:31:05 Samotné bedny se potopily teprve
    měsíc předtím, než byly vyloveny.
  • 01:31:09 Promlčecí lhůta pro válečné
    zločiny se prodloužila.
  • 01:31:13 Akce s krycím názvem Neb tun měla
    jedinou chybu.
  • 01:31:17 Její hlavní strůjce po srpnu
    68 emigroval na západ.
  • 01:31:23 A o svém činu mluvil.
  • 01:31:27 No a teď.
  • 01:31:30 Soudruzi, já zcela otevřeně řeknu,
    že to nebyl žádný sólo čin.
  • 01:31:39 Tady to bylo záměrně organizováno.
  • 01:31:41 Komunistický funkcionář Vilém
    Nový stál za vypuštěním
  • 01:31:45 cílené dezinformace.
  • 01:31:46 Která se týkala Palacha.
  • 01:31:49 Po dlouhém naléhání
    se podvolil smrti.
  • 01:31:55 Za předpokladu,
  • 01:31:56 že hořlavina bude ze chemické látky
    způsobující tzv. studený plamen.
  • 01:32:05 Bylo potřeba zpochybnit
    hrdinský čin studenta.
  • 01:32:09 Který se upálil na protest okupaci.
  • 01:32:14 Chtěl vyburcovat zemi z letargie.
  • 01:32:18 Viděli jsme konkrétní
    lži a dezinformace.
  • 01:32:23 Které byly šířeny
    autoritativním režimem.
  • 01:32:27 Někdejší ČSSR.
  • 01:32:30 Doplácela na to také věda?
  • 01:32:34 Určitě hned.
  • 01:32:35 Po roce 19 48.
  • 01:32:37 Když jsme přijali
    sovětskou ideologii,
  • 01:32:39 která znemožňovala
    vědecký výzkum svobodný.
  • 01:32:43 To se například projevilo tím,
    že já jsem studoval v Brně.
  • 01:32:47 Na Masarykově univerzitě.
  • 01:32:49 A tam proběhla tehdy celostátní
    vědecká konference v uvozovkách.
  • 01:32:55 Proti reakčnímu mendelismu ve vědě.
  • 01:32:59 Mendel byl brněnský opat.
  • 01:33:01 Který objevil Mendelovy zákony.
  • 01:33:04 Které dodneška platí.
  • 01:33:07 Tehdy to bylo považováno za pověry.
  • 01:33:09 Jednak to udělal kněz.
  • 01:33:12 A bylo to v rozporu s tím,
    co hlásala ruská věda.
  • 01:33:22 Ale já jsem se o té genetice
    dozvěděl v náboženství paradoxně.
  • 01:33:29 Že máme Mendela.
  • 01:33:30 A druhá věc postihla přímo mně.
  • 01:33:34 V roce 79 jsem napsal knihu.
  • 01:33:39 Která pojednávala o vývoji
    vesmíru od velkého třesku.
  • 01:33:42 Kvůli tomu, že jsem propagoval
    knížku velkého třesku,
  • 01:33:48 tak to mělo zastoupení.
  • 01:33:54 Zůstáváte hosty dnešního Focusu.
  • 01:33:56 Prozatím děkuji.
  • 01:34:02 Je tady dnes s námi ve studiu
    na Kavčích horách také člověk,
  • 01:34:06 jehož videa mají
    desetitisíce shlédnutí.
  • 01:34:09 Přičemž jsou převážně o politice.
  • 01:34:20 Jak on sám pracuje s informacemi?
  • 01:34:23 To jsme zjišťovali s Romanem
    Višinským., youtuber.
  • 01:34:30 Jak se to přihodí,
  • 01:34:31 že kluk z menšího města
    v Krkonoších se rozhodne točit
  • 01:34:36 na YouTube videa o politice
    a společnosti?
  • 01:34:41 Tak začalo to vlastně tím, že jsem
    se začal zajímat o dějiny.
  • 01:34:44 Hlavně politické dějiny.
  • 01:34:46 Pak jsem objevil fenomén YouTube.
  • 01:34:48 Začal jsem točit takové kraviny.
  • 01:34:53 A pak když byl zvolen pan Ondráček
    do čela kontrolního výboru GIBS.
  • 01:34:59 Tak jsem si řekl, že ti mladí
    lidé se o to nezajímají.
  • 01:35:04 Nebo neví vůbec, o co jde.
  • 01:35:06 Tak jsem si řekl,
    že jim to vysvětlím.
  • 01:35:08 A nakonec, když jsem to video
    natočil, tak jsem si všiml,
  • 01:35:13 že má úspěch.
  • 01:35:14 Další týden mi došlo, že vlastně
    bych ten příběh měl dopovědět.
  • 01:35:19 Od té doby točím pravidelně
    každý týden pořad.
  • 01:35:27 Kdybych točil lehčí obsah,
  • 01:35:29 tak bych asi měl mnohonásobně
    větší zhlédnutí.
  • 01:35:32 Ale bohužel já to vnímám
    jako takovou svou
  • 01:35:37 společenskou povinnost.
  • 01:35:39 To jste neměli vědět.
  • 01:35:41 Občas si řeknete, že pro malý
    počet lidí to nemá cenu dělat.
  • 01:35:44 Pak si řeknete, že i ten malý
    počet lidí je motivace.
  • 01:35:49 Proto nezapomeňte podporovat
    své oblíbené malé youtubery.
  • 01:35:52 Teď už jdeme na video.
  • 01:35:56 Teď jsem celý unášený
    z tohoto týdne.
  • 01:36:03 Laureát ceny Josefa Fritzla.
  • 01:36:05 Otec roku.
  • 01:36:06 Andrej Babiš.
  • 01:36:07 Když se podíváte na vaši generaci,
    dezinformace, které jsou šířeny.
  • 01:36:15 Jak vaše generace
    pracuje s informacemi?
  • 01:36:19 Asi ne úplně nejlépe.
  • 01:36:22 Zajímat se a pořád hledat pravdu,
  • 01:36:25 nebo pořád si udržovat
    objektivní názor,
  • 01:36:28 každý den číst tři nebo čtyři
    plátky novin, to je hrozně těžké.
  • 01:36:34 Ale myslím, že ta generace,
    jak už vyrůstá do doby mnoha médií,
  • 01:36:39 tak se snaží najít si takovou
    tu pravdu.
  • 01:36:43 Máte obrovské množství
    zdrojů na výběr.
  • 01:36:45 Jak mezi nimi hledáte ty signály,
    nikoliv šum?
  • 01:36:51 To je jednoduché.
  • 01:36:53 Když najdu cokoliv,
    tak aby to nepsali jen jedna média.
  • 01:36:56 Případně jít k originálnímu zdroj.
  • 01:37:00 Když originální zdroj
    je dezinformační stránka,
  • 01:37:05 na kterou upozorňuje české
    bezpečnostní služby a tak, tak vím,
  • 01:37:08 že tam něco špatně.
  • 01:37:10 Za měsíc se toho stalo hodně.
  • 01:37:13 Shrnul bych to hodně rychle.
  • 01:37:16 Abych řekl o KSČM, že jsou
    demokratická strana.
  • 01:37:18 Byl na všesokolském sletu vypískán.
  • 01:37:27 Odstoupil ministr
    práce sociálních věcí.
  • 01:37:29 Babiš podal žalobu do Štrasburku.
  • 01:37:32 Byli zabiti tři čeští vojáci.
  • 01:37:35 Nejjednodušší věc, kterou udělám,
  • 01:37:37 tak se podívám na seznam
    bezpečnostních služeb.
  • 01:37:40 Tam jsou vypsané
    dezinformační weby.
  • 01:37:44 Když to tam není, tak si stačí
    ten článek přečíst.
  • 01:37:48 Už jen podle toho útočného nadpisu,
  • 01:37:51 nebo když je čeština
    kolikrát lámaná,
  • 01:37:54 nebo naopak je velice dobrá
    v tom, že už používá jazyk,
  • 01:37:58 který vás navádí k nějakému
    názoru, takto vás upozorní.
  • 01:38:07 Jiří Ovčáček vyhlásil
    bojkot serveru iDNES.
  • 01:38:11 Ostatní lidi označil za svině.
  • 01:38:13 To je mluvčí prezidenta.
  • 01:38:16 A tohoto člověka
    jste si nedovolili.
  • 01:38:19 Toho jste nevolili.
  • 01:38:20 To je státní úředník.
  • 01:38:25 Říkají vám, že šíříte propagandu?
  • 01:38:29 Ano.
  • 01:38:30 Stává se mi to více.
  • 01:38:32 Můj pořad se dostal do povědomí.
  • 01:38:40 Ale lidé hlavně útočí na můj věk.
  • 01:38:42 Objevují se slova jako chlapečku.
  • 01:38:45 Ty jsi ještě nic nezažil.
  • 01:38:48 Nemůžeš mít přehled
    o tom, co se děje.
  • 01:38:50 Jak reagujete?
  • 01:38:53 Pod tyto komentáře buďto se snažím
    podat vysvětlení.
  • 01:39:00 Nebo prostě jim napíšu,
    že díky za komentář.
  • 01:39:03 A za konstruktivní kritiku.
  • 01:39:06 Když už se tím nechci zabývat.
  • 01:39:08 Toto je úchylné.
  • 01:39:13 Já jsem myslel opravdová
    média. MF DNES.
  • 01:39:19 Ještě v den vydání reportáže
    si šéfredaktor MF DNES Jaroslav
  • 01:39:24 Plesl nezapomněl rýpnout
    do majitele seznamu.
  • 01:39:31 Tomu se říká profesní deformace.
  • 01:39:35 Když jste z toho Andreje
    tak zblblý, že si myslíte,
  • 01:39:39 že také v jiných redakcích se řídí
    podle názoru majitele.
  • 01:39:43 Já jsem optimista.
  • 01:39:50 Věřím, že díky práci nás youtuberů,
    kteří se zajímali o politiku,
  • 01:39:53 tak naše generace, miléniálové,
    tak se budou snažit najít pravdu.
  • 01:40:00 Ne utopí se v dezinformačním smetí?
  • 01:40:05 Snad ne.
  • 01:40:11 Budoucnost a lži.
  • 01:40:17 Šestice vzácných hostů
    v závěrečné kapitole.
  • 01:40:21 Navážeme na Romana Vyšanského.
  • 01:40:24 Bude se ptát nejmladší
    generace i generace starší.
  • 01:40:27 Jako první studenti z gymnázia
    z Třeboně.
  • 01:40:31 Vendula Kolmanová.
  • 01:40:33 Dobrý večer.
  • 01:40:34 Dobrý večer.
  • 01:40:35 Díky za slovo.
  • 01:40:36 Chtěla bych se vrátit
    na počátek k tomu,
  • 01:40:38 co řekl pan armádní generál.
  • 01:40:40 Dnešní dezinformační doba.
  • 01:40:43 Jak mám rozeznat pravdu od lži.
  • 01:40:48 Pane generále.
  • 01:40:51 Slyšeli jsme mnoho návodů.
  • 01:40:53 Jak rozeznávat pravdu od lži.
  • 01:40:57 Zazněla mediální gramotnost.
  • 01:40:59 Vzdělání.
  • 01:41:00 Já bych k tomu dodal jasně
    zakotvený systém hodnot.
  • 01:41:05 To může být takový prvotní filtr.
  • 01:41:08 Když se vrátím ke své babičce,
  • 01:41:10 tak ta většinu situací
    filtrovala přes desatero.
  • 01:41:18 Co nebylo v souladu s tím jejím
    hodnotovým systémem,
  • 01:41:21 tak prostě nebrala.
  • 01:41:22 Protože to nesedělo.
  • 01:41:25 Dnes máme tendenci informaci, která
    jde vyloženě proti našemu zájmu,
  • 01:41:30 tak tomu věnovat pozornost,
    my se tomu abychom si řekli.
  • 01:41:32 Místo toho abychom si řekli,
    tato informace jde proti mně,
  • 01:41:36 tak proč tomu věnovat váhu?
  • 01:41:46 Jednoduchou manipulací vidíme,
    jak se dají měnit informace.
  • 01:41:53 Pokud budu věřit tomu,
  • 01:41:54 že by naši vojáci by nikdy
    se nechovali tak špatně jako jsme
  • 01:41:58 viděli na těch fotkách, tak jsem
    imunní proti té manipulaci.
  • 01:42:09 Miroslav Blažek.
  • 01:42:10 Dobrý večer.
  • 01:42:11 Dobrý večer.
  • 01:42:12 Chci zeptat pana Grygara.
  • 01:42:14 Vy jste z generace,
  • 01:42:16 která se narodila v první
    polovině minulého století.
  • 01:42:19 Máme životní zkušenosti.
  • 01:42:21 Čím to,
  • 01:42:22 že vysokoškolští naši souputníci
    dnes jsou velkými šiřiteli
  • 01:42:28 těchto zpráv.
  • 01:42:30 Já denně dostávám od svých
    známých takové ty falešné zprávy.
  • 01:42:42 Hloupneme věkem?
  • 01:42:43 To by tak přece nemělo být.
  • 01:42:44 Měli bychom mít zkušenosti.
  • 01:42:48 Možná to ještě nezaznělo.
  • 01:42:51 Našemu národu dnes chybí
    historické souvislosti.
  • 01:42:56 My, co jsme v tom pokročilém věku,
  • 01:42:59 tak jsme zažili druhou
    světovou válku.
  • 01:43:02 Viděli jsme, co prováděli Němci.
  • 01:43:04 Pak jsme zažili celé
    období komunismu.
  • 01:43:07 Věděli jsme o tom,
    že tady jsou lidé,
  • 01:43:09 kteří umí velkým
    způsobem ničit životy.
  • 01:43:24 Po druhé světové válce si Češi
    ubližovali navzájem.
  • 01:43:28 Jako nikdo předtím v naší historii.
  • 01:43:31 Vezměte si historii českého
    národa od svatého Václava.
  • 01:43:35 Najdete období, které bylo
    horší než období roku 48 až 89?
  • 01:43:41 Proč si dělali všechno Češi.
  • 01:43:52 Já bych možná navázala na to,
  • 01:43:54 ty otázky spolu do jisté
    míry souvisí.
  • 01:43:58 My posuzujeme informace podle toho,
  • 01:44:00 jestli se nám zdají
    pravdivé nebo ne.
  • 01:44:02 Podle nějakého hodnotového systému.
  • 01:44:04 Podle toho, co víme.
  • 01:44:06 Vědecké poznání nám říká, že vždy
    je dobré se podívat na zdroj.
  • 01:44:09 Zjistit, odkud informace pochází.
  • 01:44:12 Pokud to je článek z nějakého
    jiného média,
  • 01:44:15 tak jestli tam je doklad
    toho původního zdroje.
  • 01:44:19 Zároveň je vždy dobré
    kriticky ověřovat.
  • 01:44:22 Najít si jiný zdroj.
  • 01:44:23 Který něco takového říká.
  • 01:44:25 Ten hodnotový systém myslím,
    že je dobré vodítko.
  • 01:44:28 Některé věci zkrátka spolu souvisí.
  • 01:44:32 Z něčeho má někdo zisk.
  • 01:44:34 I za lživou informaci můžeme
    najít určitý mocenský zájem.
  • 01:44:39 Někdo chce vytěžit z naší
    víry v tuto lež.
  • 01:44:41 Aby získal něco jiného.
  • 01:44:45 To jsou takové vazby čeká
    které nám umožňují orientovat
  • 01:44:47 se ve světě.
  • 01:44:48 Který je komplexní.
  • 01:44:50 Michal Romancov.
  • 01:44:52 Já bych reagoval na tu otázku.
  • 01:44:55 Je pravda, že tady je velké
    množství lidí,
  • 01:44:57 kteří mají životní zkušenosti.
  • 01:45:01 Ale po příchodu nacistů
    do Československa
  • 01:45:04 u nás zavládla cenzura.
  • 01:45:05 Ta v zásadě pokračovala do roku 89.
  • 01:45:08 Cenzura a násilí,
    to se u nás dělalo.
  • 01:45:18 Odnaučilo nás to ty hodnoty.
  • 01:45:22 Propaganda, ta učila
    lidi nemyslet vůbec.
  • 01:45:26 To jsou dva fenomény.
  • 01:45:27 Které se hrozně podepsaly
    na celé naší populaci.
  • 01:45:32 Někteří v tom žili.
  • 01:45:33 Prožili v tom možná
    rozhodující část svého života.
  • 01:45:35 A další lidé v tomto
    systému byli vzděláváni.
  • 01:45:42 Teď Michaela Beníčková.
  • 01:45:44 Dobrý večer.
  • 01:45:47 My jsme tady v příspěvku měli
    možnost vidět data ohledně těch
  • 01:45:53 % lidí, kteří nechtějí
    vnímat ty média.
  • 01:45:58 Proto bych se chtěla
    zeptat, pana Romancova.
  • 01:46:03 Jaký je ten hlavní faktor.
  • 01:46:05 Proč ta vysoká % mají zrovna
    třeba Řecko, nebo Turecko.
  • 01:46:11 A naopak malá % mají
    třeba Japonsko.
  • 01:46:17 A Skandinávie.
  • 01:46:20 To můžeme pouze spekulovat.
  • 01:46:25 V příspěvku zaznělo, že lidé
    se k činu přiznali.
  • 01:46:29 Je otázka, nakolik třeba není
    v Japonsku přijatelné říkat,
  • 01:46:32 že nesledují média.
  • 01:46:33 Neznám tu společnost.
  • 01:46:40 Možná je tam společenský konsenzus.
  • 01:46:46 Ale pak si myslím,
  • 01:46:48 že obecně to bude o stupni důvěry
    v společnost jako takovou.
  • 01:46:51 V Japonsku a ve Skandinávii
    je důvěra ve společnost vysoká.
  • 01:47:00 Když si nedůvěřujeme v rodině,
    nebude to fungovat dobře.
  • 01:47:04 Když nebudeme si důvěřovat
    ve společnosti,
  • 01:47:06 nebudeme mít dobrou společnost.
  • 01:47:09 Velký rozdíl mezi námi a východní
    Evropě, tak je třeba myšlenka,
  • 01:47:15 že když jsem něco stane,
    půjdu na policii.
  • 01:47:22 Ale na východě to neudělají.
  • 01:47:24 Protože vědí, že policie
    jim nepomůže.
  • 01:47:28 Já bohužel také nemám vysvětlení.
  • 01:47:31 Samotnou by mě zajímalo, čím to je.
  • 01:47:34 Souhlasím rozhodně s kolegou.
  • 01:47:37 Že velice důležité je chápat
    ten lokální kontext.
  • 01:47:41 Samozřejmě,
  • 01:47:43 souvisí to s tou důvěrou
    v politické instituce.
  • 01:47:48 V demokracii a demokratický
    systém jako takový.
  • 01:47:51 Reprezentanti včetně médií,
  • 01:47:54 tak s tímto problémem
    velmi souvisí.
  • 01:47:57 A také je otázka, jaká
    média třeba měli na mysli.
  • 01:48:01 Když se ptali v těch
    daných průzkumech.
  • 01:48:04 Protože na druhou stranu víme,
  • 01:48:06 že důvěra v sociální
    média je poměrně vysoká.
  • 01:48:10 A řada lidí čerpá informace
    právě z sociálních médií.
  • 01:48:15 Záleží také na tom,
  • 01:48:16 co si představujeme
    pod tématem média.
  • 01:48:19 Jestli veřejnoprávní média,
    nebo sociální média?
  • 01:48:24 Další otázka od Anety Podolské.
  • 01:48:29 Dobrý večer.
  • 01:48:30 Dobrý večer.
  • 01:48:32 Já bych se chtěla zeptat,
  • 01:48:34 mluvili jsme o výuce
    kritického myšlení na školách.
  • 01:48:37 Jak si představujete v praxi
    takovou výuku?
  • 01:48:44 Já si pomohu konkrétním příkladem.
  • 01:48:47 Který je z Francie
    před zhruba osmi lety.
  • 01:48:49 Byla jsem součástí týmu,
  • 01:48:52 který na jedné inženýrské
    škole učil kurz,
  • 01:48:59 který se jmenoval věda
    a její kontroverze.
  • 01:49:03 Principem kurzu bylo,
  • 01:49:04 že jsme studentům matematického
    inženýrství vysvětlovali,
  • 01:49:09 že ačkoliv mají nějaké
    vzorce a poučky a definice,
  • 01:49:12 tak všechno to nějak vzniká.
  • 01:49:17 V kontroverzním duchu.
  • 01:49:19 Vzniká spor ve vědě.
  • 01:49:20 Věda je spor.
  • 01:49:21 Spor je vlastní vědět.
  • 01:49:23 Byla jsem překvapená, jak dynamický
    ten kurz byl.
  • 01:49:26 Jak od počátečního
    odporu a nedůvěry,
  • 01:49:30 co se jim to snažíme namluvit,
  • 01:49:31 tak jsme přešli ve velice
    subtilní analýzy.
  • 01:49:34 Jejich vlastního světa.
  • 01:49:36 Samozřejmě, nemám data, abych
    zjistila, co dělají dnes,
  • 01:49:40 jestli kritické myšlení aplikují
    ve svých technických návrzích.
  • 01:49:46 Václav Plucar.
  • 01:49:48 Dobrý večer.
  • 01:49:49 Já se chci zeptat.
  • 01:49:50 Dá se dezinformace, potažmo
    pravda dnešním světě koupit?
  • 01:49:57 Je to běžná praxe?
  • 01:49:59 To bude asi na Františka.
  • 01:50:01 Bohužel ano.
  • 01:50:03 Nepochybně.
  • 01:50:04 Ti dezinformátoři mají
    obrovského spojence.
  • 01:50:09 V těch současných velkých
    technologických společnostech.
  • 01:50:13 Především tedy Facebook.
  • 01:50:17 Kdy Facebook, jak jsem
    se snažil vysvětlit,
  • 01:50:19 tak ten jeho byznys
    model je takový,
  • 01:50:21 aby vycházel vstříc co nejvíce
    těm inzerentům.
  • 01:50:24 A bohužel nehledí na etický
    rozměr toho svého byznysu.
  • 01:50:29 To je velice smutný
    příklad byznysu.
  • 01:50:32 Jestli dovolíte, já bych
    reagoval na Annu.
  • 01:50:35 Předtím mluvila o tom,
  • 01:50:36 že to bylo v souvislosti
    s globálním oteplováním.
  • 01:50:40 Kde není v zájmu
    byznysu na to reagovat.
  • 01:50:44 Já budu oponovat.
  • 01:50:47 Tak to podle mě funguje
    celý byznys.
  • 01:50:49 Část byznysu podstatná, která
    tu etickou odpovědnost cítí,
  • 01:50:55 tak existuje.
  • 01:50:58 Já si dovolím reagovat zpátky.
  • 01:51:00 Já jsem myslela
    kapitalistickou společnost.
  • 01:51:06 Samozřejmě existuje část,
    která se chová by teoreticky.
  • 01:51:09 Ale já mluvím o celku.
  • 01:51:15 Já si myslím,
  • 01:51:16 že je potřeba trochu nedodávat
    démonizaci nových technologií.
  • 01:51:22 Vždy v historii se dala
    koupit informace.
  • 01:51:24 Vždy.
  • 01:51:31 Vždy to vedlo k nějaké
    dezinformační vadě.
  • 01:51:36 Nebyli jsme se schopni nové
    technologie v novém způsobu
  • 01:51:39 podávání informací vyznat.
  • 01:51:41 Můžeme být trochu optimističtí.
  • 01:51:44 Přemýšlet o tom,
  • 01:51:45 co udělat s tímto
    nepřeberným množstvím
  • 01:51:47 a komplexními technologiemi.
  • 01:51:49 Abychom tu pravdu mohli nějakým
    způsobem očistit od fungování.
  • 01:51:55 Nástroje jsou.
  • 01:51:56 Jen je musíme vymyslet.
  • 01:51:58 Cesta informace od vysílatele
    směrem k příjemci.
  • 01:52:03 Jsme v tomto krásném studiu,
  • 01:52:05 které zhotovili malíři na základě
    výtvarného návrhu
  • 01:52:10 Jaroslava Klimeše.
  • 01:52:11 Před další sadu otázek
    právě Jaroslav Klimeš.
  • 01:53:46 A další otázka z publika.
  • 01:53:48 Ptá se opět student
    gymnázia z Třeboně.
  • 01:53:53 Ondřej Kučera.
  • 01:53:55 Chci zeptat pana generála,
  • 01:53:57 do jaké míry je důležitá informace
    pro režimy, které vedou válku.
  • 01:54:23 Kdykoliv se stát dá na cestu
    dezinformace vůči vlastním
  • 01:54:28 obyvatelům, okamžitě
    ztratí půdu pod nohama.
  • 01:54:34 Ztratí veškerou kredibilitu.
  • 01:54:36 Mnohem lepší je dávat pravdu.
  • 01:54:41 Co bychom měli dělat my?
  • 01:54:42 Jak bychom měli přesvědčit lidi,
  • 01:54:44 kteří neskočí na vlnu
    těch dezinformací?
  • 01:54:51 Měli bychom tam vložit
    nějaké emoce.
  • 01:54:53 Samozřejmě neodpovídat jen fakty.
  • 01:54:57 Protože Rusové v tom dělají
    veliký výzkum.
  • 01:55:02 Jejich generálplukovník, šéf jejich
    paktu kolektivní bezpečnosti,
  • 01:55:08 taková náhražka Varšavské
    smlouvy, tak generál povídá,
  • 01:55:13 že kdo v informační válce
    říká pravdu, tak prohraje.
  • 01:55:18 Myslím, že bychom se neměli
    uchylovat ke lži.
  • 01:55:22 Ale ukazovat, jak se v tom Rusku
    vlastně žije.
  • 01:55:25 Málokdo ví, že v Rusku je průměrná
    délka věku osm let méně než u nás.
  • 01:55:32 Mají dvou a půl násobek kojenecké
    nebo novorozenecké úmrtnosti.
  • 01:55:38 Tím svorníkem je bezpečnost.
  • 01:55:43 Existuje globální mírový index.
  • 01:55:46 Kde ČR je na sedmém místě.
  • 01:55:48 Rusko je ze 163 zemí
    na 150 m čtvrtém místě.
  • 01:56:00 Oprava, na místě 154.
  • 01:56:04 Já bych se ráda zeptala,
  • 01:56:05 jestli v té naší společnosti
    je čtyři noví tedy z informací,,
  • 01:56:09 oprava dezinformací, než v jiných
    státech EU?
  • 01:56:12 Oprava.
  • 01:56:15 Já bych se ráda zeptala,
  • 01:56:16 jestli v té naší společnosti
    se šíří dezinformace více
  • 01:56:21 než v jiných státech EU?
  • 01:56:35 No, zdá se, jako kdybychom bojovali
    s něčím, co je specifické pro ČR.
  • 01:56:41 Ale nejsme v této
    oblasti výjimeční.
  • 01:56:43 Státy střední a východní
    Evropy čelí stejným problémům.
  • 01:56:49 Také v západní Evropě.
  • 01:56:50 Ve Skandinávii.
  • 01:56:52 Tam čelí stejným problémům.
  • 01:56:54 Samozřejmě liší se reakce
    na ty problémy.
  • 01:56:57 Ale řešíme de facto to samé.
  • 01:57:00 Příběhy, které se objevují
    na internetu.
  • 01:57:03 Řetězové e-maily.
  • 01:57:04 To se různí.
  • 01:57:05 To je šité vždy na míru
    cílové skupině.
  • 01:57:08 Ale problém je napříč
    Evropou a světem.
  • 01:57:11 Asi poslední otázka.
  • 01:57:13 Dobrý večer.
  • 01:57:14 Já tedy mám poslední otázku.
  • 01:57:18 Když víme, že Facebook pouští
    spoustu lží a nepravd,
  • 01:57:24 nemůže existovat systém,
    aby tam se to vymazalo.
  • 01:57:38 Technologicky to jde.
  • 01:57:40 Facebook se snaží přesvědčit
    veřejnost, že to je tak složité,
  • 01:57:44 že to nejde.
  • 01:57:46 Podle mého názoru není jiná cesta,
    než přinutit Facebook ke regulaci.
  • 01:57:51 Když budou volby do evropského
    parlamentu v květnu příštího roku,
  • 01:57:56 je dobré si uvědomit,
    že ČR se Facebookem nehne.
  • 01:58:02 Ale EU už by s ním pohnout mohla.
  • 01:58:04 To je jeden z důvodů, proč
    k těm volbám evropskými jít.
  • 01:58:10 Děkuji všem dalším
    hostům dnešního Focusu.
  • 01:58:13 Váš potlesk si zaslouží politický
    geograf Michael Romancov.
  • 01:58:19 Armádní generál Petr Pavel.
  • 01:58:24 Datový analytik František Vrabel.
  • 01:58:30 Politoložky Petra
    Vejvodová a Anna Durnová.
  • 01:58:36 A díky astrofyzikovi
    Jiřímu Grygarovi.
  • 01:58:38 Díky.
  • 01:58:42 A také vám divákům
    zpravodajské čtyřiadvacítky,
  • 01:58:45 že jste se dívali na další
    vydání Focus.
  • 01:58:50 Díky také publiku tady
    na Kavčích horách.
  • 01:58:54 Které vyzdobili naši malíři.
  • 01:59:01 Jsme na sociálních sítích
    v průběhu celého roku.
  • 01:59:05 Najdete na sociálních
    sítích nejen videa,
  • 01:59:07 ale právě také
    animace a statistiky.
  • 01:59:11 Všechno, co probíráme ve fokusu.
  • 01:59:14 Díky vám studentům
    gymnázia v Třeboni.
  • 01:59:18 Díky všem dospělým a studentů
    univerzity třetího věku.
  • 01:59:23 Dobrou noc.
  • 01:59:24 Živé titulky ve spolupráci se ZČU
    Inovace podpořená TA ČR
    Mluvčí: Jiří Holický

Související