iVysílání

stránky pořadu
Premiéra:
12. 12. 2017
19:00 na ČT24

1 2 3 4 5

13 hlasů
31945
zhlédnutí

Fokus Václava Moravce

Velký bratr

Co vše je možné se o člověku dozvědět a jak? Komu a proč se odhalujeme? Kdo se dívá a kdo z toho má prospěch?

119 min | další Publicistika »

upozorňovat

do playlistu

Přehrávač videa

Načítám přehrávač...

Fokus Václava Moravce

  • 00:00:03 Velký bratr se dívá a není sám.
  • 00:00:05 Všechny odeslané zprávy by příští
    rok mohli kontrolovat tajné
  • 00:00:10 krabičky, který bude mít tajná
    služba přístup.
  • 00:00:13 Co vše je možné se o člověku
    dozvědět a jak?
  • 00:00:17 Nejzásadnějším zdrojem
    pro získávání informací zůstává
  • 00:00:20 mobilní telefon.
  • 00:00:22 Jsou naše kreditní karty
    nebo telefony v bezpečí?
  • 00:00:25 Operátor ví, že jste v této ulici.
  • 00:00:28 Zjistí, že se tady pohybovalo
    vaše platební karta.
  • 00:00:32 Komu a proč musíme
    svěřovat své osobní údaje?
  • 00:00:35 Kamera zaznamená obličej člověka
    a automaticky systém vyhodnotí,
  • 00:00:39 zda údaje souhlasí a osoba
    není třeba v pátrání.
  • 00:00:43 Komu a proč se odhalujeme
    na sociálních sítích?
  • 00:00:47 Vše co tam lidé dělají dělají
    dobrovolně a podceňují data,
  • 00:00:51 která tam dávají.
  • 00:00:52 Kdo všechno se vlastně dívá?
  • 00:00:54 Kdo z toho má prospěch?
  • 00:00:56 Čím více má stát informací,
  • 00:00:58 tím také musí mít větší odpovědnost
    za to, jak s nimi bude nakládat.
  • 00:01:03 Právě začíná 27. díl měsíčníku
    fokus Václava Moravce.
  • 00:01:07 Tentokrát na téma Velký bratr.
  • 00:01:28 Velký bratr tě sleduje.
  • 00:01:31 Fiktivní postava velkého bratra
    z románu 1984 stala obecným
  • 00:01:41 pojmenováním pro odposlechy
    a prolamování soukromí.
  • 00:01:44 Po bezmála 90 letech,
  • 00:01:46 co vyšla Orwelova kniha má velký
    bratr různé podoby.
  • 00:01:57 Kde všude nás sleduje a proč?
  • 00:01:59 Nejen o tom bude dnešní Fokus.
  • 00:02:03 Hezký večer vám divákům
    ČT 24 a také dobrý večer publiku
  • 00:02:11 tady ve studiu jedna
    na Kavčích horách.
  • 00:02:14 Jsou tady studenti východočeského
    gymnázia Aloise Jiráska
  • 00:02:17 v Litomyšli.
  • 00:02:19 Vítejte v Fokusu.
  • 00:02:40 První kapitolu dnešního Fokusu
    otevírají odborník na kybernetickou
  • 00:02:45 bezpečnost Aleš Špidla.
  • 00:02:47 Dobrý večer.
  • 00:02:48 Vítám herečku a zpěvačku
    Ivu Pazderkovou,
  • 00:02:51 která v jedné ze svých figur říká.
  • 00:02:55 Že je elektro technicky zdatná.
  • 00:02:58 To je pravda.
  • 00:03:00 Já jsem věděla, že narazíme
    tady na to moje odbornost.
  • 00:03:02 Já se tomu hodně věnuji už dlouho.
  • 00:03:07 Navíc máte ICQ.
  • 00:03:11 To je hodně vyšší, než ostatní.
  • 00:03:14 Hodně se věnují těm virům.
  • 00:03:16 Máte ten počítač.
  • 00:03:18 Hodně lidí vám nakecá,
    že tam máte věr.
  • 00:03:21 Když je někdo hloupý, tak si nechá
    nakecat, že tam má koně.
  • 00:03:27 To je blbost.
  • 00:03:28 Ten se tam nevejde.
  • 00:03:33 Trojský kůň tedy není ohrožení?
  • 00:03:37 Vůbec ne.
  • 00:03:38 Co by dělal dřevěný kůň v počítači?
  • 00:03:41 V rámci té blonďaté figury,
  • 00:03:44 když jste do bíla ČR a všichni
    sledovali blondýnu s čím přijde,
  • 00:03:50 tak jste sledovala sociální
    sítě které začínaly.
  • 00:03:53 Už jste s tím měla zkušenost?
  • 00:03:55
  • 00:03:57 Já si to moc nepamatuji.
  • 00:03:59 Facebook jsem měla pouze jako polo
    pracovní zbytečný nástroj něčeho.
  • 00:04:05 Úplně tak jako nic.
  • 00:04:06 Já jsem o tom moc nevěděla.
  • 00:04:08 Pracovala jsem v rádiu,
    kde bylo rádiové ICQ,
  • 00:04:11 kde jsme komunikovali s posluchači.
  • 00:04:19 To byla moje zkušenost.
  • 00:04:22 Jaké podoby jste uživatel.
  • 00:04:31 Byla byste jaký uživatel?
  • 00:04:35 Podprůměrný.
  • 00:04:36 Ve vašich očích je velkým
    bratrem co?
  • 00:04:39 Konkrétně.
  • 00:04:40 Mám obavu, že já jako běžný
    občan nevidím tak daleko.
  • 00:04:44 Vím, že kamery jsou
    všude na ulicích.
  • 00:04:47 Jsou v různých budovách.
  • 00:04:48 Jsme sledováni nonstop.
  • 00:04:50 Máme mobily a tak.
  • 00:04:52 Asi největším velkým
    bratrem je člověk sám sobě.
  • 00:04:58 Často.
  • 00:04:59 Aleši.
  • 00:05:00 Dnešní podobenství Velkého bratra,
  • 00:05:02 který spatřil literární
    světlo světa před 70 lety.
  • 00:05:08 Ono sledovat se dá úplně všechno
    co se dá předvést do nula jedniček.
  • 00:05:16 Když se to objeví v digitální
    podobě.
  • 00:05:21 Všechno co předvedete.
  • 00:05:23 Jestli jste schopni předvést
    svoji polohu do nul a jedniček.
  • 00:05:30 Někde se potulují a zpracovávají.
  • 00:05:33 Hlásí se třeba transakce, platby.
  • 00:05:36 V podstatě někdy mám pocit,
    že jsme stvořili svět,
  • 00:05:41 nad kterým jsme tak trochu
    ztratili kontrolu.
  • 00:05:46 Protože ten rozvoj je daleko
    rychlejší, než se dalo předpovědět.
  • 00:05:51 A ty prostředky toho sledování
    jsou čím dále tím sofistikovanější
  • 00:05:57 a chytřejší.
  • 00:05:58 Mají čím dále tím větší záběr.
  • 00:06:01 Co já vnímám jako velké
    nebezpečí, tak to je ta síla.
  • 00:06:06 To je super velký bratr.
  • 00:06:09 Těch informací o sobě na různých
    místech necháváme spousty.
  • 00:06:13 Myslíme si, že když jsou
    na oddělených místech,
  • 00:06:17 tak si nikdo nedá dohromady
    ten celkový obraz,
  • 00:06:20 aby o nás zjistil opravdu vše.
  • 00:06:23 Aby věděl kde jsme.
  • 00:06:24 Aby znal naše postoje
    a dokázal je ovlivnit.
  • 00:06:27 Dokázal je změnit.
  • 00:06:29 Řekl jste, že jsme nad tím světem
    ztratili kontrolu.
  • 00:06:32 Můžeme jí ještě znovu získat?
  • 00:06:37 Já si dovolím připomenout
    jednu povídku od Clarka.
  • 00:06:42 Ta se jmenuje Ozval
    se Frankenstein.
  • 00:06:53 Že když dojde ke shluku
    množství informací,
  • 00:06:57 tak ten systém si může
    uvědomit sám sebe.
  • 00:07:01 A on ten systém se začal hrát.
  • 00:07:03 Takže vypínal proud
    a dělal zemětřesení.
  • 00:07:05 Napsal to v roce 65.
  • 00:07:07 Jak se pohybujete ve světě
    super Velkého bratra,
  • 00:07:10 jako odborník na kybernetickou
    bezpečnost?
  • 00:07:12 Co mi jako průměrní nebo
    podprůměrní uživatele sociálních
  • 00:07:17 sítí, internetových vyhledávačů
    podceňujeme především?
  • 00:07:22 Uvědomuji si, že to není
    svět absolutní svobody.
  • 00:07:26 Našlapují opatrně.
  • 00:07:31 Teď použiji svoji bývalou profesi.
  • 00:07:36 Řídím rizika.
  • 00:07:39 Takže pohybovat se v tom prostoru
    s tím, že vím, že tam něco hrozí.
  • 00:07:44 A mít na to nástroje a prostředky.
  • 00:07:47 Mít povědomí a vědomí.
  • 00:07:51 Omezujete rizika Ivo,
    když si vzpomenu na to,
  • 00:07:55 jak bulvární deníky plnilo vaše
    odhlášení z facebookových stránek.
  • 00:08:04 Určitě ano.
  • 00:08:06 Já používám Instagram.
  • 00:08:12 Jsem tam až závislá.
  • 00:08:13 Facebook mě nebavil.
  • 00:08:15 Já jsem se odhlásila,
    protože mě to nebavilo,
  • 00:08:17 že dávám prostor lidem, kteří
    se chovají naprosto nepřístojně.
  • 00:08:21 Tak jsem to zrušila.
  • 00:08:23 Vůbec se mi to nedotklo.
  • 00:08:26 To riziko jediné, které
    jsem tam odstupovala je to,
  • 00:08:29 že jsem jim dávala prostor
    se vyjádřit způsobem,
  • 00:08:32 který je pro mě nepřijatelný
    v mezilidské komunikaci.
  • 00:08:36 Jaký je rozdíl.
  • 00:08:38 Neidealizujete si Instagram?
  • 00:08:40 Je to 80 000 lidí, kterých
    máte na svých stránkách.
  • 00:08:46 Ta podstata sociálních sítí,
    ať je to Facebook nebo Instagram,
  • 00:08:50 nebo Twitter, je svým
    způsobem podobná.
  • 00:08:54 Je to každopádně sílení.
  • 00:08:57 Ale Instagram, tak vidím,
  • 00:09:01 že mi tam naskakují
    příspěvky lidí co sleduji.
  • 00:09:05 Hledat někoho koho nemám
    ráda dá více práce.
  • 00:09:08 Je to mírumilovnější.
  • 00:09:11 Každopádně také
    si tam dám to tam dávám.
  • 00:09:13 Já jsem nedávno viděl dobrý citát.
  • 00:09:15 Tam bylo napsáno.
  • 00:09:16 Jsem tak starý, že jsem měl přátele
    ještě před Facebookem.
  • 00:09:23 Také to názvosloví mě zlákalo.
  • 00:09:25 Tam jsou sledující a sledovat Elle.
  • 00:09:28 A nikoliv přátele.
  • 00:09:30 To mě na Facebooku iritovalo.
  • 00:09:33 Jaká ta rizika od těch průměrných
    a podprůměrných uživatelů
  • 00:09:36 z hlediska kybernetické
    bezpečnosti vidíte především?
  • 00:09:39 O nichž možná ještě nejsme
    tak zpraveni, nebo je podceňujeme?
  • 00:09:46 Pokud se podíváme na sociální sítě,
  • 00:09:48 tak tam je největší riziko
    v tom okouzlení z toho
  • 00:09:51 množství přátel.
  • 00:09:52 To je naprosto úžasné.
  • 00:09:54 Máte 600 přátel.
  • 00:09:55 Se všemi jste se potkali
    na párty a v obýváku.
  • 00:09:59 Přišli na panáka.
  • 00:10:02 Největší nebezpečí na sociálních
    sítích,
  • 00:10:05 zvláště pak pro mladé
    lidi vidím v tom,
  • 00:10:08 že tam na sebe
    vykecají naprosto vše.
  • 00:10:10 To co by v restauraci,
  • 00:10:12 nebo na chodníku před zeleninou
    nikdy nikomu neřekli.
  • 00:10:16 Tam je to nebezpečí.
  • 00:10:19 Pohyboval jsem se a přednášel
    jsem pro střední školy.
  • 00:10:22 Je tam to nebezpečí,
    že ty konflikty,
  • 00:10:24 kde nevnímáte ten dopad účinku.
  • 00:10:27 Protože ten člověk sedí
    někde úplně daleko.
  • 00:10:30 Ty konflikty eskalují.
  • 00:10:32 Měl jsem příklad, kdy to eskalovalo
    tak,
  • 00:10:34 že ta dvě děvčata se potkali
    ve škole na chodbě a bez řečí
  • 00:10:38 s jednou natáhli pěstí.
  • 00:10:40 To je hrozně zajímavá věc.
  • 00:10:42 Mně to přijde úplně
    nejstrašidelnější.
  • 00:10:45 Když přijdu k paní prodavačce
    v obchodě a řeknu,
  • 00:10:49 vypadáte opravdu otřesně a musíte
    zhubnout 20 kilo.
  • 00:10:52 Tváříte se jako kráva.
  • 00:10:54 To logicky není systém
    komunikace, který je přípustný.
  • 00:10:58 A to je přesně to, co se děje
    na těch sociálních sítích.
  • 00:11:01 To bylo to, proč jste
    úplně opustila Facebook?
  • 00:11:05 Ano.
  • 00:11:06 Tam to bylo ve větší míře.
  • 00:11:08 A takto absurdní míře.
  • 00:11:10 Samozřejmě výhrůžky smrtí,
    tak to tam bylo také.
  • 00:11:13 Nevidím důvod, proč
    by si to kdokoliv měl nechat líbit.
  • 00:11:20 Ale mladí lidé takto
    spolu komunikují.
  • 00:11:22 Málokdo ví, že se to dá žalovat.
  • 00:11:25 Ta osvěta je tak minimální,
  • 00:11:26 že se to přijalo jako nějaká
    společenská konvence.
  • 00:11:29 Že to je prostě standardní,
    že se takto komunikuje.
  • 00:11:34 Proto se ptám,
  • 00:11:35 zdali je vůbec možné tu rozlitou
    řeku z břehů znovu vrátit do břehů,
  • 00:11:39 když jsme měli optimistická
    očekávání se všemi těmi
  • 00:11:41 sociálními sítěmi.
  • 00:11:43 Jako demokratizační prostor,
    prostor naší svobody,
  • 00:11:46 potkávání se s přáteli častěji,
    nebo kontakt s přáteli,
  • 00:11:51 ze které my máme v té fyzické
    rovině čas se setkávat.
  • 00:11:55 Já se obávám, že to nejde.
  • 00:11:57 Možná bych si vzpomněl na citát
    Abrahama Lincolna,
  • 00:12:01 který v 19. století říkal,
  • 00:12:03 že svoboda bez poslušnosti
    je zmatek.
  • 00:12:08 A poslušnost bez svobody otroctví.
  • 00:12:12 Obávám se, že spousta
    z nás se tam chová,
  • 00:12:17 jakoby se dostali do područí.
  • 00:12:19 Existuje pojem, kterému se říká
    definiční autorita.
  • 00:12:23 To je třeba ten kdo vymyslel
    Facebook.
  • 00:12:30 A všichni se chováme podle jeho
    pravidel, nikoliv podle našich.
  • 00:12:34 Každá hra má nějakou
    svojí definiční autoritu.
  • 00:12:37 Každá aplikace.
  • 00:12:42 Obávám se, že jsme se do té míry
    zbavili té vlastní svobody.
  • 00:12:47 A bez toho řádu.
  • 00:12:48 A vnitřního řádu.
  • 00:12:52 Vnitřní poslušnosti k sobě.
  • 00:12:54 Jak říkala Iva.
  • 00:12:56 Vnitřní poslušnosti
    třeba k výchově.
  • 00:12:59 Pudu sebezáchovy hlavně.
  • 00:13:03 Tak se z nás stanou ti otroci.
  • 00:14:12 Jaroslav Klimeš.
  • 00:14:15 Teď mě napadla parafráze
    jednoho tradičního výroku.
  • 00:14:19 Kolik hesel máš,
    tolikrát jsi člověkem.
  • 00:14:22 Kolik máte hesel?
  • 00:14:25 Moc jich nemám.
  • 00:14:26 Spíše mám strukturované
    a rozdělené podle toho,
  • 00:14:29 jak citlivým informacím
    přes ně přistupuji.
  • 00:14:31 Nebo k jak důležitým aplikacím.
  • 00:14:33 Co v tom mám.
  • 00:14:35 Ty méně důležité aplikace, které
    mohou méně zneužít vaše data,
  • 00:14:41 tak tam máte jednodušší
    hesla, než ty aplikace,
  • 00:14:43 které jsou složité?
  • 00:14:46 Určitě.
  • 00:14:47 Profesionálové tomu říkají
    klasifikace informací.
  • 00:14:50 Podle toho je chráníte.
  • 00:14:53 Já používám e-shop nákup jízdenek.
  • 00:14:58 Je mi jedno,
  • 00:15:00 zdali někdo prolomí heslo
    a na můj účet si koupí jízdenku,
  • 00:15:04 protože my přibudou bonusové body
    a já potom dostanu větší slevu.
  • 00:15:08 Takže ať si tam nakupuje.
  • 00:15:10 Možná bych to mohl zveřejnit.
  • 00:15:13 A příliš dlouhá hesla.
  • 00:15:15 Jaká je ta strategie?
  • 00:15:17 Protože počítač nám říkají
    krátké heslo, malý počet znaků,
  • 00:15:21 málo za bezpečné heslo.
  • 00:15:25 Tato strategie se opouští.
  • 00:15:26 Také autor této strategie dlouhá
    a složitá hesla prohlásil,
  • 00:15:30 že to byl omyl.
  • 00:15:32 Nakonec to skončilo tím,
  • 00:15:33 že uživatelé si to psali na papírky
    a pod klávesnici.
  • 00:15:37 To vedlo akorát k tomu, že ta hesla
    byla snadněji odhalitelná.
  • 00:15:42 Když Iva sledovala tu animaci
    Jaroslava Klemeše,
  • 00:15:46 jak má napsaná hesla.
  • 00:15:48 To jste vy?
  • 00:15:51 Ano.
  • 00:15:52 To jsem byla já.
  • 00:15:53 Já reaguji jinak než pouze křikem.
  • 00:15:55 Já všechno potom verbalizují.
  • 00:15:58 Ale vyřešila jsem to tak, že pokud
    nakupuji, tak má pouze hesla pět,
  • 00:16:02 jsem které potřebuji.
  • 00:16:03 Ale všechno dělá bez přihlášení.
  • 00:16:05 Nemám na to nervy.
  • 00:16:07 Když konečně po hodině vytvořím
    to heslo, které je správné,
  • 00:16:10 tak si stejně nezapamatuji
    k čemu jsem měla.
  • 00:16:16 Kompletně to nenávidím.
  • 00:16:18 To souvisí s tím, kolik
    máte kdo internetu Avatarů.
  • 00:16:28 To jsou přesně ty účty.
  • 00:16:30 Ty si žijí svým životem.
  • 00:16:34 Ale neumřou, až umřete.
  • 00:16:37 A oni tam zůstanou.
  • 00:16:39 Co účet, to avatar.
  • 00:16:42 Žije v nějaké aplikaci.
  • 00:16:45 Tady finanční autorita nedostane
    zprávu, že už to máte za sebou.
  • 00:16:54 Ještě v průběhu dnešního
    večera uvidíme,
  • 00:16:56 co vše je možné z těch hesel,
    popřípadě z dat zjistit.
  • 00:17:02 Jak jsou v databázích,
    které jsou placené.
  • 00:17:05 A přitom ty databáze spočívají
    nakradených heslech.
  • 00:17:10 Jak to,
  • 00:17:12 že po tolika letech od vzniku
    internetu a rozvoj sociálních sítí
  • 00:17:15 ta společnost slyší, rozumějme
    západní liberální demokracie,
  • 00:17:21 že tak málo slyší na regulaci
    a přísnější regulaci.
  • 00:17:27 Abych pravdu řekl, tak hodněkrát
    jsem nad tím přemýšlel.
  • 00:17:32 Je to o tom,
  • 00:17:33 že lidé opravdu považují internet
    za svět absolutní svobody.
  • 00:17:39 Pobavíte se tam s kýmkoliv
    na druhém konci světa.
  • 00:17:41 Platíte, nakupujete, ztratíte se.
  • 00:17:47 To je to, že to tak nějak vnímáme.
  • 00:17:50 Že jakákoliv regulace je zásah
    do těch svobod.
  • 00:17:54 Ale toto je pouze další prostor
    a regulujeme vzdušný prostor.
  • 00:17:59 Neregulovaly jsme ho, dokud
    tam létaly pouze ptáci,
  • 00:18:02 protože ty do sebe
    většinou sami nenaráží.
  • 00:18:09 Ale dali jsme tam letadla.
  • 00:18:11 Mění se doba,
  • 00:18:13 když v posledních měsících
    zaznívají od třeba spoluzakladatelů
  • 00:18:18 Facebooku, jako byl například
    parker, který v listopadu uvedl,
  • 00:18:24 že platforma Facebook těží
    ze slabin psychologie člověka.
  • 00:18:28 Mluvil poměrně otevřeně
    o manipulacích.
  • 00:18:31 Teď bývalý viceprezidenti
    a manažeři Facebooku říkají,
  • 00:18:35 že takové věci by svým
    dětem nedávali.
  • 00:18:40 Aby na té sociální síti byly často,
    tak jako dnešní mladá generace.
  • 00:18:47 Mění se ta doba?
  • 00:18:48 Mohou právě tato slova těch, kteří
    pracovali či zakládali Facebook,
  • 00:18:54 mohou tu atmosféru změnit?
  • 00:19:00 Do té míry,
  • 00:19:01 do jaké oni ještě působí jako
    definiční autorita na ten prostor.
  • 00:19:05 Protože v zásadě regulace
    ze strany státu,
  • 00:19:09 tak tedy toho může nějak zasáhnout.
  • 00:19:15 V Evropě bude brzy platné nařízení
    o ochraně osobních údajů.
  • 00:19:21 Facebook poskytuje své služby
    a Google také,
  • 00:19:23 tak to poskytuje v evropském
    prostoru.
  • 00:19:26 Takže ty zákony budou
    muset dodržovat.
  • 00:19:28 Ale jsou státy, které tady
    také působí na našem trhu.
  • 00:19:34 S dodržováním pravidel z jejich
    strany máme špatné zkušenosti.
  • 00:19:39 Ten zásah určitě stojí zato.
  • 00:19:40 Je otázka, zdali dovedeme
    předpovídat, jak to bude úspěšné.
  • 00:19:47 To je věc osvěty.
  • 00:19:49 Jako třeba tento pořad.
  • 00:19:50 To je hrozně podceněné.
  • 00:19:52 Je otázka, zdali to právě není
    to podprůměrné uživatel staví,
  • 00:19:56 nebo podprůměrné znalosti,
    které těm autoritám,
  • 00:19:59 o nichž Aleš Špidla mluví,
  • 00:20:02 tak jim dáváme daleko
    větší moc a sílu.
  • 00:20:05 Protože jsme právě podprůměrnými
    nebo průměrnými uživateli.
  • 00:20:09 Neuvědomujeme si, jakou
    moc a vliv to na nás má.
  • 00:20:14 To si uvědomíme,
  • 00:20:16 pouze když nad tím začneme
    přemýšlet a nikdo
  • 00:20:18 nás k tomu donutí.
  • 00:20:20 To je ta zodpovědnost rodičů,
    kteří mají dětem vysvětlovat,
  • 00:20:23 aby používali selský rozum
    při používání internetu.
  • 00:20:30 To je úplně zásadní a musí
    se to sdělovat.
  • 00:20:36 Já jsem do toho před
    lety zabloudil.
  • 00:20:39 Tady do té problematiky
    toho povědomí.
  • 00:20:42 Tam se prostě musí
    začít od malička.
  • 00:20:44 Jsem viděl dvouleté dítě, které
    bylo na tabletu rychlejší než já.
  • 00:20:53 Jde o to,
  • 00:20:54 že jsem navrhovala dokonce
    jsem to projednával s lidmi
  • 00:20:57 z ministerstva školství,
    že tak jak je dopravní výchova,
  • 00:21:00 už Bill Gates říkal,
  • 00:21:02 že ten kyberprostor
    informační dálnice.
  • 00:21:06 Také tam se musíme učit pohybovat.
  • 00:21:08 Tak jako se děti učí chodit
    na červeno.
  • 00:21:11 Tedy pardon.
  • 00:21:13 Chodit na zelenou.
  • 00:21:15 A porušovat to potom v životě,
    že chodí na červenou.
  • 00:21:21 Nevidím tam úlohu
    pouze těch rodičů.
  • 00:21:23 Před lety to bylo složité,
  • 00:21:24 protože ty děti byly chytřejší
    a více se orientovali
  • 00:21:27 než ty rodiče.
  • 00:21:29 Též už ta generace jejich rodičů
    má blíž k těm technologiím.
  • 00:21:33 Ale tam je nezastupitelná
    úloha školy.
  • 00:21:35 Já nechápu, proč se ve školách
    v informatice učí word a excel.
  • 00:21:52 Proč se tam neučí
    pohyb v kyberprostoru.
  • 00:21:56 Prošla jste nějakou
    gramotností počítačovou?
  • 00:21:59 Nebo mediální?
  • 00:22:02 Prošla.
  • 00:22:03 Na vysoké škole,
    ale nikdo neví jak.
  • 00:22:06 Ani já.
  • 00:22:07 Podle mě to někdo
    za mě musel udělat.
  • 00:22:10 Ale prošla jsem.
  • 00:22:13 Chci říci, že bych ještě
    apelovala na lidi,
  • 00:22:16 kteří mají třeba hodně
    sledovat Elu a přátel na svých
  • 00:22:18 sociálních sítích.
  • 00:22:20 Že je také úkol člověka,
    který má nějaký větší vliv,
  • 00:22:23 kultivovat ty sledující.
  • 00:22:26 Také tam dělat v tom prostoru
    tu osvětu.
  • 00:22:30 Ukazovat jim, že to lze dělat
    také jinak,
  • 00:22:34 než se prsit na každé selfie.
  • 00:22:40 Podobenství Velkého
    bratra v kyberprostoru.
  • 00:22:42 Vzpomeňme si na dobu analogů.
  • 00:22:44 Byli to především
    kamery a odposlechy.
  • 00:22:47 Hrát si dnes na špiona může každý.
  • 00:22:50 Z těch analogových věcí
    se staly právě hračky,
  • 00:22:54 které jsou všude k mání.
  • 00:22:55 Kam se třeba dá schovat
    taková obyčejná kamera,
  • 00:22:58 na to jsem se ptal
    podnikatele Adama Švejdy.
  • 00:23:02 Skryté kamery se montují
    do čehokoliv.
  • 00:23:05 Od různých budíků přes napájecí
    adaptéry, po mobilní telefony,
  • 00:23:14 propisky, různá pohybová čidla.
  • 00:23:18 Nebo třeba pro individuální montáže
    se používají tyto miniaturní
  • 00:23:26 moduly, které se dají
    dát do čehokoliv.
  • 00:23:29 Čepice, brýle, sluchátko, přívěšek
    na krk, knoflík, hodinky, pásek.
  • 00:23:39 V botě jsem ještě kameru neviděl.
  • 00:23:43 Ale určitě nějaká bude.
  • 00:23:45 A tady v tom budíku?
  • 00:23:49 Je nahoře v té bambuli.
  • 00:23:51 Ten budík je zajímavý v tom,
    že ta kamera je otočná.
  • 00:23:54 Takže přes mobil se k tomu můžete
    připojit a prstem to otáčet
  • 00:23:59 do všech směrů.
  • 00:24:00 Takže pokryjete celou místnost.
  • 00:24:03 Takové hlavní rozdělení je,
  • 00:24:05 jestli si člověk chce
    nahrávat něco v terénu,
  • 00:24:09 třeba nějakou schůzku
    nebo rozhovor.
  • 00:24:11 Na to se potom používají kamery
    typů hodinek, brýlí, kravat.
  • 00:24:22 Nebo zdali chce
    monitorovat prostor,
  • 00:24:25 kam umístí budík nebo to čidlo.
  • 00:24:28 Pokud byste měl zmínit
    důvody, které slýcháváte,
  • 00:24:31 proč si někdo z těch zákazníků
    rozhodne někoho špehovat.
  • 00:24:36 Ve velké většině případů
    se na nás obracejí majitelé firem,
  • 00:24:40 třeba restaurací, kde řeší takový
    věčný problém se zaměstnanci.
  • 00:24:44 Kteří jim tam kradou.
  • 00:24:47 V podstatě je velice problematické
    to jakkoliv dokázat bez použití
  • 00:24:51 skryté kamery.
  • 00:24:54 Další jsou obchodní
    zástupci z firem,
  • 00:24:57 kteří často vynáší citlivá data.
  • 00:24:59 Dělají si obchody bokem.
  • 00:25:01 Takže tam se používají různá
    sledovací zařízení na auto,
  • 00:25:05 kde si ten majitel
    může kontrolovat,
  • 00:25:08 jestli ten zástupce opravdu jezdí
    za těmi zákazníky, za kterými má.
  • 00:25:14 Ze všech špionážních filmů tušíme,
  • 00:25:15 že právě v tužce umístěna
    kamera je asi ten lidově řečeno
  • 00:25:20 nejprovařenější způsob.
  • 00:25:22 Tužky asi už nejdou na odbyt.
  • 00:25:26 Že každého může napadnout,
    že skrytá kamera je v tužce.
  • 00:25:30 Asi jsou nejznámější
    spolu s hodinkami.
  • 00:25:35 To jsou takový
    nejběžnější zástupci.
  • 00:25:38 Kupují to běžní uživatelé.
  • 00:25:41 Kupují to často jako dárek,
    že jim to přijde třeba zajímavé.
  • 00:25:45 Ale třeba soukromý detektiv,
  • 00:25:47 nebo nějaký vyšetřovatel
    už si u nás tužku nepořídí.
  • 00:25:51 Těm většinou vyrábím nějaké
    zakázkové speciality.
  • 00:25:55 Možná jste si nevšiml,
  • 00:25:56 že mám na ruce hodinky a tady
    je kamera vepředu.
  • 00:26:02 Takže jsem schopen si to také
    celé nahrát.
  • 00:26:08 Dva Pazderková ve své profesi
    je zvyklá na snímání kamerami.
  • 00:26:13 Jak nesete to, když jste snímána,
    aniž byste o tom věděla?
  • 00:26:19 Špatně.
  • 00:26:21 Ty profesionální kamery jsou dost
    velké a většinou na vás někdo
  • 00:26:23 křičí, kam se máte dívat.
  • 00:26:25 Mě to hrozně vidět, jak jsem
    se s tím setkal.
  • 00:26:27 A to byla pouze fotografie.
  • 00:26:29 Vůbec jsem netušila, že jsem
    v nákupním centru s kamarádkou.
  • 00:26:32 Šli jsme do kina chytili
    jsme se za ruce,
  • 00:26:34 protože jsme si povídali
    o rozchodu.
  • 00:26:36 A potom vyšlo v časopise,
    že jsme lesby.
  • 00:26:40 Vůbec jsem o těch fotkách nevěděla.
  • 00:26:42 Také bulvár používá.
  • 00:26:45 Je to věc, což je extrém.
  • 00:26:48 Je to extrém, když dnes právě každý
    v hodinkách může mít skryté kamery.
  • 00:27:01 Předpokládám, že existují programy,
  • 00:27:03 které mohou z našeho počítače
    snímat nás v naší domácnosti
  • 00:27:07 a dávat to těm, kteří
    jsou na druhé straně.
  • 00:27:11 Na to je spousta programů,
    které si stáhnete z internetu.
  • 00:27:15 Nemusíte to ani vyvíjet
    ani kupovat.
  • 00:27:18 Prostě si to stáhnete.
  • 00:27:20 Když víte odkud, tak je máte.
  • 00:27:22 Pokud se dostanete do toho
    počítače toho člověka,
  • 00:27:24 kterého chcete sledovat,
    tak to tam je.
  • 00:27:27 Tady je ještě velká skupina dalších
    kamer, které máte v domácnostech,
  • 00:27:33 abyste si ochránil domácnost.
  • 00:27:35 V pokojích.
  • 00:27:37 Doufám, že ne v ložnici.
  • 00:27:39 Ale jsou také takoví.
  • 00:27:41 Když víte, kde to najdete,
    kde najdete seznam těch kamer,
  • 00:27:47 které mají základní firemní heslo.
  • 00:27:50 A přes aplikace se k nim dostanete
    a můžete se dívat po celém světě.
  • 00:27:54 A že jich tam je.
  • 00:27:56 Jestli chcete adresu těch
    stránek, tak vám to řeknu.
  • 00:27:59 To raději až mimo vysílání.
  • 00:28:02 Spíš by bylo dobré nám říci,
    kdy přijde to,
  • 00:28:05 že to bude nelegální.
  • 00:28:07 Že to, na to jsme nebyli zvyklí
    v tom analogovém prostoru,
  • 00:28:11 tak zkrátka umisťování kamer.
  • 00:28:14 Vzpomeňte si,
  • 00:28:15 když se umisťovaly kamery
    bezpečnostní kamery ve městech.
  • 00:28:19 Ještě před 10 nebo 15 lety.
  • 00:28:21 První kameny.
  • 00:28:22 Vedla se velká diskuze, že nazve
    sledovat velký bratr.
  • 00:28:26 Podívejte se, kolik těch kamer je.
  • 00:28:30 Sami jsme si to zlegalizovali.
  • 00:28:32 To není vina těch kamer.
  • 00:28:35 My jsme to tak chtěli.
  • 00:28:39 Je tam asi vždy nejsilnější
    argument, který se používá,
  • 00:28:43 když už asi není kudy kam.
  • 00:28:45 Tak bezpečnost.
  • 00:28:47 Chráníme prostor.
  • 00:28:49 Někdy to je naprosto oprávněné.
  • 00:28:52 Ale i toto by se mělo dělat
    v nějaké rozumné míře.
  • 00:28:58 Tam je hrozně důležité,
  • 00:29:00 aby byl legální důvod
    k tomu zpracování.
  • 00:29:04 Ale daleko více je těch
    nelegálních přístupu těch kamer.
  • 00:29:08 Ještě se budeme v průběhu dnešního
    večera o těchto věcech bavit.
  • 00:29:12 První kapitolu dnešního Fokusu
    otevírali odborník na kybernetickou
  • 00:29:16 bezpečnost Aleš Špidla a děkuji
    také zpěvačce a herečce
  • 00:29:19 Ivě Pazderkové.
  • 00:29:24 Hosty měsíčníku fokus Václava
    Moravce na téma Velký bratr dnes
  • 00:29:28 večer jsou.
  • 00:29:30 Herečka Iva Pazderková,
  • 00:29:33 odborník na kybernetickou
    bezpečnost Aleš Špidla,
  • 00:29:39 psycholožka a sexuoložka Laura
    Janáčková, Martin Buchtík sociolog,
  • 00:29:47 podnikatel Eduard Kučera,
  • 00:29:50 a odborník na umělou
    inteligenci Josef Holý.
  • 00:30:00 Tomáš Krámský.
  • 00:30:02 Udělal v ČR to, co nikdo
    jiný neudělal.
  • 00:30:06 200 dní den po dni se natáčel.
  • 00:30:09 A sdílel téměř vše o svém
    životě prostřednictvím YouTube.
  • 00:30:15 Pro někoho to může znít děsivě.
  • 00:30:17 Ale život on-line je podle
    něj především zábava.
  • 00:30:24 Jsem opravdu vyřízený.
  • 00:30:26 Dnes jsem si dal předsevzetí.
  • 00:30:29 Od 1. 1. budu natáčet tyto blogy.
  • 00:30:34 Dobrý den.
  • 00:30:35 Já jsem Marta Pilařová.
  • 00:30:37 Já jsem Tomáš.
  • 00:30:40 Tomáš se pořad natáčí.
  • 00:30:43 Pojďme si o tom popovídat.
  • 00:30:45 Proč se pořád natáčíte?
  • 00:30:50 Natáčím se z jednoho
    jednoduchého důvodu.
  • 00:30:53 Já mám radost ze svého
    aktuálního života.
  • 00:30:56 Opravdu mám radost.
  • 00:30:58 Říkal jsem si, že když
    už je ten stav,
  • 00:31:00 kdy z toho mám radost já, tak mohu
    sdílet to také s světem on-line.
  • 00:31:08 Těch 100 dní tedy 200 dní sdílíte
    ke všem.
  • 00:31:18 Dělám to velice dlouho.
  • 00:31:23 Pokud to děláte dlouho,
    tak překračujete určité milníky.
  • 00:31:29 Ten strop toho všeho je denní
    vlogování natáčíte sama sebe
  • 00:31:36 na denní bázi.
  • 00:31:38 Těch 200 dní byl cíl, který
    jsem si nedokázal představit.
  • 00:31:41 Rozhodl jsem se pro 30 dní,
    což jsem překonal.
  • 00:31:45 Překonal jsem 100 a u těch 200 jsem
    padl a ukončil jsem to.
  • 00:31:51 136 000 lajků.
  • 00:31:53 Tři hodin denně střihu.
  • 00:31:55 25 dní v kuse střihání.
  • 00:32:04 Rozbitá kamera.
  • 00:32:12 Stěhování.
  • 00:32:13 Celý můj osobní život.
  • 00:32:15 Těžké na tom je to, že neustále
    vám běží scénář v hlavě.
  • 00:32:19 Opravdu musíte mít tu dějovou
    linku.
  • 00:32:22 Dále musíte mít stále připravenou
    techniku, baterky s sebou,
  • 00:32:25 věci navíc.
  • 00:32:27 Třetí věc je, že v podstatě
    ty věci pouze zaznamenáváte,
  • 00:32:32 ale neprožíváte,
    protože na to není čas.
  • 00:32:35 Musíte být s odstupem.
  • 00:32:37 Jako když natáčíte tuto reportáž.
  • 00:32:40 Tady se to celé kumuluje.
  • 00:32:42 Do toho pracujete.
  • 00:32:44 Máte klasický pracovní
    den a do toho máte vlastní projekty
  • 00:32:46 a rodinu.
  • 00:32:48 Mě to štve, tedy je to štve
    ale tolerují to.
  • 00:32:53 A když večer přijdete, tak tři nebo
    čtyři hodiny denně střiháte.
  • 00:33:01 To je takový balíček stresu.
  • 00:33:03 Ale baví mě to.
  • 00:33:05 Když se Teodor
    narodil 21. 12. 2016,
  • 00:33:10 tak jsem celý den natáčel.
  • 00:33:14 Rozhodl jsem se, že natočím
    nějakou konkrétní otázku.
  • 00:33:16 Třeba tuto.
  • 00:33:18 Nevím co přijde?
  • 00:33:19 Já také ne.
  • 00:33:22 To mě baví.
  • 00:33:24 Zajímá mě vědět.
  • 00:33:25 Je tam opravdu všechno,
  • 00:33:27 nebo si necháváš nějaké
    soukromí pro sebe?
  • 00:33:29 Není tam vše.
  • 00:33:31 Nemohu ukazovat své soukromí.
  • 00:33:33 Ale jdu za hranice toho,
    co oni tady dělají.
  • 00:33:38 Opatrně se snaží posouvat
    hranice dále a dále a přinášet
  • 00:33:41 něco unikátního.
  • 00:33:43 Takže mám věci, které mám pro sebe.
  • 00:33:46 To je tabu.
  • 00:33:47 Ale posouvá hranice dále.
  • 00:33:49 Doufá, že vás to baví.
  • 00:33:51 Napište mi do komentáře,
    kam vnímáte hranice.
  • 00:33:55 Co už je moc a co je málo.
  • 00:33:57 Napište mi to do komentáře
    a to bude to nejlepší odpověď.
  • 00:34:01 Máme za sebou prohlídku
    dalšího bytu.
  • 00:34:04 Jak se ti líbí lásko nový byt?
  • 00:34:08 Líbí se mi hodně.
  • 00:34:09 Chtěla bys tam žít?
  • 00:34:13 Na 90 %.
  • 00:34:15 Bavíme se primárně pouze o YouTube,
    v té video platformě.
  • 00:34:19 Potom je tady ještě
    Instagram, Facebook, Twitter.
  • 00:34:23 Sociální sítě, které
    jsou daleko důležitější,
  • 00:34:25 nebo jsou daleko rychlejší.
  • 00:34:27 Já toto médium natočím,
    udělám produkci, nestíhám to.
  • 00:34:31 Potom to ohnu a potom
    to dám on-line.
  • 00:34:34 Ale když otevřu mobilní telefon,
  • 00:34:39 je tam Instagram a hned to vidí
    všichni živě moji fanoušci.
  • 00:34:44 Zdravíme vás spolu s ČT.
  • 00:34:48 Teď jsme živě.
  • 00:34:51 Hotovo.
  • 00:34:53 Od 16 do 18 hodin mám sport.
  • 00:34:57 Golf nebo běhání.
  • 00:34:59 Co bude dále netuším.
  • 00:35:05 Mám pocit, že to zastoupení on-line
    světa bude čím dále tím větší.
  • 00:35:09 Ale také sofistikovanější.
  • 00:35:11 A vzniknou možná malé
    komunikační kanály.
  • 00:35:14 Malé televize a rádia.
  • 00:35:18 Víceméně se nic moc nezmění,
  • 00:35:20 akorát se to bude šířit možná
    trochu rychleji a více kanály.
  • 00:35:24 Za hodinu startuje moje přednáška.
  • 00:35:27 Držte mi palce.
  • 00:35:29 Je zapotřebí si na to zvyknout,
    že jsem on-line.
  • 00:35:35 Určitě si nikdo nebude
    muset zvyknout.
  • 00:35:38 Může žít mimo.
  • 00:35:42 Ale zároveň bych se tomu nebránil.
  • 00:35:44 Možná bych trochu ustoupil.
  • 00:35:47 Že bych se díval na internet
    o čem to celé je.
  • 00:35:51 Úplně bych se tomu nebránil.
  • 00:35:53 Ale je to zábavný svět.
  • 00:35:55 Nebál bych se toho.
  • 00:36:15 Druhou kapitolu dnešního
    Fokusu otevírají psycholožka
  • 00:36:19 Laura Janáčková.
  • 00:36:21 Dobrý večer.
  • 00:36:22 Pozvání přijal také sociolog
    analytik Martin Buchtík.
  • 00:36:26 Pěkný večer.
  • 00:36:28 Z psychologického hlediska.
  • 00:36:30 Jak vysvětlit to odhalování
    se a sdílení těch nejintimnějších
  • 00:36:34 okamžiku ze svého soukromí
    na sociálních sítích?
  • 00:36:38 Já si myslím, že to je hlavně
    nevědomostí.
  • 00:36:41 Já se třeba ve své ordinaci
    často setkávám s tím,
  • 00:36:43 že mnoho lidí vůbec neví co dělá
    a nedovede si představit
  • 00:36:47 ani ten dosah těch věcí, které
    vlastně budou následovat.
  • 00:36:52 Co se děje.
  • 00:36:53 To je na jedné straně.
  • 00:36:55 A na druhé straně každý
    člověk je sociální.
  • 00:36:58 Přeje si mít přátele.
  • 00:37:00 Přeje si vynikat.
  • 00:37:02 Přeje si být obdivován
    a mít zpětnou vazbu,
  • 00:37:05 která je ta pozitivní,
    která mě posune dále.
  • 00:37:08 Tím pádem dává na ten internet
    celou řadu věcí.
  • 00:37:12 Jak bylo krásně řečeno,
    ten svůj život neprožívá.
  • 00:37:16 Ono se často říká, že štěstí
    se neprožívá,
  • 00:37:21 ale vzpomíná se na něj.
  • 00:37:24 Ale ve skutečnosti
    člověk to může prožívat.
  • 00:37:26 Ale když jde život tak rychle,
    že si stále na něco hra,
  • 00:37:31 je tak o spoustu věcí přichází.
  • 00:37:33 Nakolik je to narcisismus od nás?
  • 00:37:39 Dá se to označit za dobu
    narcistním?
  • 00:37:43 Každý člověk chce vynikat
    aby individuální.
  • 00:37:45 Jsme k tomu vedeni.
  • 00:37:48 Naopak jsme dále podporováni
    celou řadu reklam.
  • 00:37:51 Přece musíme být krásní,
    mladí, zdraví, úspěšní.
  • 00:37:54 To všechno když musíme být,
  • 00:37:57 tak najednou v tom našem
    soukromém životě to nejsme.
  • 00:38:00 A cítíme se frustrovaní.
  • 00:38:02 A tak si vytvoříme ten virtuální
    svět, ve kterém také můžeme žít.
  • 00:38:07 Ale najednou jsme tam obdivování
    do určité doby.
  • 00:38:10 Dokud nevzbudíme závist, dokud
    nezjistíme negativa internetu.
  • 00:38:15 To nás svým způsobem na jednu
    stranu uspokojuje,
  • 00:38:18 ale na druhou stranu se vlastně
    často ukazuje také to,
  • 00:38:22 že člověk ztrácí spokojenost
    se svým životem.
  • 00:38:25 Protože najednou musí více a více
    dávat více a více se stává závislý.
  • 00:38:31 Ta doba exhibiční.
  • 00:38:34 Je teď módou počátku
    rozvoje sociálních sítí,
  • 00:38:38 nebo to bude dlouhodobý trend?
  • 00:38:40 To nevím.
  • 00:38:42 Já doufám, že to nebude
    dlouhodobý trend.
  • 00:38:44 Ale myslím si, že v současné
    době tím,
  • 00:38:46 jaká je velká
    neinformovanost a tím,
  • 00:38:51 že slyším maminek v ordinaci,
    jak si stěžují,
  • 00:38:55 kolik děti tráví hodin na internetu
    a jak tam fungují, tak si myslím,
  • 00:38:58 že ten problém je poměrně velký.
  • 00:39:01 Dokud nebude osvěta, tak nebude
    fungovat nic jiného.
  • 00:39:05 Martin Buchtík zkoumá chování
    uživatelů na sociálních sítích
  • 00:39:09 a také v různých typech
    těch tradičních médií.
  • 00:39:15 Jak se liší používání sociálních
    sítí v návaznosti na věk,
  • 00:39:20 popřípadě na vzdělání?
  • 00:39:22 Ty rozdíly jsou opravdu velké.
  • 00:39:24 Zatímco pokud je vám 20 let,
  • 00:39:26 tak lidé ve věku 20 let mají
    95 % účet na sociální síti,
  • 00:39:35 který používají.
  • 00:39:37 Lidé v důchodovém
    věku kolem 65 let,
  • 00:39:39 tak je to třeba pět nebo
    šest % té věkové kohorty.
  • 00:39:42 Ten rozdíl je velký.
  • 00:39:45 Zvyšuje se samozřejmě
    také se vzděláním.
  • 00:39:47 Starší lidé vzdělání více
    používají moderní technologie.
  • 00:39:53 Takže tam ten kontext je různý.
  • 00:39:56 U mladých lidí platí to,
  • 00:39:58 že v podstatě všichni
    používají sociální sítě.
  • 00:40:01 Bude se to časem měnit,
    že také ti starší,
  • 00:40:04 třeba seniorská generace přejde
    a bude také používat sociální sítě
  • 00:40:10 daleko častěji?
  • 00:40:11 Asi nedoběhne tu nejmladší
    generaci.
  • 00:40:17 Bude se to měnit tak,
  • 00:40:18 jak ti stávající uživatelé
    sociálních sítí budou stárnout.
  • 00:40:21 Ale budou se měnit
    typy sociálních sítí.
  • 00:40:23 Ty se budou různě rozrůzňovat.
  • 00:40:26 Jak to vidíme dnes.
  • 00:40:27 Lidé, kterým bude 60 budou používat
    úplně jiné sociální sítě, než lidé,
  • 00:40:31 kterým bude 50 nebo 45.
  • 00:40:34 Jak jste se účastnil jako sociolog
    projektu Generation What.
  • 00:40:43 Co nového jste se dozvěděl
    v tom projektu o to nejmladší
  • 00:40:47 generaci, která je tady s námi
    v televizním studiu?
  • 00:40:50 Dozvěděli jsme se to,
  • 00:40:51 že ta generace je hrozně
    roztříštěná.
  • 00:40:54 Když je vám 18, tak řešíte
    přechod na vysokou školu,
  • 00:40:56 nebo začátek pracovní kariéry.
  • 00:40:58 Aby 30 řešit hypotéku.
  • 00:41:02 Ale když je vám 28,
    tak pohrdáte youtuber.
  • 00:41:07 Když je vám 18, tak s tím žijete
    na každodenní bázi.
  • 00:41:11 A vaši vrstevníci očekávají,
  • 00:41:15 že se buďto vyhraníte
    vůči tomu YouTube,
  • 00:41:22 nebo půjdete s nějakým
    proudem a budete je sledovat.
  • 00:41:24 Stejně tak jako v 90. letech
    jste musel vědět,
  • 00:41:27 co šlo na jiném kanálu
    televize jako Vinetou.
  • 00:41:40 Liší se česká generace
    od té západní Evropě?
  • 00:41:44 V Čechách mladí lidé stále věří,
  • 00:41:46 že budou mít lepší život
    než jejich rodiče.
  • 00:41:48 To v západní Evropě úplně neplatí.
  • 00:41:51 Jaké proto máte vysvětlení?
  • 00:41:53 Vysvětlení je poměrně jednoduché.
  • 00:41:55 To je to, že máme odkud růst.
  • 00:41:57 Protože jsme si prošli
    obdobím socialismu.
  • 00:42:01 Ten progres tady není tak obtížný,
    jako třeba v západní Evropě.
  • 00:42:06 Alespoň tak to vnímají mladí lidé.
  • 00:42:08 Když jsme tady s paní
    doc. Janáčkovou probírali
  • 00:42:10 to obnažování se.
  • 00:42:12 Tu dobu exhibičním.
  • 00:42:15 Jsou to ti nejmladší,
  • 00:42:16 ti nejčastější uživatelé
    sociálních sítí,
  • 00:42:20 kteří nevnímají své soukromí
    jako poměrně široký prostor.
  • 00:42:25 Řekněme, že soukromí a intimita
    pro ně nemá podstatnější hodnotu?
  • 00:42:30 Já bych řekl,
  • 00:42:32 že ta sféra soukromí s užíváním
    sociálních sítí a vůbec
  • 00:42:36 kybernetickém prostoru
    se redefinuje a mění.
  • 00:42:41 Zároveň si nemyslím, že mladí
    lidé jsou nejohroženější.
  • 00:42:45 Oni prochází nějakým
    vzdělávacím systémem.
  • 00:42:48 Jsou často upozorňování
    na ta rizika.
  • 00:42:51 Přestože v tom absolutním počtu
    budou ti mladí lidé ohroženější,
  • 00:42:56 tak jedna z těch nejohroženějších
    generací jsou lidé v předdůchodovém
  • 00:42:59 nebo důchodovém věku.
  • 00:43:01 Kteří vlastně začínají
    poznávat sociální sítě.
  • 00:43:04 Protože to používají jejich
    děti, nebo vnoučata.
  • 00:43:07 Ale v podstatě se v tom světě
    vůbec neorientují a neznají
  • 00:43:10 ani ty základní pravidla.
  • 00:43:11 Jako třeba neklikat na všechno,
  • 00:43:13 co sdílí záliv je můj bratr
    nebo matka.
  • 00:43:19 Úplně nejohroženější
    skupinou jsou malé děti.
  • 00:43:22 Protože když se na to podíváme
    z pohledu, jak to vypadá teď,
  • 00:43:26 tak maminky nemají
    dostatek času na ty děti.
  • 00:43:28 A proto jim dávají tablety.
  • 00:43:31 Takže už v kočárku, když jedeme
    po nákupních centrech, tak vidíme,
  • 00:43:34 jak ty malé děti se dívají
    na tablety.
  • 00:43:37 Takže se s tím postupem
    času sžívají.
  • 00:43:39 Je logické, že jak se dostávají
    dále a stárnou,
  • 00:43:42 tak najednou potom kdo není
    na Facebooku není in.
  • 00:43:50 Ale ty děti tam jsou daleko
    dříve, než od 13 let jak by měly.
  • 00:43:56 Já vím, že okolo 10 let měly
    děti Facebook.
  • 00:44:00 Na to, aby se tam přihlásili,
    tak znamená, že museli lhát.
  • 00:44:04 Museli svoji identitu
    nějakým způsobem skrývat.
  • 00:44:07 Protože si museli přidat
    ty roky, které potřebují.
  • 00:44:11 Načež následuje to, že něco se děje
    a povídají si o tom ve škole.
  • 00:44:15 Když tam náhodou nejsou
    v tom kolektivu a nejsou
  • 00:44:18 na tom internetu, tak jsou
    úplně vyloučeni.
  • 00:44:22 Protože to je špatně.
  • 00:44:24 To je úplně něco, co je vede
    mimo ten kolektiv.
  • 00:44:28 Takže jsou uvedeni do toho stáda.
  • 00:44:30 A potom následuje samozřejmě to,
  • 00:44:32 že když najednou přijde ostražitý
    rodiče a chce se nějakým způsobem
  • 00:44:37 podívat a přihlásit se eventuálně
    mezi přátele, tak to dítě říká.
  • 00:44:41 Ježíš Maria, co teď najednou vidí.
  • 00:44:44 To vůbec ne.
  • 00:44:46 To souvisí s tou intimitou.
  • 00:44:48 Najednou zjistí, že by se mohlo
    řešit zabezpečení a další věci.
  • 00:44:54 Paradoxem je, že se zabezpečí
    proti těm rodičům,
  • 00:44:57 ale nikoliv proti tomu
    okolí, kterému se otevírá.
  • 00:45:00 A otevírá se čím dále tím více.
  • 00:45:02 Právě díky té nevědomosti
    dochází k celé řadě problémů.
  • 00:45:06 Protože čím více času
    jsou na tom internetu,
  • 00:45:08 tím více se setkávám s celou
    řadou dalších problémů,
  • 00:45:11 které vlastně se odrážejí
    v té psychice.
  • 00:45:15 Protože tam dochází nejen k tomu
    slastnému endorfinu,
  • 00:45:24 když mají pocit že mají moc přátel
    a dostávají lajky.
  • 00:45:31 Ale potom se, že ti přátelé jsou
    zcela cizí a jiní začnou psát věci,
  • 00:45:35 které oni nechtějí slyšet.
  • 00:45:37 Pokud se tyto věci stanou,
    tak oni se začnou stahovat do sebe.
  • 00:45:41 Začnou na to nějakým
    způsobem reagovat.
  • 00:45:43 Často vůbec neví jak.
  • 00:45:45 Komunikují to opět v tom prostředí,
    které je nebezpečné.
  • 00:45:48 Nikoliv, aby se poradili
    s dospělým člověkem.
  • 00:45:50 Ale naopak v tom sociálním
    prostředí těch dětí.
  • 00:45:53 A nějakým způsobem to řeší.
  • 00:45:55 O to více jsou na tom internetu.
  • 00:45:58 A tam jsou potom ty dopady
    zdravotní.
  • 00:46:00 Agresivita, bolí je hlava,
    nemohou spát a další řada věcí.
  • 00:46:07 Čtyři z pěti sociálních
    sítí zvyšují pocity úzkosti
  • 00:46:11 a dokonce deprese.
  • 00:46:14 Vyplývá to z průzkumu,
  • 00:46:16 který zveřejnila letos v červnu
    britská Královská společnost
  • 00:46:20 pro veřejné zdraví.
  • 00:46:21 Ta zeptala Britů ve věku
    od 14 do 24 let,
  • 00:46:32 jaký to má vliv na jejich zdraví.
  • 00:46:34 Nejhůř dopadl Instagram.
  • 00:46:37 Negativně ovlivňuje jejich spánek,
  • 00:46:39 zhoršilo to jejich spokojenost
    s tím jak vypadají.
  • 00:46:41 A zvýšil strach z toho,
  • 00:46:43 že bez sledování své sítě
    o něco přicházejí.
  • 00:46:51 To platí také pro další platformu
    pro sdílení fotografií snap-chat.
  • 00:47:03 Facebook je na třetím místě.
  • 00:47:05 Dotazovaní na Facebooku údajně
    nacházejí emocionální podporu.
  • 00:47:08 A cítí se být součástí komunity.
  • 00:47:13 Také on ale negativně
    ovlivňuje spánek.
  • 00:47:16 A mnoho z oslovených uživatelů
    se na něm setkalo se šikanou.
  • 00:47:22 Totéž, i když v menší
    míře platí od l.
  • 00:47:29 A Twitter.
  • 00:47:31 Nejpozitivněji dopadl
    kanál YouTube.
  • 00:47:34 U něho účastníci oceňují například
    možnost sdílet a vyjadřovat
  • 00:47:37 své pocity a myšlenky.
  • 00:47:41 Také YouTube ale připravuje
    lidi o spánek.
  • 00:47:49 Když navážeme na to britské
    sociologické šetření.
  • 00:47:52 Tak Martin Buchtík u,
    nakolik ta generace What?
  • 00:47:59 si je vědoma těch rizik, které
    tady jsou se sociálními sítěmi?
  • 00:48:03 Ta generace vcelku jestli poměrně
    vědoma těch rizika z lavin.
  • 00:48:09 Slabin.
  • 00:48:11 Ale to ne, a že by se podle
    toho řídili.
  • 00:48:16 Ta rizika se velice
    rychle mění a vyvíjí.
  • 00:48:19 Takže to co jsme říkali o rizicích
    před třemi lety,
  • 00:48:22 tak dnes už je pasé.
  • 00:48:24 Zase tady máme nějaká nová
    rizika nové fenomény.
  • 00:48:27 To je ta dynamika tak výrazná,
  • 00:48:29 když to srovnáme v jedné generaci
    z vašeho pohledu sociologů?
  • 00:48:36 Jednoduchý příklad za všechny.
  • 00:48:39 O youtouberingu tady před
    třemi lety nevěděl nikdo.
  • 00:48:47 A teď se to snaží všichni rozkrýt.
  • 00:48:49 Věnuje se tomu YouTube,
    ale také televize a tisk.
  • 00:48:54 Je tam velký zájem o Youtubery.
  • 00:49:04 Zmiňoval jsem některé výroky
    zakladatel Facebooku.
  • 00:49:07 Bývalý produktový manažer
    Facebooku Martines tvrdí,
  • 00:49:13 že Facebook lže o své schopnosti
    ovlivňovat jednotlivce za pomocí
  • 00:49:17 dat, které o nás jako o uživatelích
    shromažďuje.
  • 00:49:21 Jeden ze zakladatelů Facebooku
    Parker v listopadu prohlásil,
  • 00:49:26 že platforma těží ze slabin
    psychologie člověka.
  • 00:49:29 Které slabiny to jsou
    paní docentko?
  • 00:49:33 Část z nich jste naznačila.
  • 00:49:37 Největší slabina je důvěryhodnost.
  • 00:49:39 Člověk důvěřuje tomu co tam je.
  • 00:49:42 Důvěřuje, že to je stejné
    jako když se potkáte s někým.
  • 00:49:45 Ale ono to není stejné.
  • 00:49:47 Protože všichni jsme vlastně
    vybaveni takovou znalostí
  • 00:49:51 neverbální komunikace.
  • 00:49:52 Když potkám někoho,
  • 00:49:54 potkám vás tak okamžitě během
    osmi sekund přesně vím,
  • 00:49:57 jak jste na to o co teď cítíte.
  • 00:50:00 Jak vnímáte.
  • 00:50:02 Abyste se nedivil
  • 00:50:05 a :D
  • 00:50:09 Ale ve virtuálním světě to není.
  • 00:50:11 Já předpokládám a mám očekávání
    a ta očekávání chci naplňovat.
  • 00:50:18 Tím pádem jsem úplně někde jinde.
  • 00:50:20 Ale druhá věc je,
  • 00:50:22 že velkou slabinou je sebevědomí
    toho člověka.
  • 00:50:24 Protože sebevědomí se musí
    nějakým způsobem vyvíjet.
  • 00:50:27 Je na něčem postavené.
  • 00:50:29 Pokud člověk nemá
    dostatečné sebevědomí,
  • 00:50:32 což právě u těch
    dětí když se vyvíjí,
  • 00:50:35 tak si hledají ty své hranice.
  • 00:50:38 Tak dochází k tomu, že neumějí
    dávat odtud potud.
  • 00:50:42 Neumějí říkat ne.
  • 00:50:47 Podléhají manipulaci.
  • 00:50:50 A to máme ten nástroj, kdy vidíme
    neverbální komunikaci,
  • 00:50:53 když se potkáme.
  • 00:50:55 Ale teď najednou to tam není.
  • 00:50:57 Působí tam všechno podprahově.
  • 00:50:59 Na podvědomí toho člověka.
  • 00:51:01 A potom je velice
    jednoduché dopadnout tak,
  • 00:51:05 jako někteří dopadají.
  • 00:51:07 To zmenšování rizika a eliminace
    rizik u nejčastějších uživatelů
  • 00:51:11 sociálních sítí.
  • 00:51:12 Je na nějaké úrovni?
  • 00:51:16 Je to tam velice
    rozdílné podle toho,
  • 00:51:19 jakým způsobem užíváte
    nejen sociální sítě,
  • 00:51:21 ale pracujete s technologiemi
    jako takovými.
  • 00:51:26 Jedna z těch základních věcí,
    kterou o tom můžeme říci je fakt,
  • 00:51:30 že výzkumy ukazují,
  • 00:51:32 že třeba vzdělaní lidé mladí
    používají internet nejen k zábavě,
  • 00:51:36 ale také ke vzdělávání se.
  • 00:51:38 Lidé naopak z nižších sociálních
    vrstev a s nízkým vzděláním
  • 00:51:42 používají kyberprostor
    pouze k zabavení se.
  • 00:51:47 A ty rozdíly se s věkem a dobou
    velice rozšiřují.
  • 00:51:54 To co zaznělo v první části
    dnešního Fokusu je klíčové.
  • 00:51:59 Umět vzdělávat napříč generacemi.
  • 00:52:02 Populaci v rámci užívání
    sociálních sítí a pohybu
  • 00:52:05 v kybernetickém prostoru.
  • 00:52:07 Samozřejmě.
  • 00:52:09 Je to taková obecná pravda.
  • 00:52:10 To vzdělávání hledáme ve všem.
  • 00:52:14 Od nějaké globální odpovědné
    spotřeby potravin,
  • 00:52:18 přesto co znamená
    demokracie, o kyberprostor.
  • 00:52:24 Měli bychom se neustále vzdělávat.
  • 00:52:29 Musíme se neustále
    ničemu přizpůsobovat.
  • 00:52:34 Ukazují sociologická šetření,
  • 00:52:36 že se té nejmladší generaci
    toho dobrého vzdělání a teprve
  • 00:52:39 se dostává?
  • 00:52:41 To znamená,
  • 00:52:42 že vzdělávací systém nám zůstává
    v analogovém prostředí a nikoliv
  • 00:52:46 v tom digitálním?
  • 00:52:48 Tady bych chtěl říci,
  • 00:52:50 že vzdělávací systém se pomalu
    ale jistě dostává do toho
  • 00:52:52 digitálního prostředí.
  • 00:52:55 V ČR záleží od typu školy
    a od každého jednotlivého učitele.
  • 00:53:00 Nebo učitelského sboru.
  • 00:53:02 Přesně podle toho, jak nastaví
    rámcový vzdělávací program.
  • 00:53:07 Tady se nedá jednoznačně odsoudit
    školství za to, že nereaguje.
  • 00:53:12 Na druhou stranu možná občas
    zapomínáme na roli rodiny v tom,
  • 00:53:18 jak by měla vzdělávat
    ty své vlastní děti.
  • 00:53:22 Tím, že ti rodiče
    nepoužívají Facebook,
  • 00:53:24 nemohou říkat svému
    dítěti ať to nepoužívá.
  • 00:53:27 Ale musí být sami vzdělání,
  • 00:53:29 když jim osobně to užívání
    nic speciálně nepřináší.
  • 00:53:34 To bylo to, o čem už tady
    vlastně byla řeč.
  • 00:53:37 Že si mladí chrání Facebook
    před svými rodiči.
  • 00:53:40 A využívají ne zcela gramotnosti
    těch rodičů v používání těch
  • 00:53:46 sociálních sítí.
  • 00:53:48 Ale je jim jedno, že jsou
    zranitelní těmi,
  • 00:53:56 kteří jsou jejich přáteli.
  • 00:54:00 Když mluvím s rodiči a dětmi
    o používání sociálních sítí.
  • 00:54:03 Tak sociální sítě jsou svébytnou
    součástí života mladých lidí.
  • 00:54:08 Rodiče nemají speciální
    strategii, jak naučit to dítě,
  • 00:54:10 aby se pohybovalo na snap-chatu.
  • 00:54:16 Nebo jak by mělo
    používat Instagram.
  • 00:54:19 Ale mají výchovné mechanismy,
    které mají obecnější rámec.
  • 00:54:22 Jeden z těch důležitých
    prvků je ten,
  • 00:54:25 že by si měli rodiče s těmi svými
    dětmi zvlášť do 15 let povídat.
  • 00:54:30 Proč říkám do 15 let?
  • 00:54:32 Protože děti v dnešní době
    jsou neustále pod dohledem
  • 00:54:35 někoho dospělého.
  • 00:54:38 Ale už nefunguje jednoduše to,
  • 00:54:40 že můžete jít s partou
    někam ven si zahrát fotbal,
  • 00:54:43 nebo něco podobného.
  • 00:54:46 Tím pádem přicházíte o nějaký
    typ sociálního kontaktu,
  • 00:54:50 který si právě mladí lidé
    často vynahrazují na těch
  • 00:54:53 sociálních sítích.
  • 00:54:54 Je to součást jejich
    sociálního života,
  • 00:54:56 kde komunikují se svými vrstevníky.
  • 00:54:59 Zajímavé je to, že když přicházíte
    typicky na střední školu,
  • 00:55:02 tak se váš režim k rodině
    trochu rozvolní.
  • 00:55:06 Už můžete chodit večer ven.
  • 00:55:07 Chodíte třeba do tanečních.
  • 00:55:09 Najednou si nemusíte nahrazovat
    takové míry ten sociální kontakt
  • 00:55:13 na těch sociálních sítích,
    ale žijete v opravdovém životě.
  • 00:55:17 Jinými slovy ta podstata
    těch výzkumů je zřetelná.
  • 00:55:22 Že také nejmladší umějí rozdělit
    a vnímají ten fyzický prostor jako
  • 00:55:27 důležitý pro sebe.
  • 00:55:29 Nikoliv,
  • 00:55:30 že budou uvrženi pouze do toho
    virtuálního prostoru
  • 00:55:33 a ten jim postačí, protože
    fyzický kontakt není zapotřebí.
  • 00:55:38 Jednoznačně.
  • 00:55:40 Ten fyzický kontakt
    je velice zapotřebí.
  • 00:55:42 Právě ta dnešní doba
    vede k tomu, že člověk,
  • 00:55:45 tak rodiče už tolik pracuj,
  • 00:55:47 že mají daleko méně času
    na děti než to bylo dříve.
  • 00:55:51 Navíc ty děti kontroly
    nějakým způsobem.
  • 00:55:53 Ale když ty děti jsou doma,
    tak jsou rádi, že jsou doma.
  • 00:55:57 Protože se nemusí bát.
  • 00:55:59 Na té ulici se jim nic nestane.
  • 00:56:02 Takže mají pocit, že tu situaci
    mají pod kontrolou.
  • 00:56:05 Ale vůbec to nemají pod kontrolou.
  • 00:56:08 Protože právě doma se ty děti mohou
    setkávat s daleko horšími věcmi
  • 00:56:12 a s horšími zkušenostmi,
    než vlastně na té ulici.
  • 00:56:16 Protože na té ulici si mohou
    hrát s kamarády.
  • 00:56:19 Mohou kopat míčem, takže
    se zlepšuje jejich kondice.
  • 00:56:23 Naopak začnou lépe komunikovat.
  • 00:56:26 A vlastně ty dovednosti jdou dále.
  • 00:56:28 Kdežto doma.
  • 00:56:29 Ona řekne, co děláš?
  • 00:56:32 Já si povídám s kamarádkou.
  • 00:56:34 Ale že tu kamarádku vůbec nezná,
    a ta kamarádka může být muž,
  • 00:56:38 který se tam s ní baví.
  • 00:56:41 Tato rizika už se neberou.
  • 00:56:43 Ona je klidná a má pocit,
    že se nic neděje.
  • 00:56:45 Že je vše v pořádku.
  • 00:56:47 Tady bych na to navázala,
    že to co je důležité,
  • 00:56:50 tak je důležitá také
    odpovědnost rodičů.
  • 00:56:52 Nejen vzdělávat o těch nebezpečích,
  • 00:56:56 ale také dostatek času
    se jim věnovat a dát jim prostor
  • 00:56:59 pro to, aby je naučili
    dělat něco jiného.
  • 00:57:02 A prožívat ten svůj život teď.
  • 00:57:04 Protože v tom je ten problém
    základní.
  • 00:57:06 Protože také rodiče přijdou
    a jsou na počítači.
  • 00:57:09 A dítě nevidí nic jiného.
  • 00:57:11 Učí se nápodobou.
  • 00:57:12 Takže je naprosto logické,
  • 00:57:14 že potom utíká pryč a hledá
    si virtuální svět,
  • 00:57:17 ve kterém se snaží
    najít to své štěstí.
  • 00:57:21 Proto je potom ta exhibice
    a všechno dále.
  • 00:57:24 Protože hledá to, abych
    já byla ta princezna.
  • 00:57:26 Abych já fungovala a ostatní
    mě vídali a viděli tak,
  • 00:57:30 jak já bych se chtěla vidět.
  • 00:57:32 Jak já bych chtěla žít.
  • 00:57:34 Říká v kapitole Doma
    exhibiční Laura Janáčková.
  • 00:57:39 Děkuji také Martinu Buchtíkovi.
  • 00:57:46 Cena informací je nesmírná.
  • 00:57:48 Je otázka, kdo k těm informacím
    se ve skutečnosti mohl dostat.
  • 00:57:53 Koho zajímá na to se díváme
    na internetu a na televizi?
  • 00:57:57 Víme, jací uživatele
    nás navštěvují.
  • 00:57:59 V případě standardní reklamy
    jsme schopni zaměřit se na věk,
  • 00:58:04 pohlaví, regiony.
  • 00:58:09 Budou znát všechny naše slabiny.
  • 00:58:10 Budou vědět věci, které bychom
    neřekli ani partnerovi.
  • 00:58:16 Kam se dá skrýt?
  • 00:58:18 Sledování toho prostoru
    přichází po drátech a vlnách.
  • 00:58:25 Málokdo si uvědomuje, že může
    mít dveře zavřené,
  • 00:58:29 ale přesto je jeho soukromý
    život pod kontrolou.
  • 00:58:31 Je dnes vůbec možné
    být neviditelný?
  • 00:58:35 Lidé si přejí, aby nebyla
    zneužívána jejich osobní data.
  • 00:58:39 Tak je tam prostě nedávejte.
  • 00:58:47 Dříve měl dohled hierarchii.
  • 00:58:59 Dnešní dohled a Velký bratr
    je rozplizlý jako plevel.
  • 00:59:04 Nemá jasnou strukturu a je rozlezlý
    téměř všude.
  • 00:59:08 Kdo má přístup k našim datům?
  • 00:59:11 A k jakým?
  • 00:59:12 O tom co vše je na internetu
    možná jsem si povídal s bývalým
  • 00:59:17 policejním detektivem
    ÚOOZ Jiřím Rážem.
  • 00:59:24 Za rok 2016 policie
    oficiálně zveřejnila,
  • 00:59:27 že bylo spácháno něco přes
    5600 trestných činů v oblasti
  • 00:59:32 kybernetické kriminality.
  • 00:59:33 Více než polovina z toho
    jsou majetkové trestné činy.
  • 00:59:37 To jsou všechno útoky
    na obyčejné lidi.
  • 00:59:40 Nikoliv na banky, korporace.
  • 00:59:42 Ale na obyčejné lidi.
  • 00:59:44 Kdybych na vlastní oči neviděl
    e-mailový účet obyčejné paní.
  • 00:59:50 U jedné z těch velkých
    e-mailových služeb u nás v Česku.
  • 00:59:54 Ona podlehla útoku formou phisingu.
  • 01:00:04 Vyplnila uživatelské jméno
    a heslo na falešné stránce.
  • 01:00:11 To získal útočník.
  • 01:00:18 Takže jakmile na její zprávy
    byla platba, faktura, účet,
  • 01:00:23 tak aby se to nedávalo do boxu,
    ale aby to přišlo útočníkovi.
  • 01:00:28 Například jste si objednal
    dovolenou.
  • 01:00:30 Ta cestovní kancelář vám poslala
    fakturu za tu dovolenou.
  • 01:00:34 V tu chvíli faktura
    jde k útočníkovi.
  • 01:00:38 Ten jednoznačně edituje
    PDF dokument zazní tam číslo
  • 01:00:42 bankovního účtu.
  • 01:00:44 A potom to vloží do schránky.
  • 01:00:46 Takovým způsobem je schopný
    na vás spáchat takové podvody,
  • 01:00:50 které vás vyjdou
    finančně velice draho.
  • 01:00:54 A to nebyl útok na velkou
    korporaci.
  • 01:00:56 Těch útoků je spousta.
  • 01:00:58 Bude velké % lidí, kteří
    neodhalí, že se stali obětí.
  • 01:01:03 Protože ten útočník třeba
    zůstane opatrný a skromný.
  • 01:01:06 Vezme vám takovou částku,
  • 01:01:07 že ani neidentifikujete kdo se dívá
    na svůj účet a sleduje
  • 01:01:12 všech 40 odchozích plateb,
    aby zjistil že tam je jedna navíc.
  • 01:01:17 Pokud to uděláte vůči velkému
    množství účtů, tak máte šanci,
  • 01:01:23 že zůstanete hodně
    dlouho nepovšimnut.
  • 01:01:27 Kdyby chtěl, abyste mi mohl
    vyhledat o jakémkoliv člověk,
  • 01:01:31 který má svůj účet na sociální
    síti nějaké citlivé informace.
  • 01:01:35 Které to jsou?
  • 01:01:38 Nepotřebujete ani programy.
  • 01:01:40 Stačí si prohlédnout
    profily a třídit informace.
  • 01:01:44 To zvládnete v wordu.
  • 01:01:48 Uživatel si myslí,
  • 01:01:49 že tam je miliarda
    lidí a on se schová.
  • 01:01:52 Toto je stránka,
  • 01:01:53 která vám dovoluje do stránky
    Facebooku formulovat složité
  • 01:01:57 vyhledávací dotazy, které by běžný
    uživatel nebyl schopný sestavit.
  • 01:02:02 Dovoluje poměrně přesně
    vyhledávat ve všech profilech.
  • 01:02:06 Omezit to pouze na česky
    mluvící uživatele, pouze
  • 01:02:09 na svobodné, vdané.
  • 01:02:15 Těch služeb bude více.
  • 01:02:18 Tato je funkční.
  • 01:02:19 Firma Facebook se tomu občas brání.
  • 01:02:21 Snaží se různými
    parametry své stránky.
  • 01:02:25 Ale tato služba se vždy lepší.
  • 01:02:29 To je volně přístupná služba?
  • 01:02:34 Ano.
  • 01:02:36 Neprolamuje to žádnou ochranu.
  • 01:02:39 Pouze se dostává k tomu,
    co je běžně dostupné.
  • 01:02:46 To je hrozná síla.
  • 01:02:48 Do toho veřejného prostoru přece
    pouštíme daleko více informací.
  • 01:02:53 Toto je stránka, kdy si může
    každý uživatel ověřit,
  • 01:02:58 jestli byl napaden
    nebo nebyl napaden.
  • 01:03:02 Takže obranný mechanismus,
    jak to zjistit.
  • 01:03:05 Zdali vaše hesla
    někdy utekli nebo ne.
  • 01:03:08 Tady jsem si ověřil svůj
    e-mail a zjistil jsem,
  • 01:03:10 že v roce 2013 mu e-mail, heslo
    a všechno uteklo z těchto služeb.
  • 01:03:20 Tady dokonce vidíte co uteklo.
  • 01:03:23 Datum narození, i e-mailová
    adresa, uživatelské jméno, heslo,
  • 01:03:33 IP adresa.
  • 01:03:39 A ta hesla může
    někdo dále využívat?
  • 01:03:43 Samozřejmě.
  • 01:03:44 Pokud je nezměníte, tak ano.
  • 01:03:47 Potom je otevřená cesta
    do vašeho e-mailu.
  • 01:03:49 Ten už obsahuje hodně
    osobních informací.
  • 01:03:54 Jsou základní pravidla, které byste
    měl při používání internetu dělat.
  • 01:03:59 Přesto to lidé nedělají.
  • 01:04:01 Bezpečnost hodně ovlivnily
    mobilní technologie a mobilní
  • 01:04:04 operační systémy.
  • 01:04:05 A skutečnost, že lidé nepochopili,
    že v kapse nosí telefon.,
  • 01:04:11 ale musí tam plnohodnotný počítač,
    který o nich sbírá údaje ke všemu.
  • 01:04:17 Dnes je spousta aplikací,
  • 01:04:18 které jsou schopné vám ten telefon
    prakticky vykrást.
  • 01:04:22 Jako že jsem nejsem chráněný?
  • 01:04:26 Mám pocit, že když odklikáváme
    nějaký souhlas v aplikaci?
  • 01:04:32 Když je aplikace svítilna,
  • 01:04:35 které stovky 1000 lidí povolily
    přístup ke všem kontaktům,
  • 01:04:38 poloze telefonu.
  • 01:04:40 Těch aplikací je moc a lidé
    to nepřemýšlí když instalují.
  • 01:04:45 Něco jsem něco ptá.
  • 01:04:47 Rovnou dáme ano.
  • 01:04:49 Přemýšlet nad tím, proč proboha
    chce svítilna lézt do kontaktů.
  • 01:04:54 Proč potřebuje přístup na internet
    a k mým souborům a mé poloze.
  • 01:05:03 Toho využívají různé služby.
  • 01:05:06 Tady jsem našel jednu
    takovou službu,
  • 01:05:09 která dokonce nabízená komerčně.
  • 01:05:11 Jsou tady miliony
    telefonních čísel uživatelů.
  • 01:05:15 To znamená,
  • 01:05:16 že tato služba ukradla seznamy
    kontaktů řady uživatelů
  • 01:05:22 mobilních aplikací.
  • 01:05:23 Když se podíváte tady.
  • 01:05:27 Pokud jsem si do této služby vložil
    vaše telefonní číslo, tak je vidět,
  • 01:05:30 že vás ta služba zná.
  • 01:05:32 A tady jsem prověřoval jednu
    osobu ze svého blízkého okolí.
  • 01:05:38 Petra švagrová.
  • 01:05:40 Ona se tak nejmenuje.
  • 01:05:50 Člověk si ale nainstaloval
    kontakty,
  • 01:05:53 které skončily bůhví kde skončily
    v této službě.
  • 01:05:58 Tady se ukazuje, že ukradená data,
  • 01:06:00 která jsou zásadním
    průlomem do soukromí,
  • 01:06:04 tak jsou volně dostupná.
  • 01:06:08 Ty věci nevyšetřujeme.
  • 01:06:10 Na druhou stranu o sobě
    dáváme obrovské množství dat.
  • 01:06:15 Když máte svůj vlastní účet
    na Googlu, tak on má záložku.
  • 01:06:20 Ta dovoluje a v tomto se Googlu
    chová poměrně solidně.
  • 01:06:25 On vám ukáže co o vás má.
  • 01:06:30 Dokonce vám přehraje
    všechny zvukové nahrávky,
  • 01:06:32 když jste cokoliv
    vyhledávali hlasem.
  • 01:06:35 Má to všechno nahrané.
  • 01:06:36 Když se zamyslíte
    nad tím a projdete si to,
  • 01:06:39 tak se vyděsíte.
  • 01:06:40 Tady pouze pro ilustraci.
  • 01:06:43 Omezil jsem vyhledávání
    na včerejší den.
  • 01:06:48 Tady vidíte každou aplikaci,
    kterou jsem použil.
  • 01:06:52 Mohl byste se podívat
    na podrobnosti,
  • 01:06:55 jakým způsobem jsem komunikoval.
  • 01:06:57 Ale je tady důležitá volba ta,
  • 01:06:59 že každou tu položku
    vám dovoluje smazat.
  • 01:07:02 Myslím si, že tento
    přístup je férový.
  • 01:07:05 Co má o vás Facebook,
    jak to má kategorizované,
  • 01:07:11 to se nedozvíte.
  • 01:07:13 Vidíte svůj účet a můžete
    mazat nějaké příspěvky.
  • 01:07:16 Ale uvědomte si, že ty všechny vaše
    věci už jsou někde komentované,
  • 01:07:21 jsou na nějakých dalších profilech.
  • 01:07:22 Už to nevezmete zpátky.
  • 01:07:28 Je to stále neférové v tom,
  • 01:07:30 že já jako klient těchto
    služeb jsem potom zásobován
  • 01:07:35 jinými nabídkami?
  • 01:07:37 Kde mám jistotu, že seznam,
    Google, možná také Facebook,
  • 01:07:44 neposkytuje ta další
    má data dalším?
  • 01:07:49 Máte jistotu, že poskytuje.
  • 01:07:52 Musíte si uvědomit, že u těchto
    služeb nejste klient.
  • 01:07:56 Klientem je ten podnikatel
    služba, která si kupuje reklamu.
  • 01:08:00 Která od této služby jako je třeba
    Google kupuje váš profil a nabízí
  • 01:08:05 vám cílenou reklamu podle vašich
    preferencí, podle vašich zájmů.
  • 01:08:09 To je klient, který platí.
  • 01:08:10 Vy používáte bezplatnou službu.
  • 01:08:13 Za tu platíte jako ovce svojí
    vlnou, kterou jsou osobní data.
  • 01:08:22 Nikoliv třeba obsah e-mailů,
    ale analytické shrnutí nad tím,
  • 01:08:27 jaké jsou vaše preference.
  • 01:08:29 Jaké jsou vaše zájmy.
  • 01:08:30 Jsem ovce, která se pase.
  • 01:08:33 Kterou ti, u kterých
    mám účet ostříhají.
  • 01:08:37 Ano.
  • 01:08:38 Zato se můžete pást.
  • 01:08:57 Třetí kapitolu otevírají podnikatel
    a spoluzakladatel firmy Avast
  • 01:09:06 Eduard Kučera.
  • 01:09:07 A bývalý policejní
    důstojník Balner.
  • 01:09:11 A odborník na umělou
    inteligenci Jozef Hollý.
  • 01:09:17 Josefe.
  • 01:09:18 Ten příměr, který jsme
    slyšeli od Jiřího Ráže.
  • 01:09:21 Je trefný?
  • 01:09:22 Že jsme ovce, které ostříhají
    a za to se můžeme pást.
  • 01:09:27 Naprosto to sedí.
  • 01:09:28 Také to co říkal před
    tím, že nejsme zákazník.
  • 01:09:31 Jsme produkt.
  • 01:09:33 Je okřídlené rčení.
  • 01:09:36 Pokud používáte on-line
    službu, která je zadarmo,
  • 01:09:41 tak nejste zákazník ale produktem.
  • 01:09:43 To platí.
  • 01:09:44 Můžeme se na Facebooku pást
    za to, že dáváme svá data.
  • 01:09:51 Jsme zboží.
  • 01:09:52 A na tom je ten princip postaven.
  • 01:09:56 Ano.
  • 01:09:57 Ten princip je postavený na masovém
    zpracování dat o lidech.
  • 01:09:59 Je to zpracování dat, které
    v historii lidstva nemá obdoby.
  • 01:10:04 Když si to vezmete,
  • 01:10:06 tak Facebook používá každý
    den dvě miliardy nebo miliarda
  • 01:10:09 a půl lidí.
  • 01:10:11 To je prostě služba.
  • 01:10:13 Žádný produkt, žádná služba,
  • 01:10:15 tak to integrovaná a takto
    propojená v historii neexistovala.
  • 01:10:21 Co Facebook dělá?
  • 01:10:24 On a další sociální sítě,
    abychom byli féroví.
  • 01:10:27 Veškeré on-line služby
    včetně Google, Amazon atd.
  • 01:10:31 Oni sbírají všechna naše data.
  • 01:10:35 To není jak se jmenujeme.
  • 01:10:38 Ale hlavně naše aktivity, kterými
    na těch platformách provádíme.
  • 01:10:43 Okomentujeme, jak často,
    jaké to zabarvení komentářů,
  • 01:10:48 jaké fotky nahráváme,
    co na těch fotkách je.
  • 01:10:51 Protože oni tam mají
    umělou inteligenci,
  • 01:10:53 která umí fotky rozpoznávat.
  • 01:10:56 Atd.
  • 01:10:57 Je to obrovský rezervoár dat,
  • 01:10:58 ze kterých oni potom nás rozřezají
    do segmentů.
  • 01:11:05 Do marketingových segmentů.
  • 01:11:09 A potom ty segmenty prodávají
    reklamním agenturám.
  • 01:11:12 Na tom je byznys model Facebooku.
  • 01:11:15 Je to marketingová platforma.
  • 01:11:16 To, že to je služba,
  • 01:11:18 která nás má propojit a učinit svět
    lepším je na jednu stranu pravda,
  • 01:11:24 ale je to soukromá firma,
    která potřebuje být živena.
  • 01:11:28 Je živná marketingem.
  • 01:11:30 Aby ta firma mohla data analyzovat,
  • 01:11:31 tak tam se neobejde
    bez umělé inteligence?
  • 01:11:35 Ano.
  • 01:11:36 Proto je lídrem také ve využití
    umělé inteligence.
  • 01:11:40 Jak všechna ta data co nejlépe
    analyzovat a co nejlépe prodat.
  • 01:11:45 Ano.
  • 01:11:46 V podstatě ty hlavní on-line
    služby, které znám jako Facebook,
  • 01:11:52 Google, Amazon a další.
  • 01:11:54 Tak v podstatě ty stojí
    za renezancí umělé inteligence.
  • 01:12:00 Proto se tolik o umělé
    inteligenci hovoří.
  • 01:12:02 Před šesti lety tyto firmy oživili
    jeden směr umělé inteligence,
  • 01:12:06 který se jmenuje strojové učení.
  • 01:12:10 Napodobuje způsob,
    jakým se učí lidé.
  • 01:12:13 To znamená v případě umělé
    inteligence přijímáme informace
  • 01:12:16 a aplikujeme ve formě dovedností.
  • 01:12:18 V případě umělé inteligence,
    tak to je program,
  • 01:12:21 kterému dáte data.
  • 01:12:22 Čím více, tím lépe.
  • 01:12:24 A ono se to z těch dat něco naučí.
  • 01:12:26 Začalo to u rozpoznávání fotek.
  • 01:12:28 Protože jsme tam začali nahrávat
    na sociální sítě tolik obsahu,
  • 01:12:31 že bylo zapotřebí ten obsah
    se v něm nějak vyznat.
  • 01:12:34 Pomocí vyhledávání,
    které ty služby mají.
  • 01:12:37 Takže to začalo tím, že to pozná
    vaše kamarády na fotkách.
  • 01:12:41 S kým jste byli na dovolené.
  • 01:12:44 Postupně se tyto způsoby
    toho zpracování přinášejí
  • 01:12:46 do té segmentace
    nás, jako těch ovcí.
  • 01:12:50 Je možné mluvit o super bratrovi
    v rámci kybernetického prostoru,
  • 01:12:55 jak o tom byla řeč v první
    části našeho Fokusu?
  • 01:12:59 Já bych těm firmám
    nenasazoval psí hlavy.
  • 01:13:03 Říká jeden z těch, který
    technologickou firmu spoluzakládal.
  • 01:13:08 Samozřejmě zpracováváme
    data našich uživatelů.
  • 01:13:11 První krok, který s nimi děláme
    je, že to anonymizujeme.
  • 01:13:16 To znamená, že je zbavíme
    veškerého toho balastu.
  • 01:13:19 Kdo to je, jak je starý,
    kde bydlí, jaké má zájmy.
  • 01:13:24 Pouze co udělal.
  • 01:13:27 A to se používá v tom marketingu.
  • 01:13:33 Důležité je, že ty firmy,
    o kterých jste mluvil,
  • 01:13:37 tak neprodávají ta data
    marketingovým nebo agenturám,
  • 01:13:41 ale rovnou je používají.
  • 01:13:44 To znamená, že zpracovávají
    ten byznys těch agentur,
  • 01:13:47 které nahrazují.
  • 01:13:49 To je do jisté míry pozitivní.
  • 01:13:54 Takže já bych nenasazoval psí hlavy
    těm firmám, že jsou velkým bratrem.
  • 01:13:59 Tady se vůbec nezmiňoval o tom,
  • 01:14:02 že největším velkým
    bratrem je stát.
  • 01:14:06 V každém státě je to trochu jinak.
  • 01:14:08 Já jsem teď byl na dovolené.
  • 01:14:11 Byl jsem v zemi, kde nebylo
    možné použít WPN,
  • 01:14:19 takže jsem nemohl mít své soukromí.
  • 01:14:21 Musel jsem používat data, které
    si každý mohl prohlédnout.
  • 01:14:27 V Číně jsme nemohli tři čtvrtě
    roku nic prodat,
  • 01:14:31 protože jsme ji nechtěli
    říci, jak funguje naše WPN,
  • 01:14:36 takže nám tři čtvrtě roku
    odřízli všechny servery.
  • 01:14:41 Takže největším velkým
    bratrem je opravdu stát.
  • 01:14:46 Podstatné na tom je, že všechno
    to co ty organizace používají,
  • 01:14:51 tak může také stát zjistit.
  • 01:14:53 A může si to daleko lépe zpracovat.
  • 01:14:56 Kdybych vám vstoupil do řeči.
  • 01:14:58 Není to spojení dvou
    velkých bratrů?
  • 01:15:01 A bavíme se v symbolické rovině
    a navazujeme na tu nadsázku
  • 01:15:06 v souvislosti se Orwelem.
  • 01:15:12 Že sledují státy a firmy.
  • 01:15:15 Vezměte si Rusko a Čínu.
  • 01:15:17 Spojení technologických
    firem jako Google a Facebook
  • 01:15:20 s autoritativním státem.
  • 01:15:25 Pro nás český trh nebyl důležitý,
  • 01:15:26 takže jsme museli
    udělat žádnou chybu.
  • 01:15:31 Myslím čínský trh.
  • 01:15:33 Ale některé firmy s nimi
    musí spolupracovat.
  • 01:15:40 To je to nebezpečí.
  • 01:15:42 Že potom ten stát má přístup
    ke všem těmto datům.
  • 01:15:44 Je dobré, že jste
    zmínil knihu 1984.
  • 01:15:49 Protože jedna z věcí,
  • 01:15:51 kterou stát v té knize se snaží
    a Velký bratr udělat
  • 01:15:55 je měnit historii.
  • 01:15:57 Měnit historii tím,
    že změní obsah knih.
  • 01:16:03 V knize 451 stupňů
    Fahrenheita se ty knihy ničí.
  • 01:16:34 Každý program se dá automaticky
    aktualizovat.
  • 01:16:40 Když vyjde nová kniha,
    tak ta stará zmizí.
  • 01:16:44 Nejbrutálnější obětí byla kniha
    1984, kterou Google dal do Kindlu.
  • 01:16:57 A pak zjistili.
  • 01:16:58 Že na to neměli automatická práva.
  • 01:17:03 Neměli uživatelská práva.
  • 01:17:05 Takže tu knihu všem smazaly.
  • 01:17:08 Ale takto virtuálně
    ta kniha zmizela.
  • 01:17:11 To udělal Google, protože
    měli nějaký právní problém.
  • 01:17:15 Ale může to udělat stát.
  • 01:17:17 Zrovna jako kdysi, když
    ještě existovaly viry,
  • 01:17:20 když jsem z antivirové společnosti.
  • 01:17:23 Největší obavu měli uživatelé
    z toho, že jim viry smažou data.
  • 01:17:34 To není nejdůležitější.
  • 01:17:36 Nejhorší je, když taková
    bestie ta data mění.
  • 01:17:39 Když to někdo smaže,
    tak si toho nevšimnete.
  • 01:17:42 Ale když to někdo pomalu
    mění, tak si toho nevšimnete.
  • 01:17:46 Tomáš Almer pro stát pracoval jako
    dlouholetý policejní důstojník,
  • 01:17:51 který vedl útvar
    zvláštních činností.
  • 01:17:54 To znamená to sledování.
  • 01:17:56 Když se podíváte na podobě
    toho dohledu.
  • 01:17:59 A v úvodu jsem citoval kanadského
    sociologa dohledu Liona.
  • 01:18:05 Ten říká, že dříve byl dohled
    hierarchický.
  • 01:18:13 Dnes je to rozplizlý plevel.
  • 01:18:16 Je to tak.
  • 01:18:18 Musím oponovat tomu, že stát
    je největším velkým bratrem.
  • 01:18:22 Mohl by být, kdyby se nectila
    ústava a byl to autoritativní stát.
  • 01:18:29 Potom ano.
  • 01:18:31 Dokud se tyto základní principy
    alespoň předstírá, že dodržují,
  • 01:18:36 tak ten stát nemůže být jednoduše
    tím největším bratrem.
  • 01:18:42 Ale naprosto souhlasím s tím,
    že teď se pohybujeme v něčem,
  • 01:18:47 co nemá strukturu.
  • 01:18:52 Co se týče kybernetického prostoru.
  • 01:18:54 To znamená, že se to velice špatně
    dá nějak regulovat a řídit.
  • 01:19:01 A také zabezpečit.
  • 01:19:06 Uhodil jste hřebíček na hlavičku.
  • 01:19:11 Můžeme se podívat do té Číny.
  • 01:19:13 Tam nedávno zavedli něco,
  • 01:19:19 že pokud si jako starší ročníky
    vzpomenete na dobu dávno minulou
  • 01:19:21 na socialismus, kdy existovaly
    tajné služby,
  • 01:19:24 které sledovaly lidi a určovali
    jejich způsob, jak odpovídají tomu.
  • 01:19:34 Jak se to jmenovalo?
  • 01:19:37 Jak moc jsou loajální ke státu
    a systému a straně.
  • 01:19:43 Takže vlastně v Číně toto
    začínají dělat tím, že sledují.
  • 01:19:47 Mají relativně dobrou kontrolu
    nad tím on-line prostorem.
  • 01:19:50 Začínají dělat to samé co dělá
    Facebook nebo Google.
  • 01:19:53 Oni sledují aktivit
    jednotlivých občanů.
  • 01:19:55 Pokud například uveřejníte
    článek, který je prozápadní,
  • 01:20:00 tak vám klesne skóre.
  • 01:20:03 Pokud zveřejníte článek, který
    je loajální vůči systému,
  • 01:20:09 tak vám skóre stoupne.
  • 01:20:10 Tím skóre chtějí řídit
    přístup občanů ke službám,
  • 01:20:13 jako to bylo v minulém režimu.
  • 01:20:18 Jak budete mít nízké skóre,
    tak děti nemohou studovat.
  • 01:20:23 Proto jsem se ptal na ty ústupky,
    které dělají velké firmy.
  • 01:20:33 Když chtějí proniknout
    třeba do Číny nebo Ruska.
  • 01:20:40 Já se musím trochu bránit.
  • 01:20:43 Samozřejmě v ústavních režimech
    je spousta ústavních pojistek,
  • 01:20:46 aby se toto nestávalo.
  • 01:20:48 Proto jsem se zmiňoval
    o těch zemích,
  • 01:20:50 které nemůžeme nazvat
    zeměmi demokratickými.
  • 01:20:53 Na druhou stranu, vzhledem k tomu,
  • 01:20:57 jak státy v poslední době chápou
    svoji paternalistickou funkci vůči
  • 01:21:03 obyvatelstvu, tak ve všech zemích,
  • 01:21:06 včetně té nejsvobodnější co jsme
    kdy měli jako za vzor,
  • 01:21:11 tedy ve Spojených státech,
  • 01:21:15 se funkce státu vůči
    občanům šíleně mění.
  • 01:21:19 Mění se tak, že ty svobody
    postupně a pomalu ale jistě mizí.
  • 01:21:24 Znám dokonce několik lidí,
  • 01:21:26 kteří už dokonce do Spojených států
    odmítají jezdit pouze proto,
  • 01:21:30 že tam zavedli otisky
    prstů a toto všechno.
  • 01:21:34 Kam tedy budou jezdit,
  • 01:21:35 když otisky prstů máme v současné
    době také v EU?
  • 01:21:40 To je to nebezpečí,
    které prostě roste.
  • 01:21:47 A u nás, přestože jsme byli
    varováni, že o tom nemáme mluvit.
  • 01:21:53 Tak se tady extremistická hnutí
    projevují daleko výrazněji,
  • 01:21:57 než se projevovala donedávna.
  • 01:22:00 Prostě proto, že lidé
    chtějí místo bezpečí.
  • 01:22:03 Proto v Americe na návodu
    pro motorovou pilu je,
  • 01:22:10 že se řetěz nemá
    zastavovat holou rukou.
  • 01:22:14 A protože někdo si s tím u říct
    něco, jak by věděla paní Janáčková.
  • 01:22:25 Tak tam doplnili, že to nemáte
    zastavovat ani pyjem.
  • 01:22:34 To je šílené.
  • 01:22:36 Zapomínáme na to, že zákonů
    by stačilo daleko méně.
  • 01:22:41 Že na to, abychom se uměli chovat
    v tom kybernetickém prostoru,
  • 01:22:45 tak by mělo stačit ono desatero.
  • 01:22:48 Že nemáme pomlouvat, nemáme urážet.
  • 01:22:52 A máme mluvit pravdu.
  • 01:22:54 Kdyby to všichni dodržovali,
  • 01:22:56 tak by na tom kybernetickém
    prostoru to bylo trochu lepší.
  • 01:23:00 Téměř vám Almer
    skočil do řeči s tím,
  • 01:23:03 že také nejezdí do Spojených států.
  • 01:23:06 Přesně tak.
  • 01:23:07 Od té doby co zrušili
    vízovou povinnost,
  • 01:23:11 ale zavedli něco úplně hrozného,
    tak se tam ani nechystám.
  • 01:23:15 Zajímavé je,
  • 01:23:17 že člověk co s tím spojil
    svoji profesní kariéru,
  • 01:23:21 respektive Útvar pro zvláštní
    činnosti.
  • 01:23:24 Nasazování odposlechů
    a skrytých kamer.
  • 01:23:26 Tak vám ta míra toho,
  • 01:23:27 jak stát v současnosti
    nás kontroluje zájmu bezpečí,
  • 01:23:30 tak vám také vadí?
  • 01:23:34 Samozřejmě.
  • 01:23:35 Možná mi vadí více,
    než běžné populaci.
  • 01:23:37 Protože si uvědomuji, co se dá.
  • 01:23:42 Já jsem optimista.
  • 01:23:44 Musím podotknout, abych uklidnil.
  • 01:23:50 Zatím žijeme v tom ústavním
    systému.
  • 01:23:53 A ty základní principy
    jsou dodržovány.
  • 01:23:58 Alespoň ve značné míře.
  • 01:23:59 Nebo ve většinové míře.
  • 01:24:05 Ten stát to má složité.
  • 01:24:07 On musí splnit spoustu podmínek.
  • 01:24:09 A potom může v podstatě všechno.
  • 01:24:11 A ty technologie umožňují
    v podstatě všechno.
  • 01:24:21 Existuje legitimní
    důvod, tak je to dobře.
  • 01:24:27 Byla tady řeč o tom bezpečí.
  • 01:24:30 Které nás ohrožuje.
  • 01:24:32 My se kvůli tomu
    vzdáváme těch svobod.
  • 01:24:34 Tam, kde se jich nevzdáváme,
  • 01:24:37 ale ten stát je využívána základě
    nějakého legitimního titul,
  • 01:24:40 tak potom je to v pořádku.
  • 01:24:44 Tam se cítím, že to je ku prospěchu
    věci.
  • 01:24:46 Jinými slovy nebezpečnost,
    terorismus a všechny tyto hrozby,
  • 01:24:51 rýmy se odůvodňuje
    nutnost našeho sledování.
  • 01:24:54 Včetně využívání těch
    technologických firem.
  • 01:24:56 Je podle vás zahrnou?
  • 01:24:58 Pro vás jako pro bývalého
    policistu?
  • 01:25:03 Ne úplně přesně tomu rozumím.
  • 01:25:08 Všichni chceme být v bezpečí.
  • 01:25:09 Proto všude umisťujeme
    další a další kamery
  • 01:25:12 ve veřejném prostoru.
  • 01:25:13 A vlastně to tolerujeme.
  • 01:25:16 Kdo by chtěl být vystaveny riziku
    častých teroristických útoků.
  • 01:25:21 Teď jsme u toho.
  • 01:25:22 Ono se bohužel podařilo v Evropě
    celkem na základě bych řekl
  • 01:25:27 racionálních důvodů,
  • 01:25:29 ovšem u nás jaksi vysloveně
    vyfabulovaných důvodů,
  • 01:25:33 ale podařilo se rozšířit takový
    pocit, že jsme hrozně ohrožení.
  • 01:25:39 Že v podstatě to nebezpečí, které
    nás ohrožuje, to strašné nebezpečí,
  • 01:25:45 že umírají děti a stovky
    lidí, bomba za každým rohem.
  • 01:25:49 Je to stojí za to, abychom
    se zřekli toho soukromí.
  • 01:25:54 Naši reprezentanti v parlamentu
    celkem ochotně zvedají ruce
  • 01:26:00 pro k kdejaké opatření.
  • 01:26:05 Zákonné opatření, které
    legitimizuje tyto postupy.
  • 01:26:08 Jsem přesvědčený o tom, že velice
    často neví o tom co odsouhlasili.
  • 01:26:12 Já jsem se v rámci dnešního
    Fokusu snažil spočítat,
  • 01:26:16 kolik máme kamer v jednotlivých
    městech.
  • 01:26:18 Spočítat je to téměř nemožné.
  • 01:26:30 Kamery se staly nedílnou
    součástí veřejného prostoru.
  • 01:26:34 Například v Praze čítá městský
    kamerový systém přes 2000 kamer.
  • 01:26:40 Z nich 969 bylo vybudováno
    magistrátem hlavní města.
  • 01:26:46 Zbytek tvoří integrované kamery.
  • 01:26:48 Tedy kamery městských částí.
  • 01:26:51 Skoro 200 kamer Dopravního podniku
    a skoro 300 kamer Technické
  • 01:26:55 správy komunikací.
  • 01:27:01 V Ostravě mají 687 kamer.
  • 01:27:05 Z toho zhruba polovina
    jsou kamery dopravní.
  • 01:27:08 A polovina bezpečnostní.
  • 01:27:11 Brno uvádí 169 kamer.
  • 01:27:14 34 křižovatkových
    a 135 bezpečnostních.
  • 01:27:23 Nad stovkou se pohybuje počet kamer
    také v dalších krajských městech.
  • 01:27:27 V Ústí nad Labem jich mají 176.
  • 01:27:32 V Plzni zase 146.
  • 01:27:37 Nejméně kamer je v nejmenším
    krajském městě, v Karlových Varech.
  • 01:27:43 Tato čísla přitom zahrnují
    různé druhy kamer.
  • 01:27:47 Údaje o počtech kamer většinou
    pocházejí od městské policie.
  • 01:27:50 Ta nemusí instalaci a provozování
    svých kamer oznamovat.
  • 01:27:55 A to na rozdíl od ostatních
    subjektů,
  • 01:27:58 které kamery musí registrovat
    na Úřadu pro ochranu
  • 01:28:02 osobních údajů.
  • 01:28:03 S jeho registrů lze vyčíst
    pouze sídlo subjektů,
  • 01:28:06 které kamery provozují.
  • 01:28:07 Nikoliv místa, kde jsou
    kamery instalovány.
  • 01:28:11 Zjistit kolik kamer se dohromady
    v krajských městech nachází
  • 01:28:14 je tak obtížné a prakticky nemožné.
  • 01:28:24 Jak policie s takovými
    kamerami pracuje?
  • 01:28:30 Obtížně.
  • 01:28:32 Ty systémy, o kterých byla řeč,
    tak ty nejsou provázané policií.
  • 01:28:39 Provozují to různé subjekty.
  • 01:28:41 Podniky, města, přičemž
    policie může použít záznamy,
  • 01:28:47 které tyto systémy pořídí.
  • 01:28:49 Ale aby ten záznam získal,
  • 01:28:50 tak musí mít patřičný příkaz
    státního zástupce o vydání věci.
  • 01:28:56 Takže jak jsem hovořil.
  • 01:28:58 Je to jakási procedura,
  • 01:29:00 která tomu využití v trestním
    řízení musí předcházet.
  • 01:29:03 Jinak to není možné.
  • 01:29:06 Stále jste mluvil o tom, že jsme
    ještě liberální demokracie.
  • 01:29:09 Že se ústava jakžtakž dodržuje.
  • 01:29:12 A součástí ústavy
    je Listina základních práv
  • 01:29:14 a svobod.
  • 01:29:16 Teď mi vysvětlete.
  • 01:29:17 Platí dnes ještě právo na ochranu
    soukromí při prolamování soukromí
  • 01:29:23 státu kvůli bezpečnosti,
    množství kamer jsme ukazovali.
  • 01:29:27 Zároveň soukromí,
  • 01:29:29 kterého se vzdáváme ve prospěch
    technologických firem.
  • 01:29:32 Nemluvě o listovní tajemství.
  • 01:29:34 Stále ještě je základní
    listině práv a svobod.
  • 01:29:39 Opravdu to platí?
  • 01:29:44 Nikdo neříkal,
    že by se s tou ústavou něco dělo.
  • 01:29:47 Teď nějaké pokusy byly.
  • 01:29:49 Ale mám pocit, že tato listina
    je docela konzistentní.
  • 01:29:52 Stále stejná.
  • 01:29:54 Ale platí v té dnešní době.
  • 01:29:56 Co to je dnes listovní tajemství?
  • 01:30:01 Podíváte-li se na množství
    nabouraných e-mailových adres,
  • 01:30:04 na to jak jsme probírali
    ukradená data,
  • 01:30:09 ke kterým se můžeme
    dostat za poplatek.
  • 01:30:18 Pracoval jsem ve firmě.
  • 01:30:22 A tam říkal ředitel, že soukromí
    je pryč, tak se s tím smiřte.
  • 01:30:29 Jedna věc je, co je napsáno
    v ústavách.
  • 01:30:33 Jsou to ale 100 let staré
    dokumenty.
  • 01:30:35 Druhá věc je, kde žijeme.
  • 01:30:39 Ten život a soukromí se mění
    a hranice se posouvají
  • 01:30:42 různým směrem.
  • 01:30:43 Jak jsme se bavili o hodných
    státech a zlých státech
  • 01:30:47 a nenasazovat firmám své hlavy.
  • 01:30:50 Tak je to také o zodpovědnosti
    nás jako jedinců.
  • 01:30:58 Měli bychom naše
    hodnoty propagovat.
  • 01:31:00 Podle vás je možné
    uplatňovat ty hodnoty,
  • 01:31:03 které tady vznikly osvícenstvím,
  • 01:31:05 které jsou vypsány v těch
    základních listinách,
  • 01:31:08 které dříve tvořily
    liberální demokracie.
  • 01:31:11 Tak vnášet je právě do toho
    prostoru, kde nám soukromí mizí,
  • 01:31:16 kde listovní tajemství
    dostává úplně jiný význam.
  • 01:31:22 Já si myslí, že to je nezbytně
    nutné.
  • 01:31:24 Když si vezmete,
  • 01:31:25 tak ty systémy o kterých se bavíme
    na to zpracování dat umělou
  • 01:31:29 inteligencí, tak jsou postavené
    v podstatě IT odborníky.
  • 01:31:34 Chybí tam naprosto
    ten humanitní rozměr.
  • 01:31:37 Ty systémy by měly trénovat
    a stavět ověřovat,
  • 01:31:42 u té tvorby těch systému by měly
    být humanitně vzdělaní lidé.
  • 01:31:46 Sociologové, psychologové a další,
  • 01:31:48 kteří tam přinesou ten lidský
    rozměr a ty hodnoty off-line
  • 01:31:51 do toho on-line.
  • 01:31:53 Zatím se to neděje?
  • 01:31:55 Ne příkladem je Facebook.
  • 01:31:58 Hovoří se hodně o fake news.
  • 01:32:01 To je o tom,
  • 01:32:03 že jsme přesunuli informování
    obyvatel z tradičních médií
  • 01:32:05 do on-line světa na tu platformu,
    kde je nás miliarda a půl.
  • 01:32:09 Ta platforma je marketingová
    a ta nás tam chce udržet
  • 01:32:11 co nejvíce.
  • 01:32:14 Nikoliv se starat o vyvážení
    informací, novinářskou etiku atd.
  • 01:32:20 Ten algoritmus, jakmile
    objeví něco, co by vás mohl,
  • 01:32:23 tak vám to tam dá aby vás udržel.
  • 01:32:26 Eduard Kučera.
  • 01:32:28 Váš pohled na to,
  • 01:32:29 co platí z Listiny základních práv
    a svobod a to co se vytratilo
  • 01:32:32 nebo vyprázdnilo?
  • 01:32:37 Svoboda často končí tam,
  • 01:32:39 kam dovolíme aby vstoupila
    naše svoboda.
  • 01:32:43 Už někteří předřečníci to probírali
    z toho psychologického hlediska.
  • 01:32:51 Hlavně mladí lidé svůj
    život nežijí, ale sdílejí.
  • 01:32:56 Geniálním příkladem
    byl ten příspěvek,
  • 01:32:59 který jsme tady viděli.
  • 01:33:02 Tento dokonce zdůraznil.
  • 01:33:03 Že celých těch 200 dní se natáčela
    pouze sdílel.
  • 01:33:10 Je to opravdu strašný.
  • 01:33:14 Já jsem byl na Rolling Stones,
    jsou prakticky samí staří diváci.
  • 01:33:23 Spousta těch mladých tam sdílela.
  • 01:33:35 Oni to natáčejí a posílají to.
  • 01:33:37 Já tomu nerozumím.
  • 01:33:44 Kdo přestane prožívat už mládí,
  • 01:33:46 tak asi obtížně začne
    prožívat stáří.
  • 01:33:50 Ale to je ta jedna ze svobod.
  • 01:33:52 Protože ty svobody jsou.
  • 01:33:55 Ta míra nesvobody je v nás.
  • 01:33:59 Že z toho sdílení,
  • 01:34:00 abychom v tom sdílení
    byl lepší než ostatní,
  • 01:34:05 tak se posunujeme ty hranice,
    o kterých hovořil ten šílenec.
  • 01:34:11 A kam až je máme posunout.
  • 01:34:14 Úspěšný šílenec.
  • 01:34:17 Youtuber.
  • 01:34:18 Ptáme se lidí,
  • 01:34:20 kteří chtějí ty hranice
    automaticky posouvat ještě dále.
  • 01:34:22 To nemá konec.
  • 01:34:25 Nemá to dobrý konec.
  • 01:34:27 To je ta největší nesvoboda,
    kterou by se dalo říci,
  • 01:34:30 že se mnohdy můžeme stát
    otroky tohoto sdílení.
  • 01:34:35 Ale něco dobrého také na závěr
    bychom mohli říci.
  • 01:34:38 Závěr ještě přijde.
  • 01:34:41 Nežeňte to.
  • 01:34:43 Já si myslím, že ty svobody,
  • 01:34:45 které se speciálně na těch
    sociálních sítích,
  • 01:34:48 tak toho se tam uživatelé
    říkají sami.
  • 01:34:50 To prostě jen čert.
  • 01:34:55 Pro mě je to nepochopitelné.
  • 01:35:01 Ale já jsem starý.
  • 01:35:04 My si ty věci možná vysvětluje
    mi ještě trochu jinak.
  • 01:35:07 Já to vůbec nechci hodnotit,
    co ty mladé lidi vede do toho,
  • 01:35:11 aby se stěhovali definitivně
    toho kybernetického světa.
  • 01:35:15 V podstatě se ani nepotřebovali
    setkávat atd.
  • 01:35:19 Ale to vnímám, jako že když
    tam sám sebe člověk takto odevzdá,
  • 01:35:25 tak je to jeho volba.
  • 01:35:26 A nemá to nic společného
    s demokracií a ústavním pořádkem
  • 01:35:30 a listinou základních
    práv a svobod.
  • 01:35:34 Jak svobod se člověk řekne sám.
  • 01:35:39 Nerozumím tomu, ale je to tak.
  • 01:35:42 Na margo toho mě zajímá,
  • 01:35:44 protože někdejší ministr vnitra
    Jan Ruml mi vyprávěl historku,
  • 01:35:49 jak tehdy za Občanské fórum
    šel na ministerstvo vnitra.
  • 01:35:54 Psal se leden roku 19 90.
  • 01:35:57 Procházel budovou
    Ministerstva vnitra
  • 01:35:59 a v tom suterénu byly
    obrovské množství dveří.
  • 01:36:04 Když z nich někdo vyšel,
    tak z těch dveří šla pára.
  • 01:36:09 On zájmy vstoupil za dveře.
  • 01:36:14 A viděl tam nějaké dva měsíce
    po pádu autoritativního režimu,
  • 01:36:18 tak tam viděl lidi v gumových
    pláštích,
  • 01:36:22 jak rozebírali obálky a napařovali.
  • 01:36:26 On se zeptal, co tady děláte.
  • 01:36:28 My tady napařujeme.
  • 01:36:31 A otevíraly ty dopisy
    a kontrolovali obsah těch dopisů.
  • 01:36:37 Říkal jsem si, jak dnes vypadá,
  • 01:36:40 protože údajně to byli napařovací
    staly ruské výroby Ozero.
  • 01:36:49 Tak jak to vypadá dnes.
  • 01:36:50 A zdali já se jako
    uživatel mohou bránit.
  • 01:36:56 Zdali to je technologicky možné.
  • 01:36:59 Když naopak slyšíme o antivirových
    firmách, které z našich počítačů,
  • 01:37:05 například Kaspersky Lab,
    ruská antivirová firma,
  • 01:37:13 získává citlivá data.
  • 01:37:15 To je novodobý
    napařovací stůl Ozero.
  • 01:37:21 Já bych pro ni odpověděl
    první část té otázky.
  • 01:37:24 Dnes nemusíte mít napařovací
    stůl Ozero.
  • 01:37:28 Hlavně k tomu nepotřebujete
    ty davy těch lidí.
  • 01:37:32 Během komunismu jsme
    se uklidňovali tím,
  • 01:37:36 že nás nemohou všechny sledovat,
    protože by to nestačili zpracovat.
  • 01:37:41 To jsme ovšem netušili,
    že v NDR to tak skoro bylo.
  • 01:37:46 Že sledovali všichni všechny
    a ještě se to stihla zpracovat.
  • 01:37:50 Tehdy ovšem národní důchod
    NDR asi nebyl moc velký,
  • 01:37:54 protože všichni se věnovali
    tomu sledování.
  • 01:37:59 Ale u nás pouze polovina.
  • 01:38:01 Dnes je to daleko jednodušší,
  • 01:38:04 protože na to nejsou
    zapotřebí napařovací stoly.
  • 01:38:06 Nejsou na to zapotřebí napařovačky.
  • 01:38:09 Nejsou na to zapotřebí lidé,
  • 01:38:11 kteří to čtou a nejsou
    zapotřebí analytici,
  • 01:38:13 kteří to zkoumají a kteří
    to dávají do souvislostí.
  • 01:38:16 Protože na to máme to zpracování
    těch dat.
  • 01:38:20 A jestli dříve ve správě
    StB sledovali objekt,
  • 01:38:26 byl navštíven vlasatcem.
  • 01:38:33 Tak dnes automat vyplivne,
  • 01:38:36 že sledovaný objekt byl navštíven
    jméno, číslo, rodné číslo,
  • 01:38:41 bydliště, odkaz.
  • 01:38:44 Rovnou.
  • 01:38:45 Všechno to tam je.
  • 01:38:47 Takže dnes ty tajné služby, nebo
    ta policie pokud jí to povolí soud.
  • 01:38:56 Těm tajným službám musí také.
  • 01:38:59 Jsou některé, které to nepotřebují.
  • 01:39:01 Některé ne.
  • 01:39:02 V té zemi, kam jezdíte.
  • 01:39:05 I tady.
  • 01:39:08 Všechno se dá dát do souvislostí.
  • 01:39:10 Má to obrovskou výhodu.
  • 01:39:11 Třeba pro boj s terorismem.
  • 01:39:14 Už od toho roku 2001,
    kdy se to poprvé zjistilo,
  • 01:39:20 že oni to všechno věděli.
  • 01:39:22 Pouze to neměli zpracované.
  • 01:39:24 A trochu to připomínalo
    předpovídání počasí na počítači.
  • 01:39:28 Kdy donedávna to bylo tak,
  • 01:39:31 že se dalo spočítat
    počasí na zítřek,
  • 01:39:33 ale vyšlo to za tři neděle.
  • 01:39:35 A bylo to docela dobře.
  • 01:39:37 Dnes ty počítače jsou takové,
  • 01:39:39 že to stihnou udělat ještě
    aby ta předpověď byla
  • 01:39:42 k něčemu užitečná.
  • 01:39:45 Zrovna tak to bude v tom zpracování
    těch dat.
  • 01:39:48 To je pro tu bezpečnost.
  • 01:39:50 Ale jde o to, kdo to bude hlídat.
  • 01:39:52 Ty velké bratry.
  • 01:39:54 Aby se to nezneužívalo.
  • 01:39:56 Protože existují věci, které
    vypadají na první pohled skupině,
  • 01:40:05 ale tedy hloupě, ale třeba
    jsou filmy,
  • 01:40:15 je třeba existuje jakési pre crime.
  • 01:40:19 To tehdy dělala média,
    ale dnes se to dá udělat.
  • 01:40:27 Když se podíváme na kamery
    jako na senzory v prostředí.
  • 01:40:30 Jsou to senzor, které snímají data.
  • 01:40:33 V dnešní době se v těch lidských
    kruzích hovoří o internetu věcí.
  • 01:40:41 Nejen, že budeme mít kamery,
  • 01:40:44 přičemž mohu dát kameru ze svého
    okna a budou skenovat ulici.
  • 01:40:49 To mi nikdo nezabrání.
  • 01:40:51 Úřad.
  • 01:40:53 Ale když si to dám za okno,
    tak na to nikdo nepřijde.
  • 01:40:56 Ale budeme obklopeni daleko
    více a více senzory.
  • 01:40:58 Mluví se o samořídících autech.
  • 01:41:00 To máte pohybující se jednotky
    v prostoru,
  • 01:41:03 které jsou vybavené senzory.
  • 01:41:04 Které neustále snímají okolí.
  • 01:41:06 A s tím snímají data.
  • 01:41:08 Budou senzory na domech,
  • 01:41:10 které budou měřit teplotu a budou
    se snažit s těmi domy pracovat,
  • 01:41:13 aby nepraskaly atd.
  • 01:41:15 Senzory na počasí, teplotu,
    hluk, různé jiné věci.
  • 01:41:19 Toto všechno jsou data, která
    někdo bude shromažďovat.
  • 01:41:23 Když se ta data dají dohromady,
  • 01:41:25 tak najednou máme kompletní
    než digitální stopu.
  • 01:41:28 Jak jste se pohybovali po mně,
    s kým jste se potkali.
  • 01:41:31 Všechno v reálném čase analyzované.
  • 01:41:33 Dnes díky tomu,
  • 01:41:35 že jsme naučili Facebook poznávat
    fotky z dovolené a kočičky
  • 01:41:39 na obrázku,
  • 01:41:40 tak si můžete z internetu
    stáhnout jednoduchý program,
  • 01:41:43 který vám bude v reálném čase
    analyzovat obraz z kamery říkat
  • 01:41:47 co na tom obraze
    je a kdo na tom obraze je.
  • 01:41:51 Tam je otázka, zdali
    by to měl regulovat stát.
  • 01:41:54 Nebo jaké by měly
    být ty mechanismy.
  • 01:41:56 Myslím si, že na to nejsme
    připraveni.
  • 01:41:58 Kdo by to měl regulovat?
  • 01:42:02 Je to decentralizované.
  • 01:42:04 Já v tuto chvíli nevěřím státu.
  • 01:42:06 Hovořil jste o hierarchii,
    která fungovala před 100 lety.
  • 01:42:12 Jsem si jistý,
  • 01:42:16 zdali stát jako centralizovaná
    struktura nesklouzne k tomu,
  • 01:42:19 jak to dopadlo v té Číně.
  • 01:42:22 Hosty Fokusu zůstávají odborník
    na umělou inteligenci Jozef Hollý,
  • 01:42:26 bývalý policejní důstojník Tomáš
    Almer a podnikatel Eduard Kučera.
  • 01:42:34 Prozatím děkuji.
  • 01:42:35 Mimo sítě.
  • 01:42:36 Také dnes se tak dá žít?
  • 01:42:38 Skoro to vypadá,
  • 01:42:40 že by bez Facebooku se rovná
    být bez zakázek, bez přátel,
  • 01:42:44 bez informací o tom kam třeba
    večer jít.
  • 01:42:48 Skutečný život je jinde dozvěděla
    se Marta Pilařová od fotografa.
  • 01:42:54 E-mail, YouTube,
    potom nějaké zprávy.
  • 01:43:01 Žádný Facebook, Instagram
    žádný, Twitter žádný,
  • 01:43:06 žádné tyto sociální
    sítě nevyužívám.
  • 01:43:11 Mám e-mail, telefon číslo,
    máme kolem sebe známé lidi.
  • 01:43:26 Sociální síti mi nechybí.
  • 01:43:28 Žiju v Praze.
  • 01:43:30 Těch akcí je hrozně moc.
  • 01:43:32 Nedá se to všechno oběhat.
  • 01:43:34 Do toho mám rodinu a děti, o které
    je zapotřebí zastarat.
  • 01:43:38 Toho času je málo.
  • 01:43:40 Také z toho důvodu
    jsem to zredukoval.
  • 01:43:48 Lidé se to naučí.
  • 01:43:51 Pokud mě budou chtít někam pozvat
    a nebude to hromadné rozesílání,
  • 01:43:55 aby nahnali co nejvíce lidí.
  • 01:43:57 Tak se ta pozvánka k lidem dostane.
  • 01:44:02 Nepotřebuji takový široký okruh
    lidí, jako mají zpěvácké hvězdy.
  • 01:44:11 Pokud se mám přiznat, tak asi rokaj
    zpět jsem byl na Facebooku,
  • 01:44:17 kde jsem byl asi rok.
  • 01:44:22 Zrovna jsem onemocněl, byl jsem
    doma v posteli sám.
  • 01:44:25 Byl jsem asi trochu smutný.
  • 01:44:27 Nikdo se neozval.
  • 01:44:29 Zároveň v tom období jsem
    měl přetlak a hodně jsem
  • 01:44:33 tvořil umění.
  • 01:44:38 Potřeboval jsem se o to podělit.
  • 01:44:40 Vít ohodnocený.
  • 01:44:44 Založil jsem si to,
  • 01:44:46 abych si vytvořil přehled a nějakou
    síť obdivovatelů.
  • 01:44:51 Ale to trvalo pouze krátce.
  • 01:44:54 To nadšení.
  • 01:44:56 Proč jsem se odhlásil?
  • 01:44:58 Je to platforma, která má primárně
    vytvářet peníze.
  • 01:45:04 Takže stále reklamy.
  • 01:45:08 Politika, kauzy.
  • 01:45:13 Potřebuji platformu,
    která bude čistá.
  • 01:45:16 Facebook není.
  • 01:45:23 99 % zakázek se šíří přes známé.
  • 01:45:29 K tomu Facebook nepotřebuji.
  • 01:45:32 Kdybych chtěl za každou cenu
    fotit od nevidím do nevidím,
  • 01:45:38 tak to mohu takto dělat.
  • 01:45:40 Ale tím, že mám rodinu a do toho
    jsem zaměstnaný na škole,
  • 01:45:43 tak toto tempo,
    kterým se to vyvíjí,
  • 01:45:46 kterým se nabaluje práce,
    tak to mi vyhovuje.
  • 01:45:51 Když jsem se přihlásil na Facebook,
    tak jsem byl obohacený.
  • 01:45:57 Spojil jsem si činnosti.
  • 01:46:00 Lidi, které potkávám ve škole.
  • 01:46:05 Tváře z práce.
  • 01:46:07 Rozšířilo mi to trochu obzor.
  • 01:46:10 Ale potom ta repetice mě unavovala.
  • 01:46:14 Pokud se něčemu věnuji,
    tak se do toho ponořím.
  • 01:46:20 Samozřejmě jsem na tom trávil
    spoustu času.
  • 01:46:23 Všechny chvíle co máte
    čas na rozjímání v tramvaji,
  • 01:46:26 nebo chvíle nečinnosti je také
    důležitá pro život.
  • 01:46:30 Místo toho jsem se díval
    na Facebook.
  • 01:46:36 A poté když jsem se odhlásil,
    tak břemeno a taková úzkost z toho,
  • 01:46:41 že nestíhám plno aktivit,
    tak to země opadlo.
  • 01:46:44 To obohacující.
  • 01:46:46 Získal jsem čas.
  • 01:46:50 Dívám se při jízdě z tramvaje.
  • 01:46:54 Nebo se dívám na lidi.
  • 01:46:57 Jak se dívají na ten screen.
  • 01:47:15 Závěrečná kapitola dnešního
    Fokusu se všemi jeho hosty.
  • 01:47:20 Navážu na Josefa Holého, když
    jsme se bavili o množství čidel,
  • 01:47:24 která přijdou.
  • 01:47:26 Aleš Špidlo, kolik těch čidel
    podle těch propočtů bude?
  • 01:47:31 Internet věcí.
  • 01:47:32 Abychom si uměli představit
    dobu, která nás čeká.
  • 01:47:38 Poslední předpovědi jsou
    tak 50 miliard do roku 2020.
  • 01:47:42 Všechno.
  • 01:47:44 Stromy jsou o očipované
    už teď aby hlásili nelegální těžbu.
  • 01:47:51 Všechny ty senzory se dají
    použít k útokům.
  • 01:47:57 Budou útočit entové.
  • 01:48:00 Jestli víte z Pána prstenu.
  • 01:48:04 Já to samozřejmě znám.
  • 01:48:07 Já tady nejsem odborník.
  • 01:48:10 Být co nejméně viditelný iluze?
  • 01:48:16 Když je ten senzor na tom stromů
    v pralese,
  • 01:48:19 tak tam také indiáni
    chodí a vytváří vibrace,
  • 01:48:23 takže mohou být hlídání.
  • 01:48:24 Když tady padla otázka,
  • 01:48:27 kdo by měl naši viditelnost
    a neviditelnost regulovat
  • 01:48:29 v budoucnu.
  • 01:48:31 Tady od vás zaznělo, že jste
    byl ostražitý se státem.
  • 01:48:34 Já bych
  • 01:48:37 Já bych byl ostražitý vůči
    jakékoliv velké entitě.
  • 01:48:42 Platí dynamika vítěz bere vše.
  • 01:48:46 Když budete chtít udělat nový
    Google, tak už to neuděláte.
  • 01:48:51 To samé Facebook, Amazon.
  • 01:48:53 Jde o to, kdo bude ten vítěz,
  • 01:48:55 který bude brát ta data ze senzorů
    ze stromů, z ulic, z počasí,
  • 01:49:00 z našich domovů atd.
  • 01:49:02 Kdo to bude?
  • 01:49:03 Bude to stát nebo soukromá firma?
  • 01:49:05 Jakým modelem bude tato entita,
  • 01:49:07 ať už stát nebo
    soukromá firma řízená?
  • 01:49:11 Umíte předpovědět, kdo to bude?
  • 01:49:14 Já si to neumím představit.
  • 01:49:16 To množství těch senzorů?
  • 01:49:18 To ano.
  • 01:49:22 Pouze kdo by to měl centrálně
    řídit.
  • 01:49:24 Snad asi nikdo.
  • 01:49:27 Když někdo bude mít ty senzor
    na těch stromech,
  • 01:49:31 tak to budete mít v extrémním
    případě na každém klasů obilí.
  • 01:49:35 Prostě za to bude zodpovídat
    ten, který ty stromy očipoval.
  • 01:49:40 Takže když budeme mít všichni
    doma na každém spotřebiči senzor,
  • 01:49:44 třeba elektřiny, tak za to budeme
    zodpovídat mi, jestli to dovolíme.
  • 01:49:49 A jestli nám nebude
    stačit jeden senzor,
  • 01:49:51 který se jmenuje elektroměr
    u vchodu do dveří.
  • 01:49:55 Jestli pro to máte elektrárenská
    společnost, nebo nějaká jiná,
  • 01:50:01 tak zdali to potřebuje
    a má na to právo.
  • 01:50:04 Musíme se tomu prostě bránit.
  • 01:50:13 Jak vám znělo to,
    co zmiňoval Jozef?
  • 01:50:16 Že zatím to jsou technologické
    firmy bez sociologů a psychologů,
  • 01:50:21 které určují ty trendy.
  • 01:50:23 Teď byste do toho měli vstoupit vy.
  • 01:50:27 Já si vůbec nedovedu představit,
    jak bych do toho vstoupila.
  • 01:50:30 Cítím, že je zapotřebí
    do toho vstoupit.
  • 01:50:32 Musí to mít nějakou duši a nějaký
    řád a musí tam být tom lidskost.
  • 01:50:36 Což teď není.
  • 01:50:38 Protože ten dopad vídáme.
  • 01:50:42 Jak bych do toho vstoupila nevím.
  • 01:50:44 Speciálně by to měl být někdo
    hodně mladý.
  • 01:50:46 Já jsem ještě z generace, kdy byly
    ty počítače takové obrovské bedny.
  • 01:50:50 Takže si nedovedu představit,
    co bych vlastně mohla dělat více.
  • 01:50:55 Zkusím dát příklad.
  • 01:50:57 V Americe byl nedávno případ,
  • 01:50:59 kdy americká justice používá
    software na bázi statistiky
  • 01:51:03 a umělé inteligence.
  • 01:51:05 Který předpovídá u vězňů, kteří
    si zažádají o propuštění z vězení,
  • 01:51:10 tak ten software umí předpovídat
    pravděpodobnost,
  • 01:51:12 že se znovu dopustí trestného činu.
  • 01:51:14 To používají poměrně ve velké míře.
  • 01:51:17 Teď se zpětnou analýzou zjistilo,
  • 01:51:19 že tento software s větší
    pravděpodobností předpoví recidivu
  • 01:51:25 u černochů.
  • 01:51:26 Protože byl vytrénovaný
    na špatných datech.
  • 01:51:30 To znamená, že ta data,
  • 01:51:32 která sloužila k vytvoření na učení
    té umělé inteligence,
  • 01:51:35 tak samozřejmě se odněkud vzali
    a chyběl tam tento hluboce
  • 01:51:39 etický rozměr.
  • 01:51:45 Když někdo by měl mít možnost
    se na ta data podívat a říci,
  • 01:51:48 nemůžeme učit software,
  • 01:51:49 který má předpovídat
    recidivu na základě dat,
  • 01:51:55 která jsou pouze od černochů.
  • 01:51:56 Protože to bude zaměřené
    pouze na černochy.
  • 01:51:59 To je otázka etická.
  • 01:52:02 Potom by byla pomoc škatulkování.
  • 01:52:04 Ale já jsem zásadně proti
    těm testům a toho škatulkování těch
  • 01:52:08 lidí a toho předpovídání.
  • 01:52:10 Každý je individuální.
  • 01:52:12 Nemůžeme přesně dokonale
    odpovědět co a jak s ním bude.
  • 01:52:16 Můžeme si myslet, že možná
    má ty sklony.
  • 01:52:21 Je hrozně těžké do toho
    vložit tu složku těch emocí.
  • 01:52:26 A tu složku toho citu.
  • 01:52:30 Je to možná výš.
  • 01:52:32 Možná se takový software
    neměl používat,
  • 01:52:35 nebo se měl používat
    jiným způsobem.
  • 01:52:37 Aby před tím byla nějaká ochrana.
  • 01:52:40 Martine?
  • 01:52:42 Já to vnímám především tak,
  • 01:52:43 že právě sociální věci
    a psychologové a sociologové
  • 01:52:53 těm technologiím komplikují život.
  • 01:52:58 Ta technologie je taková čistá.
  • 01:53:00 Teď když do toho dáváte
    morální pravidla hodnocení,
  • 01:53:05 tak ten pravděpodobnostní
    model hrozně rozmělníte.
  • 01:53:08 A to je blbé.
  • 01:53:10 A za druhé si můžete najmout
    nějaká, IT specialistu,
  • 01:53:19 který vám ten systém zlepší.
  • 01:53:25 Anebo si najmout
    humanitního vzdělaného,
  • 01:53:30 který vám ten systém zhorší.
  • 01:53:33 Je zapotřebí na to pracovat.
  • 01:53:35 Cesta k té neviditelnosti.
  • 01:53:37 Není to mýtus?
  • 01:53:38 Když jsme tady zmiňovali příklad
    jednoho fotografa, který má pocit,
  • 01:53:43 že je neviditelný.
  • 01:53:45 Protože pouze není na sociálních
    sítích.
  • 01:53:47 Stejně je viditelný,
  • 01:53:49 protože také stát ta data
    získává přes různé technologie,
  • 01:53:54 otisky prstů, snímání obličejů.
  • 01:53:59 To je samozřejmě pravda.
  • 01:54:01 Ale má to svá pravidla a své meze.
  • 01:54:07 Jak jste viditelnými?
  • 01:54:09 Jak se snažíte být neviditelný?
  • 01:54:13 To nejde.
  • 01:54:15 Já se vůbec nesnaží.
  • 01:54:17 Já se snažím nebýt zajímavý.
  • 01:54:19 To si myslím, že je daleko
    efektivnější.
  • 01:54:23 Protože vlastně každé
    zneužití osobních údajů,
  • 01:54:28 bavíme se o osobních údajích.
  • 01:54:30 Ať už to jsou fotky,
  • 01:54:33 nebo to co já jako osoba
    dělám a čím se zabývám.
  • 01:54:37 To jsou všechno osobní údaje.
  • 01:54:39 K tomu,
  • 01:54:41 že se s osobními údaji obchoduje
    a že se dají zneužít různým
  • 01:54:48 nekalostem,
  • 01:54:49 tak to má příčinu ve zcela
    prosté lidské vlastnosti
  • 01:54:52 a to je zvědavost.
  • 01:54:55 Ve své podstatě si myslím,
    že než bojovat proti tomu,
  • 01:54:59 jak se někde schovat, tak je lepší
    být nezajímavý.
  • 01:55:04 Lidé, kteří nikoho nezajímají,
    tak na vzdor tomu,
  • 01:55:08 že ty jejich údaje existují
    a tomu, aby existovaly,
  • 01:55:10 tak já se ubránit neumím.
  • 01:55:14 Tak prostě je lepší, když si někdo
    najme, zjistí že jsou mu k ničemu,
  • 01:55:22 tak je zahodí.
  • 01:55:24 Trochu to zlehčuji.
  • 01:55:25 Přesto se domnívám,
  • 01:55:28 že když se vrátím zase
    k té zastaralé vlastně základních
  • 01:55:32 práv a svobod z doby
    ze století páry.
  • 01:55:38 Kdybychom se pokusili
    trochu jí dostát.
  • 01:55:44 Třeba alespoň nás nebo v EU.
  • 01:55:48 A to porušení soukromí trestali.
  • 01:55:52 Právo na život je v ústavě
    naprosto ve stejné úrovni,
  • 01:55:56 jako právo na soukromí.
  • 01:55:58 To tam není nikde napsané, že toto
    je větší právo nebo menší právo.
  • 01:56:02 Ta práva tam jsou si rovna.
  • 01:56:08 Když někdo někomu usiluje
    o život, neřku-li úspěšně,
  • 01:56:12 tak na to pamatuje trestní zákon
    poměrně významně tresty.
  • 01:56:19 Porušil lidské právo.
  • 01:56:21 Stát slíbil, že právo na život
    bude dodržovat tím,
  • 01:56:25 že zrušil trest smrti.
  • 01:56:27 Dobře.
  • 01:56:28 Přesto vymáhá jeho dodržování
    i od ostatních členů populace.
  • 01:56:34 Úpravna soukromí.
  • 01:56:35 Stát se zavázal v trestním
    řádu a různých formách,
  • 01:56:41 že nebude používat porušovat
    právo na soukromí.
  • 01:56:45 Ale kašle na to,
    že si to porušujeme navzájem.
  • 01:56:48 Dokonce existují poměrně dobré
    živnosti, které se živí na tom,
  • 01:56:52 že porušují ničí soukromí.
  • 01:56:53 Zcela programově a legálně.
  • 01:56:56 Myslím si, že to je špatně.
  • 01:56:59 Ten stát by projevil dobrou vůli,
  • 01:57:07 kdyby pamatoval na skutkovou
    podstatu trestných činů
  • 01:57:09 porušení soukromí.
  • 01:57:11 A úplně jedno v jakém prostředí.
  • 01:57:14 Zdali to bude šmírování
    přes záclonu,
  • 01:57:18 nebo v tom virtuálním
    světě internetu.
  • 01:57:22 Špidla chtěl reagovat?
  • 01:57:24 Není úplně pravda,
    že by to ten stát nějak neřešil.
  • 01:57:29 Teď od května příštího roku bude
    platit to obecné nařízení o ochraně
  • 01:57:33 osobních údajů, které kromě toho,
  • 01:57:36 že nějak zdůrazňuje tu úlohu
    ochrany osobních údajů,
  • 01:57:40 která už tady platí.
  • 01:57:42 Ta právní úprava tady je zákon
    101/2000 sbírky.
  • 01:57:46 Že se nedodržovala,
    to je jedna věc.
  • 01:57:49 Nicméně to obecné nařízení
    významně posiluje práva těch lidí.
  • 01:57:53 Mohou požádat o výmaz.
  • 01:57:56 Zeptat se, jaké osobní
    údaje o mě mají.
  • 01:58:01 Na to navazuje trestní zákoník,
  • 01:58:03 který míří třeba na orgány
    veřejné moci podle
  • 01:58:06 § 180 trestního zákoníku.
  • 01:58:10 Pokud dojde ke zneužití, ztrátě,
    poškození, tak tam je prostě trest.
  • 01:58:20 Pokud to chápu dobře,
    tak se vracíme k tomu,
  • 01:58:23 že to je v nás.
  • 01:58:24 Že se nesmíme smí říct, že jsme
    ztratili soukromí.
  • 01:58:28 Protože musíme po státu něco
    chtít a potřebujeme se bránit.
  • 01:58:33 Ten koncept toho soukromí
    se mění a posouvá se.
  • 01:58:37 Nevíme kam se posouvá.
  • 01:58:40 Ale kde vidím největší
    výzvou pro nás pro všechny,
  • 01:58:44 tak to je prostě se vztáhnout
    k té základní listině práv a svobod
  • 01:58:49 a hájit naše osobní práva.
  • 01:58:52 Opravdu se o to bít.
  • 01:58:57 Protože to může být soukromá firma,
  • 01:58:59 nebo stát kdo se stane
    velkým bratrem.
  • 01:59:01 Je důležité ta práva znát.
  • 01:59:03 Být informován o tom, jakým
    způsobem mohou platit.
  • 01:59:07 To jsme tady dnes probírali
    dvě hodiny Fokusu.
  • 01:59:18 Děkuji skvělým hostům
    dnešního Fokusu.
  • 01:59:25 Děkuji vám,
  • 01:59:26 že jste dámy a pánové byli hosty
    Fokusu a těším se někdy příště
  • 01:59:29 v ČT na shledanou.
  • 01:59:31 Děkuji vám divákům ČT 24 a také
    skvělému publiku,
  • 01:59:35 studentům a pedagogům
    východočeského gymnázia Aloise
  • 01:59:39 Jiráska Litomyšle.
  • 01:59:41 Děkuji vám, že jste tady byli.
  • 01:59:44 Hezký zbytek večera.
  • 01:59:49 Živé titulky ve spolupráci se ZČU
    Inovace podpořená TA ČR
    Stínový mluvčí: Pavel Petrle

Související