O fenoménu sociálních sítí a hrozeb zneužití. Australský dokument
00:00:02 Česká televize uvádí australský dokument
00:00:05 "Temné stránky Facebooku aneb něco za něco"
00:00:08 V roce 2014 zveřejnili vědci Facebooku výsledky jednoho
00:00:12 z největších psychologických experimentů všech dob.
00:00:17 Manipulovali s profily téměř 700 tisíc uživatelů,
00:00:22 aby se jim zobrazovaly spíše kladné nebo záporné příspěvky.
00:00:29 Poté využili sofistikované algoritmy
00:00:32 a zmapovali změny nálad těchto lidí.
00:00:35 Co zjistili? Čím kladnější příspěvky byly,
00:00:39 tím šťastnější se jevili i uživatelé.
00:00:42 Čím byly zápornější, tím na tom byli uživatelé hůř.
00:00:45 Výsledky ukázaly, že příspěvky, které na Facebooku vidíme,
00:00:49 mají moc ovlivňovat, na co myslíme, a jak se cítíme.
00:00:52 -Facebook se velmi vychytralým způsobem vetřel do našich životů.
00:00:57 Je to rodinné album.
00:00:59 Je to prostředek komunikace s přáteli. Je to deník.
00:01:03 Je to seznam kontaktů. Stal součástí běžného života.
00:01:08 -Tento příběh vypráví o jedné
00:01:11 z největších a nejmocnějších korporací světa a o tom,
00:01:15 jak i bez našeho svolení získává informace o našich životech,
00:01:19 které jí následně přinášejí ohromné jmění.
00:01:23 -Je to možná nejúspěšnější firma v historii lidstva,
00:01:27 která shromažďuje údaje o lidech, a využívá je ke svému obohacení.
00:01:33 -Facebook ani jeho zakladatele není třeba představovat.
00:01:38 Mark Zuckerberg začal tuto sociální síť
00:01:41 provozovat v roce 2004, kdy mu bylo pouhých 19 let.
00:01:45 Měla sloužit studentům Harvardovy univerzity.
00:01:48 -Když jsme to poprvé spustili, říkali jsme si,
00:01:51 že se připojí třeba 400 nebo 500 lidí.
00:01:54 Na Harvardu nic takového nebylo,
00:01:56 proto jsme se snažili tuto mezeru zaplnit.
00:01:59 Teď je tam 100 tisíc lidí. Uvidíme, kam až to půjde dál.
00:02:03 -Během prvního měsíce se připojila více než polovina studentů.
00:02:07 Byla to předzvěst raketového nárůstu počtu členů,
00:02:10 který následoval.
00:02:13 V současné době je na Facebooku registrována
00:02:16 téměř čtvrtina světové populace.
00:02:18 To je více než počet obyvatel kteréhokoli státu.
00:02:21 Z Facebooku se stal velikán.
00:02:23 Tato korporace má hodnotu více než 400 miliard dolarů,
00:02:27 což je přibližně 800 bilionů korun, a patří k nejhodnotnějším vůbec.
00:02:31 Mark Zuckerberg je tak jedním z nejmocnějších lidí světa.
00:02:38 -Je něco jako král. Monarcha.
00:02:41 Rozhoduje o vašich životech na Facebooku, stanovuje pravidla.
00:02:45 Je to takový laskavý diktátor.
00:02:50 Jeho vláda není žádným způsobem omezena.
00:02:55 Nejedná se v žádném ohledu ani o participativní demokracii.
00:03:00 -Nicméně Facebooku nejsou téměř 2 miliardy uživatelů pořád dost.
00:03:04 Mark Zuckerberg si dělá zálusk na třetí miliardu.
00:03:09 Další růst na již dobytých trzích
00:03:12 jako v Severní Americe nebo Austrálii je značně omezený,
00:03:17 ale 32letý byznysmen vidí ohromný potenciál v rozvojovém světě.
00:03:22 -V Indii žije miliarda lidí,
00:03:25 kteří zatím nemají přístup k internetu.
00:03:28 Pokud si kladete za cíl nabídnout vaše služby celému světu,
00:03:31 není možné toho dosáhnout,
00:03:33 když tolik lidí pořád nemá ani základní připojení.
00:03:37 -Je tu jeden pojem, který používají zástupci
00:03:41 Facebooku a Googlu: Poslední miliarda.
00:03:44 V podstatě se snaží najít způsob,
00:03:48 jak zavést internet tam, kde ještě není.
00:03:50 Jedná se ale o internet ovládaný Facebookem a jeho pohnutkami.
00:03:54 To je součást jejich dlouhodobého plánu.
00:03:57 -Mnoho lidí z rozvojových zemí
00:04:00 se připojuje k internetu z mobilního telefonu.
00:04:06 Běží tam programy zvané Zero rating nebo Facebook Zero.
00:04:11 Když jste přes smartphone připojeni na Facebook,
00:04:15 máte data zadarmo.
00:04:18 A tak jsou lidé na Facebooku pořád.
00:04:22 Nikam jinam nechodí,
00:04:25 jejich pohled na internet jako takový je... velmi omezený.
00:04:31 Nic jiného neznají.
00:04:36 -Facebook je služba poskytovaná zdarma.
00:04:40 To proto, že Zuckerberg našel způsob,
00:04:43 jak naše data přetavit v dolary. Spousty dolarů.
00:04:46 Za minulý rok činily výnosy jeho společnosti 27,5 miliardy dolarů,
00:04:50 což je těsně pod 16 dolarů na uživatele.
00:04:54 A Mark se jal kupovat další internetové společnosti.
00:04:58 -Bezpochyby musíme začít právě tímto tématem.
00:05:01 Koupil jste WhatsApp za 19 miliard dolarů.
00:05:04 Proč jste to udělal a co to znamená?
00:05:07 -Když se podíváte na jiné chatovací aplikace,
00:05:10 ať už je to Cacao, Line nebo WeChat,
00:05:13 které už brzy od svého začátku
00:05:15 vydělávají 2 až 3 dolary na uživatele, řekl bych,
00:05:18 že když pomůžeme WhatsAppu ještě povyrůst,
00:05:21 bude z toho skvělý byznys.
00:05:23 -Facebook vlastní WhatsApp, koupil Instagram a Oculus Rift.
00:05:27 Není to zrovna mainstream,
00:05:30 ale na internetu jsou to pořád velká jména.
00:05:33 Neměli bychom se obávat monopolu?
00:05:37 -Vždy bychom se měli obávat monopolu.
00:05:41 Vždy bychom se měli obávat příliš velké moci.
00:05:45 A nikdy bychom neměli dopustit, aby se to dostalo příliš daleko.
00:05:50 -Facebooku jde hlavně o sbližování lidí.
00:05:54 Lidé z celého světa se spojují a dělají něco společně.
00:05:58 Komunikují s přáteli a rodinou, baví se spolu.
00:06:02 -Facebook se prezentuje jako digitální platforma,
00:06:05 neutrální jeviště, na kterém se odehrává život.
00:06:09 -2016. Všichni jsme tu byli společně.
00:06:12 -Tvrdí, že je to společnost rozvíjející digitální technologie,
00:06:16 nikoli sociální inženýrství.
00:06:19 Facebook se ohání sbližováním lidí,
00:06:22 ale není ani demokratický, ani transparentní.
00:06:25 -Všechno je osobnější.
00:06:27 Každé místo, kam chodíme, které není skutečně svobodné,
00:06:31 které neovládáme my jako uživatelé,
00:06:34 ale někdo jiný bez jakéhokoliv omezení,
00:06:37 vlastně není doopravdy naše. Je to místo, které můžeme využívat.
00:06:41 V mnoha ohledech nám poskytuje ohromnou přidanou hodnotu,
00:06:45 nicméně není správné ho vnímat jako neutrální.
00:06:50 -Jeho vlastník může jednat jako vláda.
00:06:53 V některých ohledech to tak vážně je.
00:06:56 Už proto si myslím,
00:06:58 že o Facebooku a podobných internetových platformách
00:07:01 skutečně nemůžeme tvrdit, že by byly demokratické.
00:07:05 To nejsou.
00:07:10 -Když řekneme počítači,
00:07:13 aby se zaměřil na dvě čísla a porovnal je,
00:07:16 to větší dal na jednu stranu a to menší na druhou,
00:07:20 stačí několik kroků a vše je uspořádáno jinak.
00:07:24 -Pokud chceme pochopit, jak Facebook funguje,
00:07:27 je potřeba obsáhnout, co se děje za oponou.
00:07:30 Celý systém je postaven na algoritmech, sadách instrukcí,
00:07:34 pomocí kterých facebookoví inženýři určují, jaké příspěvky uvidíme.
00:07:38 Doktorka Suelette Dreyfusová, odbornice na informační systémy,
00:07:42 nám ukáže, jak takový základní algoritmus funguje.
00:07:46 -Algoritmy se běžně používají ke zpracování dat
00:07:49 nebo k provádění matematických operací, například sčítání.
00:07:53 Dále se dají využít k rekonstrukci rozhodovacího procesu v našem mozku
00:07:58 a napodobení jeho fungování na vyšší úrovni.
00:08:05 -Algoritmy Facebooku měly zpočátku pomáhat studentům
00:08:09 Harvardovy univerzity, aby zůstali v kontaktu.
00:08:13 Pracovaly s tím, že studenti kolem sebe mívají
00:08:16 menší skupinu blízkých přátel, a širší, volnější okruh známých.
00:08:20 Algoritmy jsou nyní mnohem složitější.
00:08:24 A to, jak přesně fungují,
00:08:26 je přísně střežené obchodní tajemství.
00:08:29 My každopádně víme, že jsou vytvořeny s jediným cílem:
00:08:32 Udržet nás připojené tak dlouho, jak jen to bude možné.
00:08:36 -Mají nám pomáhat a zobrazovat informace,
00:08:39 které jsou pro nás relevantní,
00:08:42 ale nesmí nás ani na chvilku napadnout, že jsou tam jen proto.
00:08:46 Algoritmy totiž mají Facebooku hlavně vydělávat.
00:08:50 -To je na Facebooku opravdu dobře vymyšlené.
00:08:53 Je to vlastně obří agentura,
00:08:56 která nám prostřednictvím své platformy nabízí reklamu.
00:09:03 Sleduje, co děláme, s kým jsme ve spojení,
00:09:07 jaké stránky si prohlížíme, a na základě toho
00:09:10 poměrně přesně vyvozuje, jaké příspěvky chceme vidět,
00:09:14 a jakou reklamu nám ukázat, abychom si něco koupili.
00:09:22 Svět staromódních grafických reklam je naší realitou.
00:09:26 Times Square by bez nich ztratilo svou tvář.
00:09:29 Tyto reklamy nás však pobízejí
00:09:32 ke koupi výrobků či služeb velmi těžkopádně.
00:09:35 Facebook na rozdíl od nich využívá ohromné množství dat,
00:09:38 která shromažďuje o každém z nás,
00:09:41 a oslovuje nás reklamami jako ušitými na míru.
00:09:44 To tu ještě nebylo. A každému, kdo v tomto oboru podniká,
00:09:47 dává do rukou páku s dosud nevídanou silou.
00:09:51 Díky tomu, co do sítě posíláme, Facebook pozná,
00:09:54 čím se zrovna zabýváme, na co myslíme, a umí toho využít.
00:09:59 -Facebook moc dobře ví, jak se cítíme,
00:10:03 jakou máme náladu, jak na ostatní reagujeme.
00:10:06 Všechno si to dokáže dát dohromady a zjistit,
00:10:09 kdo jsou naše bývalky, naši současní přátelé,
00:10:13 naši staří přátelé, naši noví přátelé.
00:10:15 -Tvrdíte, že Facebook dokáže zjistit, jakou máme náladu?
00:10:19 -Ano.-Může ovlivnit naše nákupní chování?
00:10:23 -Jistě, jde o chování obecně, ne jen při nakupování.
00:10:28 -Umějí udělat přesně cílenou reklamu. Dám vám příklad.
00:10:33 Nechováme se vždy přiměřeně našemu věku ani genderovým stereotypům.
00:10:37 Řekněme, že se ženě středního věku líbí rap.
00:10:41 Už je jí nanic z reklam na redukční diety.
00:10:44 Napíše na Facebook, že má ráda písničku Setha Sentryho,
00:10:48 a začnou jí vyskakovat reklamy na streamovací služby.
00:10:51 Něco, co by si opravdu mohla koupit.
00:10:53 -Napíšete to do rámečku tady nahoře.
00:10:56 -Adam Helfgott vede digitální marketingovou společnost.
00:10:59 Používá nástroj zvaný Facebook Pixel.
00:11:02 Facebook ho poskytuje inzerentům,
00:11:05 aby ho zapracovali do kódu svých stránek.
00:11:08 Mohou pak sledovat každého, kdo je navštíví,
00:11:10 a zacílit na něj reklamou na Facebooku.
00:11:13 -Pokud jste se někdy přihlásili na Facebook,
00:11:15 a je jedno ze kterého prohlížeče,
00:11:17 je slušná pravděpodobnost, že budou vědět, že jste to vy.
00:11:21 Ani nemusíte být přihlášení. Stačí, že jste tam někdy byli.
00:11:24 Platí to, i když máte úplně nový počítač,
00:11:27 na kterém jste se na Facebook ještě nikdy nepřihlásili.
00:11:30 Ze začátku nebudou vědět, že jste to vy,
00:11:33 ale pomocí svých algoritmů a vašeho chování na to nakonec přijdou.
00:11:37 -Stačí tedy, abyste tuto část kódu vložili na své stránky.
00:11:41 Díky nasbíraným datům pak dohledáte lidi,
00:11:45 kteří si vaše stránky prohlíželi, a zacílíte na ně reklamu.
00:11:50 -Přesně tak.
-Na Facebooku.-Ano.
00:11:53 -To je poněkud děsivé.
00:11:56 Neporušují se tím nějaké předpisy na ochranu soukromí?
00:11:59 -Z právního hlediska je to v pořádku.
00:12:02 Tak to dnes na internetu chodí.
00:12:05 A tak se pracuje s nástrojem, který Facebooku pěkně vynáší.
00:12:12 -Pro inzerenty je to nesmírná výhoda.
00:12:16 Získají přístup k nejcitlivějším informacím z našich životů.
00:12:20 Megan Brownlowová je mediálním stratégem v pobočce
00:12:24 Price Waterhouse Coopers v Sydney.
00:12:27 -Když si například nějaká mladá žena změní status na "zasnoubená",
00:12:32 začnou na ni najednou vyskakovat reklamy na svatební salony.
00:12:36 Podobné úkony naznačují, co by ji mohlo zajímat.
00:12:40 Průzkum mezi zákazníky ukázal, že se jim reklama nelíbí,
00:12:44 pokud pro ně není relevantní. Pokud se jedná o něco,
00:12:48 co by mohli chtít, zas až tolik jim nevadí.
00:12:52 Z tohoto úhlu pohledu to tedy špatné není.
00:12:56 A určité skupině lidí to vyhovuje.
00:13:02 -Nik Cubrilovic je bývalý hacker,
00:13:06 ze kterého se stal bezpečnostní poradce.
00:13:09 Dokáže zjistit, jakým způsobem nás kdo sleduje.
00:13:12 Jednoho dne učinil objev, který otřásl internetem.
00:13:15 Přišel na to, že Facebook sleduje a ukládá
00:13:18 velké množství historie našeho prohlížeče,
00:13:21 i když zrovna nejsme přihlášeni. A dokonce i v případě,
00:13:25 že na Facebooku nejsme vůbec registrovaní.
00:13:28 A nejde s tím nic dělat. Pokud se někomu Facebook znelíbí,
00:13:33 pokud někomu ty věci, které popisujete,
00:13:36 nepřipadají košer, nestačí smazat svůj profil?
00:13:39 -Na internetu je nesmírně obtížné dostat se z dosahu Facebooku.
00:13:42 Mají to na háku.
00:13:44 I v případě, že smažete svůj profil a odhlásíte se ze všech služeb,
00:13:48 pořád ho i díky těm tlačítkům na sdílení obsahu a tak dále,
00:13:52 budou schopni udržovat za vás. Jenom to bude vypadat trochu jinak.
00:13:57 -Ani nám jasně neřeknou, co vlastně dělají.
00:14:01 Něco tvrdí, ale nemá to dostatečnou výpovědní hodnotu.
00:14:06 Kdyby o mně někdo chtěl sestavit spis
00:14:09 na základě informací z Facebooku, jak by asi vypadal?
00:14:14 Něco takového bych měla vědět,
00:14:17 abych se při používání této platformy mohla řádně rozhodovat.
00:14:29 -Facebook neovlivňuje jen naše nákupní chování.
00:14:33 Mění svět, ve kterém žijeme.
00:14:43 -Samozřejmě chtějí,
00:14:46 aby byly jejich služby dostupné všem na celé planetě.
00:14:50 Z obchodního úhlu pohledu je to jasný cíl.
00:14:53 Ale jestli to učiní svět lepším místem pro život,
00:14:57 to je jiná otázka.
00:14:59 -Vybudovali velký byznys, velkou sociální síť,
00:15:02 a nemají moc jen nad ním.
00:15:04 Můžou celkem v klidu ovlivňovat chod světových dějin.
00:15:11 -Přesně to se stalo v ulicích Káhiry.
00:15:15 V lednu 2011 se tam shromáždily miliony lidí
00:15:20 požadující rezignaci autokratického prezidenta Husního Mubaraka.
00:15:25 Tato událost bývá označována jako facebooková revoluce.
00:15:29 Organizátoři akce svolali davy demonstrantů
00:15:34 prostřednictvím Facebooku. Dařilo se jim to natolik,
00:15:38 že se vláda pokusila odstřihnout internet.
00:15:49 Prezident Mubarak odstoupil po pouhých osmnácti dnech.
00:15:55 -Na několik měsíců nebo přinejmenším týdnů
00:16:00 po událostech na náměstí Tahrir a začátku arabského jara,
00:16:04 se Facebook stal symbolem komunikačního kanálu,
00:16:07 díky němuž se lidé dokázali lépe domluvit,
00:16:12 vyjádřit a sdílet informace. Rád o tom silném zážitku vyprávím.
00:16:17 Na náměstí Tahrir se dokonce dala koupit trička s nápisem
00:16:21 "Facebook, nástroj revoluce".
00:16:24 -Jsem si dobře vědom, jak efektivní Facebook může být.
00:16:28 Před třemi lety jsem se kvůli neoprávněnému obvinění z terorismu
00:16:34 ocitl v egyptském vězení. Moje rodina využila Facebook
00:16:38 k oslovení a informování mých podporovatelů a komunikaci s nimi.
00:16:42 V této kampani to byl jeden z nejdůležitějších nástrojů,
00:16:46 které mě nakonec z vězení dostaly.
00:16:49 Na facebookové stránce byly aktuální informace k mému případu.
00:16:54 A díky algoritmům se dostaly i k lidem,
00:16:57 kteří by se o tento problém mohli zajímat,
00:17:01 a mohli pomoci, aniž by o něm kdy vůbec slyšeli.
00:17:09 -Petere.
-Jak se máš? Rád tě vidím.
00:17:12 -Já tebe taky.-Bezva.
-Pojďme dovnitř, je zima.
00:17:22 -Mohameda Soltana také zatkli při demonstracích.
00:17:26 Byl ve stejném vězení jako já.
00:17:29 -Objevil se tento komunikační kanál,
00:17:32 který lidé hojně využívali, protože ve veřejném prostoru
00:17:35 jinak nebylo možné se svobodně vyjádřit.
00:17:38 Objevili Facebook i jako spojení s vnějším světem.
00:17:41 Psali tam své názory na problémy sociální spravedlnosti
00:17:45 nebo na nerovnoprávnosti, se kterými se každodenně setkávali.
00:17:49 Později si uvědomili, že se spoustou lidí
00:17:53 mají stejný postoj k mnoha různým věcem.
00:18:01 -Z vězení ho pustili až po táhlém soudním sporu,
00:18:05 500 dnech hladovky a silném mezinárodním tlaku.
00:18:10 I pro něj se Facebook stal neocenitelným nástrojem.
00:18:17 -Na Facebooku bylo na rozdíl od jiných platforem
00:18:21 a sociálních médií možné zveřejnit lékařské zprávy.
00:18:25 Díky němu mohla moje rodina celý ten příběh sdílet
00:18:29 a podložit ho fakty, aby ho nikdo nezpochybňoval.
00:18:35 -Facebook je téměř ideálním místem
00:18:39 pro sdružování lidí se stejnými zájmy,
00:18:42 ať už se jedná o lidi, kteří žijí na jednom místě,
00:18:46 mají stejného koníčka
00:18:49 nebo jsou otroky nebezpečné ideologie.
00:18:59 -I v Austrálii se stal Facebook vlivným politickým nástrojem
00:19:03 na podporu rozvoje veřejného blaha a menšinových skupin.
00:19:07 -Nezastávají vaše zájmy. Zastávají zájmy
00:19:10 unifikující globální politiky, která ničí naše kulturní tradice!
00:19:15 Chtějí nám tu stavět mešity a zaplavit naši krásnou zemi
00:19:19 uprchlíky ze třetího světa! Tohle vážně chceme?
00:19:23 -Blair Cottrell vede skupinu zvanou United Patriots Front,
00:19:27 pravicové hnutí opírající se o Facebook,
00:19:30 které po celé Austrálii brojí proti muslimům a uprchlíkům.
00:19:35 -Facebook nám nesmírně pomáhá.
00:19:38 Pro rozvoj naší organizace je nepostradatelný.
00:19:42 Bez něj by nás lidi nejspíš vnímali jako nějakou nekonformní skupinku
00:19:47 a nikdo by se s námi nedokázal ztotožnit,
00:19:50 protože by se našich akcí neúčastnil
00:19:53 a jenom o nás slyšel ze zaběhnutých médií.
00:19:57 Islám může být hrozbou pro náš národ,
00:20:00 pokud naše slabé vedení,
00:20:03 nebo spíš absence vedení, bude pokračovat!
00:20:07 -Facebook napomohl proměnit neobvyklou skupinu jednotlivců
00:20:11 v politickou sílu, o které někteří tvrdí, že je nebezpečná.
00:20:17 -Umožňuje nám fungovat bez prostředníků
00:20:20 a mít vazbu přímo na lidi, publikum.
00:20:23 S našimi myšlenkami můžeme oslovovat národ přímo,
00:20:27 což je moc, kterou doposud měla jen zaběhnutá média a ti,
00:20:31 kdo promlouvali skrze ně. Ale to se změnilo.
00:20:35 Teď má takovou moc každý.
00:20:42 -Do některých provokativních prohlášení skupiny zasáhla cenzura.
00:20:46 Blair byl stíhán za zorganizování fingované veřejné popravy,
00:20:50 kterou skupina nafilmovala a umístila na Facebook.
00:20:53 Ten některé její příspěvky včetně videa s popravou vymazal
00:20:57 a pohrozil, že ji zablokuje.
00:21:00 -Facebook některé naše příspěvky vymazal nebo cenzuroval,
00:21:04 protože jsme například použili slovo muslim.
00:21:07 A vůbec ne ve zlém. Jen jsme popisovali nějakou událost
00:21:12 nebo úhel pohledu a použili to slovo.
00:21:15 Facebook to někdy zaznamená
00:21:18 a z nějakého důvodu automaticky smaže.
00:21:20 Nevím, jestli to dělá člověk nebo nějaký program,
00:21:23 ale je to docela nepříjemné.
00:21:26 Abychom se vyhnuli mazání našich příspěvků,
00:21:29 když mluvíme o lidech vyznávajících islám,
00:21:32 začali jsme psát slovo muslim jinak.
00:21:40 -Facebook sklízí kritiku za způsob cenzury rozporuplných příspěvků.
00:21:44 Pokud některý z nich kdokoli označí za hanlivý nebo nevhodný,
00:21:48 zaměstnanci Facebooku pak musí rozhodnout,
00:21:51 jestli příspěvek zůstane zveřejněný, nebo ne.
00:21:54 Zástupci této sociální sítě tvrdí,
00:21:57 že takových případů se řeší na sto milionů měsíčně.
00:22:01 -Lidé jsou pod velkým tlakem. Musejí zkontrolovat
00:22:05 ohromné množství obsahu za velmi krátkou dobu.
00:22:09 A já samozřejmě poměrně často slýchám o rozhodnutích,
00:22:13 která se zdají být chybná. Některá z nich jsou absurdní.
00:22:17 Jako třeba na konci roku 2015,
00:22:21 kdy Facebook zrušil profily mnoha ženám jménem Isis,
00:22:25 protože je nejspíš někdo označil za teroristky.
00:22:34 -Poté, co mě egyptský soud obvinil z terorismu,
00:22:37 byl zablokován i můj profil.
00:22:40 Nikdy nám nikdo přesně nevysvětlil, proč zmizel.
00:22:43 Facebook tvrdí, že to bylo kvůli ochraně mého soukromí.
00:22:47 Máme za to, že mě někdo označil za teroristu,
00:22:50 a já tak z tohoto popudu porušil to,
00:22:53 co Zuckerberg nazývá "zásady komunity".
00:22:56 -Nastavit společné standardy pro téměř 2 miliardy lidí
00:23:00 je v podstatě nemožné.
00:23:03 V naší rozdílnosti je vlastně naše síla. Je třeba si uvědomit,
00:23:07 že globální komunitu tvoří diametrálně odlišní lidé.
00:23:12 -Jmenujme nechvalně známý příklad, kdy Facebook vymazal příspěvek
00:23:16 s jedním z nejsilnějších snímků války ve Vietnamu.
00:23:20 Fotografie nahé dívky porušovala zásady komunity.
00:23:24 -Zásady komunity vytvořili jeho zaměstnanci.
00:23:29 Nikoliv uživatelé.
00:23:33 Říká se jim sice zásady komunity, ale sestavil je Facebook.
00:23:39 Občas se v nich něco pozmění, třeba na popud nějaké vlády.
00:23:44 Nedávno na něj několik vlád apelovalo,
00:23:47 aby upravil zásady komunity, a byl tvrdší vůči extremistům.
00:23:52 A tak se i stalo. Nicméně rozhodně tyto zásady
00:23:56 nesepsali uživatelé na základě nějaké diskuse.
00:24:02 -Facebook mění také politickou scénu.
00:24:08 Politici samozřejmě využívají sociální média už mnoho let,
00:24:12 jenže v posledních volbách využili tvůrci kampaní
00:24:16 velké objemy dat k radikální změně americké politiky.
00:24:20 Slovy některých pozorovatelů použili data jako zbraň.
00:24:23 Právě míříme do Washingtonu D.C., abychom zjistili,
00:24:27 jak Facebook zasáhl do boje o politickou moc.
00:24:33 Kdo chce takovou mocí disponovat, potřebuje informace.
00:24:37 Proto vládní agentury neváhají činit velmi neobvyklá opatření,
00:24:41 jen aby zabránily úniku informací.
00:24:44 Ty jsou totiž stále důležitějším klíčem k nabývání moci.
00:24:48 -Podle mě se můžeme oprávněně domnívat,
00:24:52 že Facebook ovlivnil výsledky voleb ve Spojených státech amerických.
00:24:56 Mám za to, že Facebook a jeho algoritmy jsou vedlejším,
00:25:00 nebo možná i hlavním důvodem, proč se dnes voliči
00:25:04 až nezdravě upínají k jedné politické straně.
00:25:13 -Naše hranice budou brzy velmi dobře zabezpečené!
00:25:18 -Když se v minulém roce stal hlavním kandidátem
00:25:21 na prezidenta Spojených států Donald Trump,
00:25:24 několik kapacit předpovědělo, že opravdu zvítězí.
00:25:28 Jednou z tajných zbraní jeho kampaně
00:25:31 byl velmi detailní průzkum dat sociálních médií.
00:25:33 Pomohlo mu to porozumět svým voličům
00:25:37 a oslovit je účinněji, než bylo kdy dříve možné.
00:25:42 -Stačilo použít nástroj Facebooku na cílení reklamou a věděli,
00:25:47 jestli někdo z voličů, kteří nevolí stále stejnou stranu,
00:25:52 třeba nedal like stránce republikánů Bernieho Sanderse
00:25:56 nebo Donalda Trumpa.
00:25:58 Pak je můžete oslovit s žádostí o finanční příspěvek.
00:26:02 Můžete se zaměřit přímo na tyto voliče.
00:26:04 Je to mnohem spolehlivější způsob cílení na internetu
00:26:08 než jakýkoli jiný.
00:26:11 -Politický stratég Patrick Ruffini provozuje společnost
00:26:14 těžící velké objemy dat pro Republikánskou stranu.
00:26:17 Vytváří mapy sociálních médií,
00:26:19 které republikánům pomáhají dostat svá politická sdělení
00:26:22 k pečlivě vybraným lidem.
00:26:25 -Získáváme tak mnohem jasnější, diverzifikovanější
00:26:28 a přesnější představu o tom, jak se to u jednotlivých voličů
00:26:32 a v jednotlivých oblastech bude vyvíjet.
00:26:35 Dělali jsme průzkum asi u tisíce registrovaných voličů v celé zemi,
00:26:40 ale přesto není možné s jistotou určit,
00:26:44 pro co se daný stát nebo volič nakonec rozhodnou.
00:26:54 -Já Donald John Trump slavnostně přísahám,
00:26:58 že budu čestně vykonávat funkci prezidenta Spojených států.
00:27:05 -Jedna věc je znát voliče, druhá je přimět je ke změně názoru.
00:27:09 I s tím dokáže Facebook pomoci.
00:27:17 -Strategie, kdy vezmete ohromné množství dostupných dat
00:27:21 a uděláte poctivou hloubkovou analýzu,
00:27:25 abyste poznali obchodní chování malých skupin zákazníků,
00:27:29 se dá použít i pro politické účely.
00:27:32 To je poměrně znepokojující,
00:27:35 protože to vlastně umožňuje politikům úspěšněji lhát.
00:27:41 -Pokud například v televizi učiníte nějaké politické prohlášení,
00:27:45 všichni se dozví, kdo si to zaplatil.
00:27:48 Na internetu se to zjistí velmi zřídka. Budu konkrétnější.
00:27:52 Na nějakých zpravodajských stránkách třetí strany
00:27:55 najdu článek o úžasném činu nějakého politika.
00:27:58 Nemůžu vědět, jestli to třeba není součást politické propagandy
00:28:02 zacílené přímo na mě, protože informace,
00:28:04 kdo za článkem stojí, není nikde uvedena.
00:28:07 -Chápu to,
00:28:10 přesto mě inzerce a cílené reklamy založené na sběru dat znepokojují.
00:28:16 Ještě hůř mi je, když si uvědomím, že tato neviditelná ruka má moc
00:28:21 ovlivňovat americké volby a to, jakým způsobem probíhají.
00:28:32 -Jednou z nejdůležitějších součástí jakékoli demokracie jsou zprávy.
00:28:36 Téměř polovina Američanů
00:28:38 k nim hledá cestu prostřednictvím Facebooku.
00:28:41 Při posledních prezidentských volbách
00:28:44 došlo k enormnímu nárůstu takzvaných fake news,
00:28:47 falešných zpráv na síti.
00:28:49 -Vypadají sice jako zprávy, fungují jako zprávy,
00:28:52 jsou sdíleny jako zprávy,
00:28:55 ale neslučují se s tradičním pojetím toho,
00:28:58 k jakému účelu zprávy slouží, a čeho by měly dosahovat.
00:29:02 Točí se to kolem Facebooku.
00:29:04 Tato společnost o tom ví a rozhoduje.
00:29:07 Mám za to, že by byli radši, kdyby to dělat nemuseli.
00:29:13 -Adam Schrader je novinář, který pro Facebook pracoval
00:29:17 se zprávami v sekci Populárních témat či Trendů.
00:29:21 Jednou z jeho povinností bylo vyřazování fake news.
00:29:24 -V našem oddělení to fungovalo jako v klasické redakci.
00:29:28 Editoři ověřovali fakta a kontrolovali,
00:29:32 jestli příspěvky splňovaly zásady komunity a byly nezaujaté.
00:29:36 Často se stávalo, že falešné zprávy někdo vytvořil
00:29:40 se záměrem dostat je mezi běžné populární zprávy.
00:29:44 A naše práce spočívala v jejich odhalování
00:29:48 a zařazování na takzvanou "černou listinu".
00:29:52 -V průběhu emotivních prezidentských voleb
00:29:55 nařkli pravicoví reportéři Adamův tým, že je zaujatý.
00:29:59 Facebook ho rozpustil a nahradil algoritmem.
00:30:02 -Žádný algoritmus nemůže spolehlivě zastat práci zkušeného novináře.
00:30:07 Nemá rozum.
00:30:09 Umělá inteligence ještě není na takové úrovni jako lidský mozek,
00:30:13 aby dokázala rozlišit,
00:30:15 které zprávy mají nějakou výpovědní hodnotu,
00:30:18 které čtenářům něco přinesou, a které ne.
00:30:21 -Podle Schradera se po rozpuštění týmu
00:30:24 začalo falešným zprávám velice dařit.
00:30:27 -Když nás propustili, nastaly velké problémy se senzačními,
00:30:31 fakticky nepřesnými nebo zavádějícími
00:30:34 populárními zprávami a jejich zdroji.
00:30:38 To byla opravdu katastrofa.
00:30:44 -Čím straničtější média upřednostňujete,
00:30:48 tím je menší pravděpodobnost,
00:30:51 že budete věřit odborníkům a lidem ověřujícím fakta.
00:30:54 Proto se z některých lidí stávají nebezpeční štváči
00:30:58 uznávající pouze svou vlastní pravdu.
00:31:01 -Během loňských prezidentských voleb
00:31:04 se na jednom zpravodajském serveru objevila zpráva,
00:31:07 podle které Hillary Clintonová a šéf její kampaně John Podesta
00:31:11 provozovali organizaci na obchod s dětmi,
00:31:14 které měli zadržovat v restauraci Comet Ping Pong Pizza
00:31:17 ve městě Washington.
00:31:19 Tuto zprávu uživatelé Facebooku hodně sdíleli.
00:31:23 Prokázalo se, že byla falešná. Ale přitáhla tolik pozornosti,
00:31:27 že jeden 28letý muž nakonec vyrazil do restaurace s útočnou puškou,
00:31:31 pistolí a brokovnicí, aby děti zachránil.
00:31:35 -Přiběhla servírka a říkala: "Viděli jste toho chlápka?
00:31:38 Má velkou zbraň!"
00:31:41 -Než ho policie zatkla, několikrát v restauraci vystřelil.
00:31:45 Ona zpráva je na Facebooku i jinde na internetu stále dostupná.
00:31:51 -Nevěřím, že by veřejnost dokázala rozlišit,
00:31:55 které zprávy jsou skutečné, a které falešné.
00:32:01 To opravdu ne.
00:32:05 -Z jedné studie vyplynulo, že v závěrečných měsících
00:32:10 prezidentských voleb, sdíleli uživatelé Facebooku
00:32:13 20 nejčtenějších falešných zpráv více než milionkrát častěji
00:32:17 než 20 nejčtenějších zpráv tradičních zpravodajských serverů.
00:32:22 Fake news často vznikají kvůli politice nebo zisku.
00:32:25 -Mnoho lidí, kteří za nimi stojí, nejsou novináři nebo zpravodajové.
00:32:31 Nemají žádnou žurnalistickou etiku.
00:32:34 Nacházíme se tedy ve zcela nové situaci.
00:32:37 Podle mě je nesmírně důležité,
00:32:39 abychom na toto téma rozpoutali rozsáhlou veřejnou diskusi,
00:32:43 protože zprávy se změnily a s nimi i náš svět a společnost.
00:32:50 -Pokud odhalíte fake news, můžete je nahlásit.
00:32:55 -Mark Zackerberg původně odmítl,
00:32:58 že by falešné zprávy volby nějak ovlivnily.
00:33:01 Nicméně zavedl systém
00:33:03 umožňující facebookové komunitě podezřelé zprávy nahlásit.
00:33:07 -Řekl, že zprávám nerozumí.
00:33:09 Facebook prej není mediální společnost.
00:33:12 Podle mě to ale není pravda a záměrně to popírá.
00:33:16 Bezpochyby je to mediální společnost a já si myslím,
00:33:20 že by se tak v budoucnu měla zkusit začít chovat.
00:33:25 -Stále více lidí čte zprávy v digitální podobě
00:33:29 a zejména na Facebooku.
00:33:31 Staromódní svět novin a televizního zpravodajství se hroutí.
00:33:35 Své o tom ví i deník New York Times.
00:33:39 Facebook na jejich zprávy sice odkazuje mnoho čtenářů,
00:33:43 avšak většina peněz za reklamu jde právě do jeho kapsy.
00:33:47 Redakcí ubývá,
00:33:50 stejně tak i prostředků na seriózní žurnalistiku.
00:33:54 -To uslyšíte od malých médií po velká.
00:33:57 Počet jejich čtenářů je sice větší, než kdy byl,
00:34:01 což musí znamenat mnohé, ale rozhodně ne zisky.
00:34:05 Nemyslím, že by se na světě našla
00:34:08 byť jediná větší zpravodajská entita,
00:34:11 která by svou činnost opravdu nějak nepropojila s Facebookem.
00:34:15 A tím mám na mysli způsob tvorby zpráv,
00:34:18 úhel pohledu na ně i to, jak vydělávají peníze.
00:34:22 -Ve vnímání světa kolem nás hraje Facebook stále důležitější roli.
00:34:26 Výzkum změn nálad uživatelů ukázal,
00:34:29 že tato sociální síť dokáže ovlivnit, jak na svět nahlížíme.
00:34:33 Když její vědci odhalili,
00:34:36 jak manipulovali s příspěvky 700 tisíc lidí,
00:34:39 sklidili kritiku, že si potají hráli s jejich psychikou.
00:34:43 Přesto to algoritmy Facebooku dělají každý den,
00:34:46 aby nás udržely déle připojené. A abychom viděli více reklam,
00:34:50 vybírají zprávy, o nichž ví, že je chceme vidět.
00:34:55 -Facebook podle mě nemůžeme vnímat jako kamaráda.
00:34:59 Myslím si, že má ohromný vliv na to,
00:35:01 jak vnímáme okolí a žijeme naše životy.
00:35:05 Ale i proto je tato síť a jí podobné
00:35:09 zároveň tak zajímavá a významná.
00:35:17 -Mark Zackerberg už plánuje,
00:35:19 jak by Facebook mohl ztělesňovat ještě více.
00:35:22 Chce, abychom s jeho pomocí řešili uspořádání společnosti,
00:35:26 objevovali svět a řídili politiku.
00:35:29 Chce, aby uživatelé svěřovali Facebooku informace,
00:35:32 a ten na ně zatím dohlížel.
00:35:35 -Myšlenkou všeho, co s Facebookem děláme, je,
00:35:38 že nás komunita může naučit cokoli, co od nás očekává.
00:35:42 Naším úkolem je se to co nejrychleji naučit
00:35:45 a pořád se v tom zlepšovat.
00:35:47 To platí zejména v případě bezpečnosti uživatelů.
00:35:50 -V únorovém příspěvku na svém vlastním profilu prezentoval,
00:35:54 jaké má s Facebookem plány.
00:35:56 Byl to takový manifest vykreslující ústřední roli Facebooku
00:36:00 ve společenstvích po celém světě.
00:36:03 -Také se zaměříme na budování infrastruktury pro komunitu.
00:36:07 Pro její podporu, ochranu, informovanost,
00:36:11 občanskou angažovanost a začlenění všech do komunity.
00:36:15 -Z tohoto dokumentu se zdálo, že by to mohl být pokus
00:36:19 o jakési převzetí zodpovědnosti, ale nešlo o žádnou omluvu.
00:36:24 Byl poměrně odvážný a vypadalo to, jako by navrhoval,
00:36:28 že řešením problémů Facebooku, je ještě větší rozšíření Facebooku.
00:36:35 -Zuckerberg je velmi ambiciózní. Píše:
00:36:38 "Kvůli pokroku se lidstvo musí semknout jako globální komunita.
00:36:42 Facebook k tomu může přispět.
00:36:45 Chce pomoci bojovat s terorismem a jeho zpravodajské kanály
00:36:48 nám mohou zobrazovat různorodější obsah."
00:36:52 -Poslední dobou se chová spíše jako politik
00:36:56 než jednatel společnosti.
00:37:01 Hodně se spekuluje, že by mohl kandidovat na prezidenta.
00:37:05 Pokud bude Facebook stejně úspěšný jako doposud,
00:37:08 nejen díky Facebooku jako takovému,
00:37:11 ale i díky jeho dalším produktům jako Instagram nebo WatsApp,
00:37:15 pokud bude i nadále hrát tak důležitou roli v našich životech,
00:37:19 tak podle mě ani kandidovat nemusí.
00:37:22 Bude vládnout platformě a místu,
00:37:25 kde lidé tráví velkou část svých životů.
00:37:29 -Zdá se, že pro Facebook není mnoho překážek na cestě
00:37:33 k ještě většímu sepětí se svými uživateli,
00:37:36 ať už je to dobře, nebo ne.
00:37:38 -Rád bych vám poděkoval, že jste se k nám připojili,
00:37:41 a chcete si poslechnout víc o rozpracovaných projektech
00:37:44 na ochranu našich komunit.
00:37:46 -Zackerberg založil takzvané Social Good Forum na pomoc lidem,
00:37:49 jejichž příspěvky na Facebooku by mohly naznačovat,
00:37:52 že by si mohli chtít ublížit nebo spáchat sebevraždu.
00:37:56 -Využíváme například umělou inteligenci
00:37:58 k odhalování škodlivého či nebezpečného obsahu.
00:38:02 Ta také zaznamená, když někdo v příspěvku napíše něco,
00:38:05 co by mohlo vyvolat zdání, že by si chtěl ublížit.
00:38:08 Takovým lidem a jejich přátelům můžeme poskytnout nástroje
00:38:11 pro prevenci sebevražd a potřebnou pomoc.
00:38:15 -Lidé a společnosti s možností získat a shromažďovat o nás
00:38:19 velké množství dat ze všech oblastí našich životů
00:38:23 tímto způsobem získávají i jistý druh moci.
00:38:29 Mohou říct, podívejme, to jsou vaše každodenní návyky.
00:38:34 Z jednoho výzkumu vyplývá, že téměř polovina toho, co děláme,
00:38:39 jsou jen opakující se vzorce z předchozího dne.
00:38:43 Z toho se dá také případně předpovídat,
00:38:46 jak se lidé budou chovat v blízké budoucnosti.
00:38:50 A to je pro lidi, kteří si hodně chrání své soukromí,
00:38:54 možná poněkud znepokojující.
00:38:57 -Když mluvíme o zdání, že by si někdo chtěl ublížit,
00:39:00 je to poměrně silná káva.
00:39:02 Taková věta může mít dalekosáhlé následky.
00:39:05 -Musíme vzít v potaz několik faktorů.
00:39:07 Jako první jmenujme problémy, které už známe.
00:39:10 Počínaje drobnostmi, jako je cílená reklama, která vyzradí,
00:39:13 jaké překvapení vám přítelkyně koupila k narozeninám,
00:39:15 přes 14letého chlapce, který je gay,
00:39:18 ale ještě to nikomu neřekl,
00:39:20 a jeho rodiče to kvůli cílené reklamě zjistí.
00:39:23 Až po možné újmy způsobené v budoucnu.
00:39:26 Co se týká oblasti soukromí, jeden z problémů je,
00:39:28 že všichni máme pouze jednu identitu,
00:39:31 a co se svět jednou dozví, zpátky nevezmeme.
00:39:34 -Facebook se nám dostal pod kůži více
00:39:37 než jakákoli jiná společnost v historii.
00:39:42 -Je povinen informovat lidi, co se s jejich daty děje.
00:39:49 Měla by tedy probíhat jakási diskuse s komunitou na téma,
00:39:53 jestli lidé se způsobem zpracování svých dat souhlasí.
00:40:00 V současné době o tom nevíme dost,
00:40:03 proto o žádné diskusi ani nemůže být řeč.
00:40:08 -Osobní informace zpátky nevezmeme.
00:40:10 Už teď se musíme chránit před tím, co přijde za 5 nebo 10 let.
00:40:15 Trochu mi to připomíná Einsteinův dopis Eisenhowerovi,
00:40:18 ve kterém ho varoval před možnými neblahými dopady
00:40:21 atomové války a uranové hrozby.
00:40:23 Netvrdím, že by to v tomto případě bylo stejně závažné,
00:40:27 ale nacházíme se v bodě, kdy víme, že nějaké nebezpečí existuje.
00:40:31 Jen nevíme, jak je velké, a kam až to může dojít.
00:40:39 -Naše životy se dnes dají rozložit na jedničky a nuly.
00:40:43 Vše, co si prohlížíme, s kým mluvíme, a co děláme,
00:40:46 je zaznamenáváno v digitální podobě.
00:40:49 Tím, že tyto informace svěřujeme Facebooku,
00:40:52 děláme ze společnosti Marka Zackerberga
00:40:55 jednu z nejmocnějších vůbec.
00:40:58 Otázkou je, nebudeme toho litovat?
00:41:11 Skryté titulky: V. Červínová, Česká televize 2018
V roce 2014 zveřejnili vědci na Facebooku výsledky jednoho z největších psychologických experimentů všech dob. Manipulovali s profily téměř sedmi set tisíc uživatelů, aby se jim zobrazovaly spíše kladné nebo záporné příspěvky. Poté využili sofistikované algoritmy a zmapovali změny nálad těchto lidí. Co zjistili? Čím kladnější příspěvky byly, tím šťastnější se jevili i uživatelé. Čím byly zápornější, tím na tom byli uživatelé hůř. Výsledky ukázaly, že příspěvky, které na Facebooku vidíme, mají moc ovlivňovat, na co myslíme, a jak se cítíme. Facebook se velmi vychytralým způsobem vetřel do našich životů. Je to rodinné album. Je to prostředek komunikace s přáteli. Je to deník. Je to seznam kontaktů. Stal se součástí běžného života a tento příběh vypráví o jedné z největších a nejmocnějších korporací světa a o tom, jak i bez našeho svolení získává informace o našich životech, které jí následně přinášejí ohromné jmění, ale i moc.