V polovině roku 2016 začal Aviv Ovadya chápat, že s internetem bylo něco špatně. Znepokojilo ho to natolik, že nechal své práce a začal hovořit s technologickými odborníky o hrozbě dezinformační krize, kterou nazval infokalypsou. Jejím základem je podle něj nezdravé prostředí, které vládne na masových sociálních sítích, kde se „největší odměny většinou dostává zavádějícím a polarizujícím informacím“. Charlie Warzel na stránkách The BuzzFeed píše, že tehdejší varování bylo z velké části ignorováno, ale v současné době je již nebezpečí mnohem znatelnější: Náš svět optimalizovaný algoritmy platforem je zranitelný, co se týče propagandy a zavádějících informací. A to natolik, že je ohrožena samotná víra v to, že fakta by měla být důvěryhodná.
Ovadya tvrdí, že současný pohled na informace je již natolik pokřivený, že si to většina z nás ani nedovede představit. A není optimista, protože v budoucnu bude podle jeho názoru situace ještě horší. Ta totiž přinese „technologické nástroje, které budou vytvářet zavádějící realitu, budou s námi manipulovat a vytvoří apatii k realitě“. Z lidí se tak stanou loutky. Ovadya nyní pracuje na University of Michigan, kde se svými kolegy modeluje scénáře dalšího vývoje a většina z nich potěšující není. Technologie, které pokřivují realistické vnímání světa, se totiž podle něj vyvíjejí rychleji než naše schopnost jim porozumět a bránit se jim.
K rozvoji zmíněných technologií přispívá zejména pokrok v oblasti výpočetní síly počítačů a rozvoj umělé inteligence. V budoucnu tak bude možné „vytvářet dojem, že k něčemu došlo, bez ohledu na to, zda tomu tak skutečně bylo“. Nyní se takový scénář může zdát jako nepravděpodobný, ale to samé ještě před nedávnem platilo o možnosti, že se nějaká cizí země bude snažit přes sociální sítě ovlivnit výsledky voleb za jejími hranicemi.
Již nyní se někteří lidé pokoušejí vytvářet pomocí algoritmů například pornografická videa, kde je velmi realisticky nasazena tvář jiného člověka na těla herců. Vědci z University of Washington zase vytvořili program, který dokáže spojit audio záznam s upraveným videem nějaké osoby tak, že budí dojem, že skutečně pronáší slova ze záznamu. Jako důkaz úspěšnosti svého pokusu tento tým vědců „vložil“ do úst známých politiků slova, která nikdy nepronesli.
Představit si můžeme třeba i algoritmus, který by analyzoval stovky hodin záznamů Donalda Trumpa či Kim Čong-Una a pak vytvořil velmi důvěryhodné video, kde by jeden z těchto vůdců vyhlásil druhé zemi jadernou válku. A Ovadya hovoří i o možnosti sledování internetové komunikace vybraného člověka s cílem vytvářet následně falešné a zavádějící zprávy od jeho známých a přátel. Je totiž něco jiného, když nám přijde e-mail s nebezpečným obsahem od neznámého člověka, nebo když budí dojem, že jej poslal přítel, se kterým jsme se již dlouho neviděli.
Infokalypsa tedy může vzniknout kvůli tomu, že lidé budou mít relativně jednoduchý přístup k nástrojům, které mohou vytvářet neexistující realitu. Její další fází by pak mohla být apatie, kdy prostě přestaneme věnovat pozornost všem informacím, které k nám proudí. Jenže pak podle Ovadyi hrozí, že „přestaneme věnovat pozornost i informacím, které jsou nezbytné pro fungování demokracie“ a ta by se tak mohla stát nestabilní.
Pro ty, kteří se pohybují v oblasti umělé inteligence a podobných technologií, nemusí být popsané hrozby zase takovým překvapením. Koneckonců například společnost je již schopná vytvářet velmi realistické obrázky lidí a objektů poté, co analyzuje velký počet skutečných fotografií. Adoba zase vytváří „photoshop pro audio“ a také program, který by měl být schopen bez velké námahy odstranit objekty a lidi z videí. K podkopání důvěryhodnosti navíc nemusí být ani potřeba vytvářet zavádějící videa či záznamy. Může stačit pouze to, že u těch skutečných je zdůrazňován fakt, že mohly být technologicky upraveny.
Ovadya tvrdí, že na přesvědčení veřejnosti o tom, že „nic není pravda“, bude stačit jen pár velkých podvodů. Optimismus podle něj snad můžeme čerpat z rostoucího zájmu o manipulativní propagandu. Částečným řešením by mohly být například kryptografické systémy ověřování obrázků a audio záznamů. Následujících pár let ale bude podle vědce divokých.
Zdroj: Buzzfeed