Videa se stávají nedůvěryhodná
Technika / 1.9.2017

Podobný jev je znám u fotografií, které díky fotomontážím mohou být dokreslovány nebo upraveny. Laik nemusí tuto změnu vůbec postřehnout. Díky moderním technologiím se již dnes dá provádět přesvědčivé manipulace v oblasti videí ale i záznamů lidského hlasu. V budoucnosti se velmi často budeme setkávat, že nám bude libovolná osobnost svým hlasem tvrdit něco velmi kontroverzního. Nezbude nám, než si pokaždé počkat na případné dementi nově vypuštěné informace.      Na internetu se kolikrát uchytí i zjevný HOAX (falešná poplašná zpráva) např. Pozor na pomeranče s krví a HIV. S novými technologiemi a rozvojem umělé inteligence budou podvrhy čím dál tím hůře odhalitelné a nebudou šířeny jen formou fotek a textů.   Zfalšovaný proslov Obamy Na Washingtonské univerzitě nedávno upravili za použití strojového učení (machine learning) video bývalého prezidenta USA. Při změně jednoho z proslovu dřívějšího nejmocnějšího muže planety nezaregistrujete takřka žádný viditelný rozdíl oproti originálu až na obsah slov, které slyšíte.     Obdobný projekt z univerzity ve Stanfordu, Face2Face, umí v reálném čase zaznamenávat mimiku živého herce do videa. Pohyby herce byli okopírovány z projevů například George Bushe nebo Arnolda Shwarzeneggera. Nová metoda ovšem používá algoritmu, který se učí, jak který pohyb obličeje při projevu vypadá. Ideálním adeptem k pokusu byl právě Barack Obama, který má volně…