ЛЪЖИ, ФАЛШИФИКАТИ И ДЪЛБИННИ ФАЛШИФИКАТИ

Измами и схеми в епохата на Тръмп

„Дълбинни фалшификати“ се използват все повече, за да уронват репутацията на политически лидери, да се намесват в избори и да подриват вярата в публичния дискурс. Единствено чрез съгласувани действия на групи от гражданското общество, държави и социални медии посредници може да се унищожи тази нова опасност за демокрацията в зародиш. 

На 22 май 2019 г. председателят на Камарата на представителите Нанси Пелоси изложи своята позиция за потенциален импийчмънт на Тръмп по време на обръщението си на конференция на Центъра за американски прогрес – либерален мозъчен тръст. Тъй като никога не е била особено веща в ораторството, Пелоси се запъна на няколко срички в своята презентация и се спря на няколко думи в речта си. 

След речта се случиха три неща: първо, беше почти непосредствено направен и публикуван онлайн видеоклип – видеоклип, в който говоренето на Пелоси беше забавено, а нейният тон променен, за да създаде впечатлението, че тя е или пияна, или засегната от някаква болест.1 Второ, на следващия ден президентът Тръмп туитна отделен видеоклип с речта на Пелоси, в който ѝ се подиграваше. И трето, програмата Фокс Бизнес излъчи фалшифициран видеоклип, съединяващ моменти от нейната конференция по новините, акцентирайки върху запъванията в речта ѝ. 

Като човек, който никога не пропуска възможността да нападне опонента, адвокатът на президента Руди Джулиани ретуитна подправения видеоклип, като запита: „Какво ѝ е на Нанси Пелоси? Говори странно.“2 Джулиани в крайна сметка изтри туита, но не преди да се е завъртял по дясноориентираните сайтове. Нито президентът, нито адвокатът му се извиниха за своето съучастие в разпространяването на фалшив образ на председателя Пелоси. 

Тази неприятна история отиде отвъд вида „дълбинни фалшификати“, с който бяхме свикнали в ерата на Доналд Тръмп. Тази версия беше уникална с това, че съчетаваше в едно „измамата“ и „схемата“. Първия термин, измама, аз дефинирам като манипулация на визуалните образи. Вторият, схема, е разпространение и усилване на манипулирания образ. Измамата се появява от тъмната стана на мрежата – от държавници и активисти, които е трудно да бъдат идентифицирани (и ако те бъдат идентифицирани, може да бъдат защитени от Първата поправка). Правенето на схема все пак зависи най-вече от платформите с открит достъп, които твърдят, че няма начин за премахване на манипулираните видеоклипове – както Фейсбук първоначално твърдеше, когато избухна скандалът с Кеймбридж Аналитика. (Granville, 2018)

Но измамата с Пелоси само манипулираше имиджа на председателя; тя не я показва как казва нещо, което в действителност не е казала. Не така стоят нещата с един различен, много по-страховит феномен, такъв, който представлява нарастващата опасност за истината, надеждността и демокрацията: употребата на изкуствен интелект за манипулиране на физически образи – дълбинните фалшификати.

* * * 

Терминът „дълбинни фалшификати“ е комбинация от „дълбинно учене“, компютризирано създаване на невронни мрежи с множество слоеве, и „фалшиви новини“, употребата на произведена реалност, за да се атакуват, омаловажат или прикрият реални хора или събития. Подобни измами са в най-добрия случай досадни (а в най-лошия – унищожителни), но истинската опасност е тази, че чрез тяхното разпространение и умножаване дълбинните фалшификати стават част от психологическата тенденция на човешките същества да гледат негативни образи и с това да рушат вярата си в надеждността на публичния дискурс. Както Тифани Ли написа в коментар на циркулацията на подправения видеоклип с Пелоси: „Ние рискуваме да попаднем в такова бъдеще, където никой не може да знае какво е реално – една заплаха за основите на глобалната демокрация.“

Законодателството, теорията на изкуствения интелект и социалната психология трябва да комбинират своите прозрения с цел да разберат и да се борят срещу разпространението на технологията на дълбинните фалшификати. Моят интерес към този феномен възникна от работата ми върху езика и разпространението на съобщенията на социалните движения (Tarrow, 2013). Защото, макар държавниците да са най-видимите потребители на фалшиви новини, движенията са измежду първите, които са наясно какво дигиталната комуникация предполага за слаби играчи като тях. Чрез използването на изкуствен интелект репертоарът на медийните движения се е придвижил на ново технологично ниво. 

Започвам с дефиниция: по думите на изследователите на правото Боби Чесни и Даниел Сайтрън „Технологията за дълбинни фалшификати използва алгоритми за машинно обучение за въвеждане на лица и гласове във видеоклипове и аудиозаписи на реални хора и дава възможност за създаването на реалистични впечатления, които са изцяло дигитализирани“. Резултатът е реалистичен видеоклип или аудиозапис, от който излиза, че някой е казал или направил нещо, което той никога не е казвал или правил. 

Например в статията си Чесни и Сайтрън представят две версии на видеоклип за активиста срещу оръжията Ема Гонзалес – подправен и истински. В истинския образ3 Гонзалес драматизира нейното противопоставяне на културата на оръжията, като разкъсва копие на кръгла мишена. В подправения образ4. кръглата мишена е заменена с конституция на САЩ (Chesney, Citron, 2019).

Независимо от това, че най-опасната област за дълбинни фалшификати е политиката, нейното първоначално приложение е порнографията. Има техника, състояща се в използването на хиляди образи, които прикачат главата на дадена знаменитост към голо тяло, за да изглежда, че знаменитостта е била заснета по време на полов акт. „За наш ужас, пише изследователката на правото Ребека Делфино, сега всеки, който е бил заснет дигитално, може против своята воля да играе в порнография и понастоящем законът не предлага никакви директни мерки, за да бъде предотвратено това“ (Delfino 2019).

* * *

Толкова бързо се е разпространил феноменът дълбинни фалшификати, че Вашингтон Пост стартира уебсайта „проверка на факти“ с класификация на шест форми на фалшиви новини.5 Всяка от тези шест форми изисква в нарастваща степен технологични умения, за да бъде постигната. Представянето на тези форми и предоставянето на пример за всяка една от тях може да бъде от полза при разбирането на последствията от дълбинните фалшификати за политическия ни дискурс. Ще ги разгледаме в реда, в който ги изрежда Пост.

1. Погрешно представяне: представяне на снимка или видеоклип без изменение, но по неточен начин, такъв, който представя погрешно материала и подвежда зрителя. 

Ето и типичен пример: през октомври 2017 г. представителят от Флорида Мат Гетз туитна видеоклип с неидентифициран мъж, който дава пари на жена на улицата.6 Улицата е била в Хондурас, твърдеше Гетз, а парите са били дадени, за да се присъединят тези мъже и жени към пословично известната „каравана“ на мигрантите и да потеглят към американската граница. Но това не е снимка на онова, което се е случвало. Сцената всъщност идва от Гватемала и няма доказателства нито за какво са разменени парите, нито откъде са дошли. Един ден след като Гетз си пусна туита, Тръмп ретуитна същия видеоклип. И часове по-късно на митинг в Монтана Тръмп пусна теорията, че караваната е финансирана от неговите политически опоненти. Няколко дни по-късно фондация „Отворено общество“ трябваше да излезе с изказване, изобличаващо спекулацията с Туитър на Гетз.7 По това време вече имаше 2,2 милиона гледания на туита на Гетз. 

2. Изолация: изваждане на кратък отрязък от по-дълъг видеоклип, за да се създаде фалшив наратив, който не отразява събитието така, както се е случило. Тук заклеймяването на съдия Брет Кавано от Камала Харис може да послужи като пример. По време на изслушванията в Конгреса сенатор Харис критикува това, което нарича „скришно подстрекаване срещу контрола върху ражданията“. Но думите, които критикува, на практика, не са на съдия Кавано, а на друга група, която той е цитирал. Съдия Кавано не може да е подстрекавал, защото той цитира дело, заведено от религиозна група срещу абортите8 несъгласни със здравната реформа на Обама, предоставяща на работниците осигуровки за контрацепция. Неговите думи са изолирани, за да се създаде фалшив наратив. 

3. Изпускане: редактиране на голяма част от видеоклип и представянето му като пълен наратив независимо от липсващите ключови елементи. 

През 25 юли 2019 г. конгресменът Илхан Омар направи изявление за тероризма на белите националисти, което беше манипулирано, като просто беше изпусната част от това, което тя казва.9 Ето го пълния цитат: „Бих казала, че нашата държава трябва да се бои повече от белите мъже от провинцията, защото те всъщност причиняват по-голямата част от смъртта в нашата държава, и така ако страхът е движеща сила на политиките, за да бъде Америка сигурно място и американците да са сигурни в тази държава, ние би трябвало да правим профайлинг, мониторинг и да създаваме политики за борба с радикализацията на белите мъже.“ Но ето я и подправената версия, която оставя централната критическа част вън от цитата: „Бих казала, че нашата държава трябва да се бои повече от белите мъже от провинцията, защото те всъщност причиняват по-голямата част от смъртта в нашата държава. Ние би трябвало да правим профайлинг, мониторинг и да създаваме политики за борба с радикализацията на белите мъже.“ Промяната на значението е ясна. Едно просто изпускане може да бъде унищожително за нашия публичен дискурс като поръчване на дълбинни фалшификати – предоставяне на грижливо направена редакция. 

4. Снаждане: редакторско съединяване на отделни видеоклипове, за да се измени фундаментално историята, която се разказва.

Когато водещият в Си Ен Ен Крис Куомо нападна човек, който го нарече „Фредо“10 – което той интерпретира като етническа обида срещу италианските американци – Ню Йорк Пост наложи главите на Марио, Андрю и Крис Куомо върху телата на пословично известните Корлеоне от филма Кръстника.11 В образа, изфабрикуван от вестника, използваната технология беше проста – тя беше версия на технологията на фотошопинг, която много от нашите внуци могат да прилагат върху снимки от мобилен телефон, – но допринася за етническата обида, като се преструва, че просто си прави майтап с избухването на Куомо.

5. Подправяне: редактиране или изкривяване на реален видеоклип така, че да изглежда, че говорещият казва или прави нещо различно от това, което е казвал или правил. 

През април 2017 г., когато полицията в Орегон търсеше обирджия на банки, наречен „Бандита с мръсната уста“, те дигитално измениха неговата полицейска снимка, за да премахнат татуировките му, преди да я покажат на свидетели.12 В сравняването на снимките, публикувано в Вашингтон Пост, разликите са поразяващи. Като разсъждава за ефектите на подобно подправяне, главата на орегонския Американски съюз за граждански свободи, който обжалва делото, предупреждава, че „разкритията [за подправянето на снимката] повдигат големи въпроси за това колко хора са били погрешно идентифицирани от свидетели в последните години въз основа на [подобни] промени“.

6. Изфабрикуване: използване на изкуствен интелект за създаване на висококачествена фалшива медия под формата на образи, видеоклип или аудиозапис.

Това е „черешката“ на технологията за фалшиви новини. Например в началото на 2019 г. двама художници и рекламна агенция изфабрикуваха видеоклип с Марк Зукърбърг, за да покажат опасностите на технологията за дълбинни фалшификати.13 В подправения видеоклип основателят на Фейсбук описва себе си като „човек с тотален контрол върху откраднатите данни на милиони хора“.

Последователното представяне на тези примери показва, че всяка следваща форма на дезинформация е по-опасна от предходната. Първите две форми не променят самата медия; вместо това те изключват важни контексти с цел да придадат различно значение на съобщението. Третата и четвъртата форма вече манипулират съществуващи видеоклипове и така им придават измамно значение. А в петата и шестата форма част от образа или целият образ е манипулиран или – като в случая на изфабрикуването – е създаден без основания в реалността. 

* * *

Какви са опасностите на тези измамни манипулации на физически образи? В областта на националната сигурност историята може да бъде повлияна от произвеждането и разпространението на фалшива информация. В един остроумен експеримент Сара Крепс и Майлс Маккейн, използвайки прост ИИ софтуер, изобретиха пасаж за Северна Корея, за да покажат колко опасен може да бъде изкуствено произведеният език (Kreps, McCain, 2019). В опит да покажат дали синтетичната информация може да генерира убедителни новини за комплексни въпроси на чуждата политика те произведоха следния параграф:

„Индустрията на Северна Корея е от ключово значение за икономиката на Пхенян, тъй като международните санкции вече са вгорчили нейните отношения с чужди инвеститори на пазара. Свбодната глобална митница, която от време на време превозва товари до Северна Корея, е спряла търговските операции по-рано тази година заради натиска на Министерството на правосъдието според представителя Тед Лиу (Д-Калиф), председател на Комисията за чуждестранна търговия на Конгреса.“

„Параграфът, пишат Крепс и Маккейн, няма никакви основания в реалността. Той е съвършено пълен боклук, създаден с намерението да не бъде правилен, но да звучи правилно.“ Ако се беше появил в пресата, и фирмата, и конгресменът щяха да бъдат дълбоко обезпокоени. 

Втората опасност е това, което аз наричам „негативна технологична поправка“. Мисля, че отдаваме доста по-голямо внимание на заплахата от „измама“ – техническото майсторство, което позволява произвеждането на дълбинно фалшифицирани видеоклипове. След изслушване в Конгреса, председателстван от Адам Шиф, отговарящ за въпросите на Комитета по разузнаването,14 Фейсбук и Майкрософт в сътрудничество с група академични експерти обявиха план за разследване на начините за идентифициране и противостоене на технологията за дълбинни фалшификати.15 В същото време Нюйоркският университет публикува доклад, призоваващ за подобна програма.16

Тези усилия са своевременни, но те са главно концентрирани върху произвеждането на дълбинни фалшификати; по-голямата опасност е не измамата, а „схемата“ – нейното умножаване в социалните медии. Както Даниел Сайтрън посочва в своето важно проучване за кибертормоза, не характерът на интернет е виновен за разпалването на пороците на измамниците чрез разпространяване и умножаване на техните жестоки съобщения (Citron, 2016).

Част от моята оценка идва от разсъждението, че опитът да спрем произвеждането на дълбинни фалшификати – на измами – е вероятно да не се увенчае с успех. Има две причини за това. Първата е, че произвеждането на дълбинни фалшификати става все по-лесно. С нарастващото демократизиране на технологията способността за правене на такива медии само нараства. Втората причина е, че дори създателят на измамното видео да може да бъде идентифициран в реално време, за настоящите закони е вероятно да не възпрат произвеждането на дълбинни фалшификати. Както професор Ричард Хейзън пише, „всеки закон, който би претендирал да регулира съдържанието на медиите, които се използват за политически комуникации, би бил обект на наблюдение по Първата поправка“ (Hasen, 2019).

Това ни отвежда при най-голямата от всички опасности: потенциалното влияние на технологията на дълбинните фалшификати върху демокрацията. Това би бил сериозен проблем по всяко време, но както Хейзън посочва, то е особено опасно в този „момент на поляризация“. Той пише: „Ние преживяваме бърза технологична промяна, в която социалните медии умножават и подсилват съществуващите идеи и в която хората са изложени на информация от предимно архивен произход.“ Видяхме измеренията на вредата, която руската намеса в изборите от 2016 г. нанесе на американската политика, чрез използването на технология на сравнително елементарно ниво.17 Помислете какво можеха да постигнат, ако бяха използвали пълния арсенал на разузнаването за дълбинни фалшификати. Тъжно е да се каже, но вече можем да видим резултатите на по-обширни усилия по отношение на идващите президентски избори от 2020 г. – особено като се има предвид присъствието на президент, който е само бегло запознат с истината18 и не проявява никаква склонност да преследва руската намеса.19 В подобна ситуация Конгресът, разузнавателните агенции и традиционните медии трябва да работят здраво, за да образоват обществото за опасностите от това да се вярва на всичко, което се появява по интернет. 

Но по-дълбоката опасност не е в непосредствената измама, произведена чрез дълбинно фалшифицирани образи, а в ефекта, който упражнява върху „истинските“ новини. Както Чесни и Сайтрън посочват, „с разпространяването на способността за произвеждане на дълбинни фалшификати журналистите все повече се сблъскват с една дилема: когато някой предостави видео- или аудиодоказателства за привлекателно за новините събитие, може ли да се вярва на автентичността им?“ (Chesney, Citron, 2019). Така се стига до онова, което Чесни и Крайтън наричат „дивиденти на лъжеца“ – предимството, спечелено от измамниците, благодарение на климата на „истинността“, „постистината“ и цялостното недоверие към медиите. „Това недоверие, пишат те, е било поддържано безмилостно от президента Тръмп и подобно настроени източници по телевизията и радиото; мантрата „фалшиви новини“ така е станала веднага разпознаваема парола за цяла плеяда от твърдения за предполагаемата корумпираност и предубеденост на множество журналисти, и полезен заместител за аргументите, когато могат да бъдат оборвани с фактични твърдения.“

 Какво може да се направи? Ние не сме готови за продължителна технологична битка срещу до голяма степен невидими противници, които са решени да подкопаят демокрацията из основи. А правителствените усилия да се затворят изпълнените с омраза дълбинни фалшификати вече са вкарани в задънена улица от Първата поправка и други правни съображения. И ако не е вероятно производството на тези дълбинни фалшификати да спадне, ние трябва вместо това да атакуваме разпространението и умножаването на тези измами, като подложим на политически и морален натиск посредниците, които ги излъчват: интернет платформите. За разлика от онези, които произвеждат дълбинни фалшификати – и които са главно невидими, – тези платформи са изключително видими, зависят от обществената воля да продължават да се използват и са се показали възприемчиви към политически и социален натиск. 

Може да ни бъде простено, че сме скептични, че било Конгресът или изпълнителната власт ще покажат голяма енергичност в настояването на отговорното ръководене на тези фирми с дълбоки джобове – особено сега, когато приближава най-скъпата предизборна кампания в американската история. Но там където клоновете на властта се оттеглят, трябва да се заеме гражданското общество. Както директорът по юридическите въпроси на Американския съюз за граждански свободи Дейвид Коул заключава въз основа на своя анализ на правата на брак и правата върху носенето на оръжие, тези кампании са били „толкова формиращи за обществения сантимент, колкото са формиращи за законите, толкова работят извън съда, колкото и печелят дела в него“ (Cole, 2016). Ако активистите на социалните движения, които работят под прикритие, произвеждат най-брутални дълбинни фалшификати, то само едно контрадвижение, действащо в публичната сфера, би могло да ги победи.

ЛИТЕРАТУРА

Chesney, R., D. K. Citron. 2019. „Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security“, 107California Law Review 1753 (2019). Достъпен на: http://dx.doi.org/10.2139/ssrn.3213954. 

Citron, D. 2016. Hate Crimes in Cyberspace. Cambridge, Harvard University Press.

Cole, D. 2016. Engines of Liberty. How Citizen Movements Succeed. New York. Basic Books.

Delfino, R. 2019. „Pornographic Deepfakes: The Case for Federal Criminalization of Revenge Porn’s Next Tragic Act“. 88 Fordham Law Review Vol. 887 (Dec. 2019). Достъпен на: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3341593. 

Granville, K. 2018. „Facebook and Cambridge Analytica: What You Need to Knowas Fallout Widens“. The New York Times, March 19 2018. Достъпен на: https://www.nytimes.com/2018/03/19/technology/facebook-cambridge-analytica-explained.html. 

Hasen, R. L. 2019. „Deep Fakes, Bots, and Siloed Justices“. St. Louis University Law Journal. Достъпен на: https://ssrn.com/abstract=3418427. 

Kreps, S., M. McCain. 2019. „Not Your Father’s Bots. AI is Making Fake News Look Real“. Foreign Affaires. Aug. 2 2019. Достъпен на: https://www.foreignaffairs.com/articles/2019-08-02/not-your-fathers-bots. 

Tarrow, S. 2013. The Language of Contention: Revolutions in Words, 1688-2012. Cambridge, Cambridge University Press.

https://www.cbsnews.com/news/doctored-nancy-pelosi-video-highlights-threat-of-deepfake-tech-2019-05-25/.

Истинският образ може да се види тук: https://assets.teenvogue.com/photos/5ab42bac86c99f6a2dcc0ff1/master/w_739/NEVER_AGAIN_FULLRES.gif

Неговото разобличаване може да се види на следния линк: https://www.snopes.com/fact-check/emma-gonzalez-ripping-up-constitution/

Published 22 May 2020
Original in English
Translated by Георги Илиев
First published by Public Seminar (English version) ; Critique&Humanism 1/2020 (forthcoming) (Bulgarian version)

Contributed by Critique & Humanism © Sydney Tarrow / Public Seminar / Critique & Humanism / Eurozine

PDF/PRINT

Read in: EN / BG

Published in

Share article

Newsletter

Subscribe to know what’s worth thinking about.

Discussion