Дипфејк: вештачка интелигенција која ја замагли границата помеѓу фактите и фикцијата

'Deepfake', едно од достигнувањата на користењето на вештачката интелигенција, истовремено може да е и едно од најопасните, по многу основи - од рушење на репутацијата и приватноста на една личност, до манипулирање со јавноста и целосно извртување на настани од било кој вид во општествената сфера. Најеклатaнтен пример е видеото на претседателот на Украина, Зеленски, во кое тој им соопштува на своите војници да ја предадат борбата против Русија

Photo by Steve Johnson on Unsplash

Од забава преку игра, порнографија, политика, општествени случувања, искривување на сликата за реалноста, алатка за ширење дезинформации – ако треба да се опише кои се опасностите, предностите и можните последици од „deepfake” (дипфејк, длабоко лажни) видеа, тогаш тешко е да се даде една дефиниција.

Но, ако треба да се опише што е „дипфејк“, едно од достигнувањата на вештачката интелигенција, тогаш тоа, наједноставно кажано, би изгледало вака: гледате видео кое изгледа прилично реално, без разлика дали станува збор за политичар, актер, пејач, обичен граѓанин. Воопшто не би се запрашале дали истото е автентично, бидејќи пред вас има слика, а тука секако важи онаа старата дефиниција: „една слика илјада зборови“. Ликот на видеото зборува, ја отвара устата во согласност со она што го зборува, ја гледате дури и препознатливата бемка на неговото лице. А сепак, видето е лажно. Тоа што го гледате не е точно. Гледате „дипфејк“ видео – едно од достигнувањата на користењето на вештачката интелигенција, кое истовремено може да е интересно и забавно, но може да биде и едно од најопасните, по многу основи – од рушење на репутацијата и приватноста на една личност, преку манипулирање со јавноста да (не) гласаат за одредена политичка опција, до целосно извртување на настани од било кој вид во општествената сфера.

Најеклатентен пример е видеото на претседателот на Украина, Володимир Зеленски, во во кое тој им соопштува на своите војници да ја предадат борбата против Русија. Ова видео стана едно од највиралните, го преплави светот и стана топ-вест во извештаите за руската агресија врз Украина. А всушност, ова видео воопшто не кореспондира со реалноста – тоа, колку и да изгледа автентично, е всушност лажно.

Во овој случај, проверувачите на факти забележаа дека, на пример, главата на Зеленски е за нијанса поголема од неговото тело, а истовремено е и повеќе „пикселирана“ за разлика од останатиот дел од телото, па оние кои редовно ги следат говорите на украинскиот претседател можеа да забележат дека во видеото има нешто невообичаено. Но, видеото беше објавено на Украина 24, релевантен веб-портал, кој всушност беше хакиран, а подоцна, оттаму излегоа со објава дека се хакирани и дека објавеното видео е лажно, нешто што подоцна беше потврдено и од самиот Зеленски.

Оттаму, најголемата опасност што ја претставуваат „дипфејкс“ е нивната способност да шират лажни информации кои се чини дека доаѓаат од доверливи извори, а тоа е комплетна лага. Па оттаму, исклучително тешко е на гледачите да им се објасни дека она што го гледаат и слушаат, всушност нема допирна точка со реалноста. Тие гледаат и слушаат како Зеленски прогласува капитулација. Зошто би мислеле дека тоа не е точно?

Порнографските почетоци со сериозни последици

Дипфејк, по својата дефиниција вклучува слики, видеа и аудио, генерирани од технологијата за вештачка интелигенција (ВИ) кои прикажуваат нешто што во реалноста не постои или настани кои никогаш не се случиле.

Терминот е преземен од комбинација на зборовите „длабоко учење“ со вештачка интелигенција и „лажно“ – со акцент на тоа дека содржината не е реална.

Првпат „deep fake“ почнува да се користи во 2017 година, кога извесен модератор на Reddit создал заедница наречена „deepfakes“ и почнал да објавува видеа кои користат технологија за замена на лица за да ги вметне сличностите на познатите личности во постоечки порнографски видеа. Оттаму, порнографијата е всушност зачетокот на „длабоко лажните“ видеа, направени со цел да се дискредитираат познатите личности, најчесто жените. Освен сите порнографски страници каде што лицата на разни познати актерки биле фалсификувани и злоупотребени, дипфејк видеата ги користат и поединци, како на пример, студент во Мумбај кој во 2020 година бил уапсен бидејќи направил „дипфејк“ порно видео од неговата девојка за да ѝ се заканува. Технологијата почнуваат да ја користат и измамници кои се преправаат дека се вашите најблиски и преку видео повици бараат пари, со образложение дека „итно им се потребни“.

Нивната примена започнува да се шири и во многу други општествени сегменти. Примерите на „deepfake“ кои беа широко распространети го вклучува, на пример, папата Франциско облечен во пуфер јакна, за кои патем и многу јавни личности, како на пример Криси Тајген, се изјаснија дека поверувале во нивната веродостојност и изјавија „нема шанси да ја преживеат иднината на технологијата“.

Дипфејк вестите редовно се дебанкирани од проверувачите на факти ширум светот, a примената на „дипфејкс“ поттикна одговори и од индустријата и од владите за откривање и ограничување на нивната употреба.

Сепак, останува отворено прашањето колку ќе биде можно нивното навремено ограничување, особено кога има сериозни општествени и политички турбуленции и случувања, како на пример, претстојните избори за претседател на САД.

Мошне добар почеток на сторија за „дипфејк“ видеaта поврзани со претседателските избори објави неодамна агенцијата „Ројтерс“. Текстот почнува вака:

Всушност многу ми се допаѓа Рон ДеСантис, откри Хилари Клинтон во изненадувачкото поддржувачко видео.

Тој е тип на човек кој ѝ треба на оваа земја и навистина го мислам тоа.

Ти никогаш нема да бидеш вистинска жена, возврати преку видео американскиот претседател Џо Бајден.

Добредојдовте во претседателската трка на Америка во 2024 година!

Ова се однесуваше на „дипфејк“ видеа кои беа објавени на социјалната мрежа X, а потоа избришани, во контекст на претседателските избори во Америка.

Објавувањето на видеата следуваше откако ДеСантис, републиканскиот гувернер на американската сојузна држава Флорида, ја објави својата кандидатура за изборите во САД во 2024 година, во разговор во живо со сопственикот на X (поранешно Твитер), Илон Маск.

ДеСантис навистина реши да се кандидира на изборите, но како шок дојде видеото во кое наводно Хилари Клинтон му пружа поддршка, со оглед на тоа што таа претходно изразуваше сериозни критики во однос на неговата работа.

Токму затоа видеото се најде во центарот на вниманието на јавноста, пред истото да биде дебанкирано од страна на проверувачите на факти, кои утврдија дека всушност станува збор за модифицирано видео на Хилари Клинтон од 2021 година, а додаден е само нејзиниот говор во однос на поддршката на ДеСантис.

Како се прават „deepfake“ видеата?

Photo by Kevin Ku on Unsplash

Начинот на кој работи алгоритмот на „дипфејк“ е сложен. Но, „тајната состојка“ на алгоритмите има две важни компоненти. Првата е дека алгоритмот развива длабоко разбирање на лицето на една личност и учи како да ги мапира тие атрибути на друго лице. Бидејќи повеќето луѓе имаат уста, очи и нос на приближно исто место од лицето, алгоритмот може да ги анализира карактеристиките на таа анатомија и да ја научи до исклучително ситни детали. Потоа, манипулира со карактеристиките во второто видео за да одговара на карактеристиките од првото. Алгоритмот го прави сето тоа додека го задржува општиот стил и изглед на оригиналното видео.

Или, поедноставно кажано, софтверот кој е наменет да генерира „deepfake“ содржи слики, видео и гласовни клипови на луѓе кои се обработуваат за да „научат“ што ја прави личноста уникатна, нешто слично како софтверот за препознавање лица. Технологијата deepfake потоа ги применува тие информации на други клипови, заменувајќи една личност со друга, како основа да се изработи целосно нов клип.

За да создаде „дипфејк“, на специјализираниот софтвер му требаат голем број видеа, аудиа и фотографии. Големината на примерокот на овие податоци е важна бидејќи има директна корелација за тоа колку квалитетно или неквалитетно ќе биде новиот „продукт“. Ако софтверот има само неколку слики или клипови за работа, нема да може да создаде убедлива слика.

Со само едно обично пребарување на „Гугл“ можат да се најдат стотици начини како да се изработи едно „deep fake“ видео. Голем дел од овие апликации се наплатуваат, но со оглед на тоа што не станува збор за големи суми, тие можат да бидат искористени од речиси секој кој е подготвен од обична забава да навлезе во нешто што може да има сериозни последици.

Како (да се обидете) да препознаете „дипфејк“ видео

Првично, длабоките фејкови првенствено се користеа за безопасни и забавни цели, како што е создавање замена на лица на познати личности или вметнување лица во филмови. Меѓутоа, како што напредуваше технологијата, така се зголемуваше и нејзиниот потенцијал за злоупотреба. Алгоритмите на „deepfake“ станаа пософистицирани, овозможувајќи беспрекорни и убедливи манипулации. Ова предизвика загриженост за потенцијалот за злонамерна употреба, како што се ширење дезинформации, клевети, па дури и политички манипулации.

Во 2018 година, американските истражувачи открија дека луѓето на „дипфејк“ видеата не трепкаат, односно дека на поголемиот дел од сликите ги прикажуваат луѓето со постојано отворени очи. Но, веднаш штом беше објавено истражувањето, се појавија „дипфејкс“ со трепкање, односно креаторите научија дека штом се открие слабост, таа лесно може и да се поправи.

Според Гардијан, полесно се забележуваат „дипфејкс“ со слаб квалитет. На пример, синхронизацијата на усните може да биде лоша или тонот на кожата да биде матен, а може да има и треперење на снимката.

Компанијата Нортон, која нуди различни производи и услуги поврзани со дигиталната безбедност, заштитата на идентитетот и приватноста на интернет ги издвојува клучните работи според кои може да се препознае едно „deepfake“ видео:

Неприродно движење на очите, бидејќи вистински предизвик е да се повтори чинот на трепкање на начин што ќе изгледа природно. Исто така, предизвик е да се реплицираат движењата на очите на вистинска личност.

Неприродни изрази на лицето или чудно позиционирање на карактеристики на лицето, како на пример, лице насочено кон една страна, а носот кон друга;

Несоодветно држење на телото или неконзистентно поставување на главата и телото. Ова може да биде една од полесните недоследности за откривање бидејќи технологијата за „deep fake“ обично се фокусира на цртите на лицето, а не на целото тело.

Неприродна боја: Абнормалниот тон на кожата, промената на бојата на кожата, чудното осветлување и погрешно поставените сенки се сите знаци дека она што го гледате е веројатно лажно.

Коса што не изгледа реално: Нема да видите пргава или разлетана коса, бидејќи лажните слики нема да можат да ги генерираат овие индивидуални карактеристики.

Заби што не изгледаат реално: отсуството на контури на забите може да биде навестување дека видеото е лажно.

Замаглување или неусогласеност: ако рабовите на сликите се заматени или визуелните слики се погрешно порамнети – на пример, кога лицето и вратот се спојуваат со телото – ќе знаете дека нешто не е во ред.

Неконзистентен звук и шум: Креаторите на „deep fake“ обично поминуваат повеќе време на видеото и на сликите отколку на аудиото. Резултатот може да биде лошо синхронизирање на усните, гласови со роботски звук, чудни изговори на зборови, дигитален шум во позадина и сл.

„Обратно пребарување на слики“ (Reverse Image Search): пребарувањето на оригинална слика или обратно пребарување на слики со помош на компјутер, може да открие слични видеа на интернет за да помогне да се утврди дали сликата, аудиото или видеото се изменети на кој било начин.

Видеото не известува од доверливи извори: Ако она што го кажува или прави лицето во видеото е шокантно или важно, медиумите ќе известуваат за тоа. Ако барате информации за видеото и ниеден доверлив извор не го пренесува, тоа може да биде сигнал дека видеото е лажно.

Меч со две острици

Deepfake технологијата претставува меч со две острици во областа на вештачката интелигенција. Иако нуди креативни и забавни можности, неjзиниот потенцијал за злоупотреба и злонамерност предизвикува глобална значителна загриженост. Како што напредуваат алгоритмите, од клучно значење е да се остане буден и да се развиваат стратегии за ублажување на негативните влијанија. Со поттикнување на свеста, инвестирање во технологија за откривање и имплементирање на соодветни правни и политички мерки, можеме да се движиме низ сложениот пејзаж на технологијата за „deepfake“ и да ја зачуваме довербата, безбедноста и интегритетот на дигиталниот свет.

Факт е дека не сите примери за „дипфејкс“ се негативни. Па така, под наслов „Еве како го натеравме Дејвид Бекам да зборува девет јазици“, беше објавено видео од познатиот фудбалер, со која тој (иако не зборува девет јазици), со помош на овој алгоритам ја започна првата гласовна петиција во светот за ставање крај на маларијата. Овојпат, видеото имаше позитивна цел – да допре до што повеќе луѓе кои не го говорат англискиот јазик, а сето тоа направено со согласност од самиот Бекам.

„Сметам дека ‘deepfakes’ ќе станат дел од нормалната практика во маркетинг индустријата во следните неколку години“, вели д-р Кирк Плангер, маркетинг експерт од Кралскиот колеџ во Лондон, пренесува Би-би-си.

„Тоа ја отвора вратата за сите видови креативни опции. Тие се способни да ги микро-таргетираат потрошувачите и често се исклучително убедливи“.

Маркетинг експертите, дополнително тврдат дека од нивна гледна точка „не треба да се работи толку многу за парите што се наплатуваат“, а воедно, корист имаат и клиентите, бидејќи добиваат многу повеќе содржини за разлика од оние што би се добиле доколку видеата навистина се снимаат во живо. 

Токму од овие причини, веќе голем број актери, имаат дадено согласност нивниот глас и нивниот лик да бидат користени во видеа од овој вид, преку користење вештачка интелигенција. И дотаму сè е во ред, додека постои согласност. Проблемите настануваат тогаш кога таа не постои и кога луѓето се доведени во заблуда.

Оттаму, технолошката компанија „Мета“, сопственик на Фејсбук, од идната година ќе бара од политичките огласувачи да означат кога користеле вештачка интелигенција (ВИ) или дигитална манипулација во рекламите на Фејсбук и Инстаграм. Почнувајќи од јануари, рекламите поврзани со политика, избори или социјални прашања ќе мора да пријават каква било дигитално изменета слика или видео, а корисниците ќе бидат известени кога огласите ќе бидат означени како дигитално променети.

Сегашните правила на „Мета“ за „дипфејк“ во видеата предвидуваат отстранување на содржините ако истите може да доведат до заблуда просечен човек да верува оти субјектот во снимките ги кажал работите кои всушност се изменети или пак воопшто не ги кажал.