fbpx

Фејсбук дозволи манипулирано видео да остане на платформата – што значи тоа за борбата против дезинформации?

Додека не се направат системски промени на самите социјални медиуми, останува читателите да бидат потрезвени во конзумирањето на онлајн информации

-

Мета (матичната компанија на Фејсбук) одлучи да не отстрани манипулирано видео на социјалната мрежа Фејсбук, каде навидум се прикажува како Џо Бајден несоодветно ја допира својата внука. По неколку месеци, надзорниот одбор за модерирање на содржина ја потврди нивната одлука како исправна. Со ова се отвора пандорина кутија за сите кои се борат со ширењето на дезинформации, особено затоа што оваа 2024 година е така наречена „супер-изборна година, пишува „Вистиномер“ во својата анализа.

Текстот подолу го пренесуваме во целост:

 

Во британски Гардијан, пред неколку дена беше објавена статија во која се вели дека манипулирано видео кое лажно го претставува американскиот претседател, Џо Бајден како ја „допира“ својата возрасна внука по гради, се дозволува на платформата – барем според тековните правила на Фејсбук. Одлуката се спори, па надзорниот одбор на Мета – составен од експерти, граѓански лидери, новинари, технолози од цел свет – три месеци го разгледува случајот. На крај, од одбор велат ја потврдуваат одлуката на Мета.

Причината зошто видеото не е отстрането од Фејсбук е затоа што не содржи каква било аудио или визуелна промена што го прикажува американскиот претседател како прави нешто што всушност тој не го направил. Во манипулираното видео се повторува еден дел неколкупати – точно во моментот кога претседателот ѝ го стават стикерот „Јас гласав!“ на внука си – така што на прв преглед може да делува како ја допира за градите. Но, од Мета објаснуваат:

[…] Видеото не е изменето со вештачка интелигенција и не го прикажува г-дин Бајден како „кажува зборови што не ги кажал“ или „прави нешто што не го направил.

Односно, заради начинот на којшто е монтирано видеото треба да биде „очигледно“ дека не е вистинито, иако има провокативни пароли дека Бајден е „педофил“ и неверување како уште може некој за него да гласа.

За одлуката, Мајкл МекКонл, член и копретседавач на надзорниот одбор, зборуваше со Си-би-ес Њуз:

Мета треба да ја калибрираполитиката на манипулирани содржини“ за штетите од реалниот свет што сака да ги превенира. На компанијата треба да ѝ е јасно кои се тие штети, на пример поттикнување насилство или манипулирање на луѓето за информации околу гласање и изборите – и да ја спроведе политиката да ги спречи тие штети.

Во најголемиот број случаи, Мета може да ги спречи штети предизвикани од луѓето да бидат заведени од манипулираната содржина преку помалку рестриктивни мерки отколку отстранување на содржината, поради што ја повикуваме компанијата да прикачи етикети што ќе обезбедат контекст за автентичноста на објавите. Ова ќе овозможи поголема заштита на слободното изразување.

Фактот што ваквото видео, иако очигледно е дека манипулирано, сепак не е отстрането, МекКонл смета дека ќе биде моќна форма на ширење дезинформации поврзани со изборите. Но, иако најголемите социјални мрежи имаат различни политики за справување со дезинформации, неретко се случува ваква една одлука да одекнува низ целата индустрија.

 

Зошто е оваа одлука е толку битна? Зошто сега?

Мета под свое крило ги има Фејсбук, Инстаграм и Вацап (WhatsApp) – три од петте најкористени социјални мрежи. И заради тоа што има над 7 милијарди активни корисници меѓу трите платформи, ваква одлука може да постави индустриски преседан за останатите компании.

Поставување на ваков преседан баш оваа година може да има значителни импликации низ цел свет. Тоа е затоа што 2024 е наречена „супер-изборна“ година. Според Ал Џезеира треба да се спроведат локални, (евро-)парламентарни и/или претседателски избори во 50 земји низ светот. А, околу две милијарди луѓе се очекува да гласаат. Тоа нѐ вклучува и нас, со мајските избори за нов состав на парламентот, како и нов претседател.

Infographic: 2024: The Super Election Year | Statista

Извор: Statista

И тоа што не се знае дали воопшто ќе има промена на правилата за модерација на содржините може да доведе до злоупотреба на оваа „дупка во законот“ токму во нарушување на демократските процеси како изборите. Конкретно, тоа може да се случи со преплавување на социјалните медиуми со вакви видеа што се во „сивата зона“, односно на граница на дозволеното и недозволеното. И, додека се проверат истите може да се нанесе штета токму во клучни моменти за време на изборите или при броење на гласовите.

Она што ја отежнува е ситуацијата е, како што пишува во извештајот на Фридом Хаус (Freedom House), тоа што 17 години по ред демократија низ целиот свет опаѓа. A, според извештајот на Европскиот парламент (ЕП), ширењето на дезинформациите има сѐ поголема улога во ерозијата на демократските процеси и загрозување на граѓанските права. Ова се потврди и на Светскиот eкономски форум (СЕФ), односно во извештајот за Глобални Ризици за 2024 година, каде што манипулираните информации и дезинформациите направени со помош на вештачка интелигенција претставуваат најсериозен краткорочен ризик со кој ќе се соочуваме.

Нарушувачките способности на манипулираните информации брзо се забрзуваат, бидејќи отворениот пристап до сè пософистицирани технологии се зголемува и довербата во информациите и институциите се влошува. Во следните две години, широк сет на актери ќе го искористат процутот на синтетичките содржини, засилувајќи ги општествените поделби, идеолошкото насилство и политичката репресија – последици што ќе опстојуваат поодолго, се наведува во извештајот на СЕФ.

Но, избрзана реакција може да доведе до несакани дејства. Таков е примерот од Турција со Законот за дезинформации. „Дезинформациите“ во законот немаат јасни дефиниции, што ги отвора вратите за произволни толкувања и таргетирање на гласовите на опозицијата, особено затоа што законот се донесе пред изборите во 2022 година. Оттука потекнува и стравот од затвор што може да доведе до самоцензура, попречување на отворената дебата во јавниот дискурс. Тој страв не е неоснован. Пред крајот на ланската година тоа и се случи – новинар беше затворен толку преку овој закон.

Затоа, доколку не се работи партнерски со организации за граѓански права, правото на говор и слободното изразување може многу лесно да се прегази. Тоа подразбира дека треба да се воведат мерки на различни нивоа – како од самите држави да спроведат формално-правни мерки и регулативи, корпорациите да се обврзат на справување со овој проблем и партнерски да се работи со граѓанското општество. Во извештајот на ЕП се наведува:

Во многу земји, законодавните и извршните тела започнаа да го регулираат ширењето на дезинформации. Тие го направија тоа преку кодекси и други упатства, како и со поставување мрежи за проверка и разоткривање на дезинформациите. Некои корпорации, исто така, покренаа иницијативи за да сопрат дезинформации, иако повеќето беа амбивалентни и бавни во нивните напори.

Последен фактор што треба да се напомене е без разлика на тоа што социјалните медиуми имаат можеби и најголем удел во ширењето на информации, тие, сепак, се компании. Прва, можеби и главна цел им е да остварат профит. Тоа значи дека понекогаш ќе донесуваат одлуки што ќе ги направат нивните продукти поатрактивни за огласувачите на реклами. Понекогаш, ќе направат одлуки што се спротивни на тоа.

Компаниите како Мета, Алфабет (мајчинската компанија на Гугл) и Х (познат како Твитер) сѐ повеќе и повеќе ги кратат буџетите за „доверба и безбедност“ (trust and safety). Тоа значи дека помалку вработени работат на модерација, прегледување и рецензирање на спорни содржини. А, штом има помалку ресурси што се трошат за да се „прочисти“ платформата од непроверени информации и општо од незаконска содржина, тоа помалку атрактивни стануваат платформите за рекламирање – класична „Замка-22“.

Со други зборови, што повеќе се кратат ресурсите за модерирање и/или се релаксираат политиките на модерирање, тоа е поголем е ризикот рекламите да се појават до или под несоодветна објава на почетните страници. Со тоа, бидејќи компаниите што се рекламираат не сакаат нивните реклами да се асоцираат со таквите постови, ги повлекуваат рекламите. А, со тоа, пак, на социјалните мрежи директно им се намалуваат приходите. Потоа, повторно ќе се „стегаат“ политиките за модерација и тимовите за доверба и безбедност, со што платформата повторно ќе станува соодветна за рекламирање.

А, додека се случува оваа циклична, дигитална плима и осека, паралелно има експлозија на нови алатки базирани на вештачка интелигенција. И токму тука се наоѓа борбата со дезинформациите – притисокот на сè помалите тимови за модерирање на соджини, летаргичното менување на политики за модерирање и законски промени во самите држави од една страна, наспроти брзиот развој на технологијата на вештачка интелигенција што дополнително го забрзува ширењето на дезинформации од друга страна.

Со оглед на тоа што е изборна година за многу држави низ светот, проверените содржини, точните и проверените факти стануваат уште поважни за да може да се спроведат фер и демократските процеси на изборите. Додека не се направат системски промени на самите социјални медиуми, останува читателите да бидат потрезвени во конзумирањето на онлајн информации.

Пишува: Матеј Тројачанец

Нашите вести во вашето сандаче

Секој ден во 17 ч. добивајте ги вестите од Новинската агенција Мета директно на вашата електронска адреса.

Ве молиме одберете на кој начин сакате да добивате информации од нас:
Можете да се отпишете од оваа листа преку линкот на крајот од нашите пораки.

Ако се знаеле грешките, тие требало да бидат исправени до изборите

Изјавата на потпретседателката на СДСМ, Сања Лукаревска, иако искрена и можеби вистинита за тоа каде се лоцирани грешките во СДСМ за лошиот резултат, сепак е недоследна. И од аспект...