Челику: Најбезбедниот начин за заштита на личните податоци е да не се регистрирате во локални бази на податоци

Потребна е општа култура и знаење за предизвиците и многу фокус и размислување за тоа како овие технолошки промени влијаат на човештвото, како и врз нас самите

Армир Челику, Развивач на вештачка интелигенција. Фото: Порталб.мк

Обезбедувањето на човековите права е неопходен чекор, не само од морален, туку и законски аспект, кога се работи со податоци во дигиталниот свет. Пред да се пушти во употреба одреден производ базиран на вештачка интелигенција (ВИ) мора да се тестира безбедноста на личните податоци и приватноста на корисниците. Инаку, најдобар начин да се обезбеди заштита на личните податоци е тие воопшто да не се регистрирани во бази на податоци, вели развивачот на вештачка интелигенција, Армир Челику во интервју за Порталб.мк.

Со развојот на технологијата и создавањето производи засновани на вештачка интелигенција, се случува да се нарушат човековите права, како што се приватноста и заштитата на личните податоци. За да дознаеме повеќе за тоа како развивачите на производи со вештачка интелигенција ја обезбедуваат приватноста на нивните корисници, Порталб.мк разговараше со развивачот на вештачка интелигенција, Армир Челику.

Во 2023 година, Армир и неговите колеги обединети во групата наречена „Ai4Good“ го освоија првото место во хакатон со нивниот четбот наречен „Сакхи“.

Како тече целиот процес на создавање производ базиран на вештачка интелигенција? Кажете ни го процесот чекор по чекор, од потребата до идејата и реализацијата?

Вештачката интелигенција е многу широка област. Не можам да зборувам за поголемиот дел од оваа област, но, кога станува збор за големи јазични модели (LLM – large language models), првиот чекор е идејата. Обично треба да имате идеја за апликација, каде таквата технологија може да ја извршува својата функција, а традиционалните опции или не се конкурентни по функционалност или по цена.

Овие случаи се кога имате голема база на податоци со текст и се појавува потреба да најдете решение за одредени детали и тоа е да е брзо и специфично во однос на бараните детали. На пример, компанија која има многу производи и сака да им овозможи на клиентите брз пристап до специфични информации за нив. После тоа, обично треба да изберете одреден јазичен модел врз основа на барањата на производот. Дали ви треба специфичен јазик, некој напреден модел или бесплатен модел, тоа ви дава одговор на вашите барања.

Сите овие работи се земаат предвид. Конечно, наоѓате некој „фрејмворк“ (framework) или одредена библиотека со кодови што можете да ја менувате според вашите барања за да ја имплементирате целата идеја за апликацијата на моделот.

Во овој процес, дали ги земате во предвид човековите права и дали производот може да прекрши некое од човековите права, како што се приватноста, заштитата на лични податоци, дискриминацијата по различни основи?

– Да, секако. Всушност, тоа е неопходен чекор, како од етички, така и од законски аспект. Кога следите обука за анализа на податоци, наука за податоци или која било област што се занимава со податоци, овие размислувања се дел од план-програмата.

Како се осигурувате дека системите што ги развивате врз основа на вештачка интелигенција не прекршуваат ниту едно од основните човекови права како што се приватноста, слободата на изразување и недискриминацијата?

– За среќа, инженерите и големите компании кои ги создаваат основните модели што ги користиме, инвестираат многу труд и капитал во оваа работа, кои што еден поединец не може да си ги дозволи. Идејата е дека безбедноста и заштитата на основните човекови права се дел од почетната обука на моделот што не ја прави човекот. Но, за време на креирањето на апликацијата, сепак потребни се уште многу прелиминарни тестирања пред да се пушти во употреба производот, каде што може да се видат перформансите, безбедноста и можностите на апликацијата.

Photo by Kevin Ku on Unsplash

Кои мерки ги преземате за да спречите пристрасност и дискриминација во алгоритмите за вештачка интелигенција како „Medchat“, особено кога станува збор за чувствителни области како што е здравствената заштита?

– „Medchat“ е едноставно демонстрација на технологијата без намера да биде пуштен на пазарот како единствен производ. Кога би пуштиле таков производ на пазарот, тогаш чекорите што би се преземале би биле добивање на одредени дозволи и лиценци, консултации со адвокати, тестирања со универзитети и медицински установи и „одрекување на одговорност“ дека, сепак апликацијата не може да се користи како конечен советник и неговите совети не треба да се земат без консултација со лекар. Ова се однесува на безбедноста.

Во однос на дискриминација и предрасудите, апликацијата нема да складира податоци за поединци за да го избегне овој проблем. И на крајот ниту еден модел не е 100% точен, бидејќи знаењето во него е човечко знаење со човечката пристрасност вградена во него. Отворено прашање е од технички и филозофски аспект, како, или дали, овие прашања имаат решенија.

Луѓето кои не се добро информирани, понекогаш, за да објаснат некоја ситуација, ненамерно ги откриваат своите лични податоци, како на пример, име, презиме, матичен број, живеалиште, чувствителни здравствени информации. Со оглед на природата на вештачката интелигенција која што е водена од податоци, како управувате и ги заштитувате корисничките податоци за да спречите неовластен пристап, злоупотреба или ненамерни последици што може да го нарушат правото на приватност на луѓето кога ги користат вашите производи?

– За новоформирана компанија која нема капитал за да има вработен за сајбер-безбедност, многу е тешко да се заштитат податоците на корисниците и да се спречи неовластен пристап. Единствениот начин е корисничките податоци воопшто да не се снимаат во локалните бази на податоци.

Какви напори сте преземале за да вклучите различни перспективи во дизајнот и развојот на производи базирани на вештачка интелигенција, вклучувајќи ги и маргинализираните заедници за да избегнете зголемување на постоечките општествени предрасуди и нееднаквости?

– Ова беше централна тема на стипендијата на Гете институтот, каде победи нашиот тим. Демократизирањето и вклучувањето на перспективите на маргинализираните заедници е само првиот чекор. Но, тоа е невозможно без директно вклучување на самите различни заедници, т.е. без придонесот од таа заедница во податоците за обучување на моделот. Тоа јасно се гледа во можностите на Chat GPT на англиски јазик во споредба со албанскиот. Едноставно има многу повеќе материјали напишани на тој јазик. Односно, за да бидеш вклучен, треба да се вклучиш.

Кои стратегии ги користите и менувате за да бидете во тек со најновите етички предизвици и импликациите врз човековите права, при развивањето решенија засновани на вештачка интелигенција, и како ги прилагодувате вашите практики за да ги решите овие прашања?

-Тоа е поле што се менува не во текот на годината, или од месец во месец, туку често пати од ден на ден. Потребна е општа култура и знаење за предизвиците и многу фокус и размислување за тоа како овие технолошки промени влијаат на човештвото, како и врз нас самите. Имено, тешко е да се има шаблон или рамка со одредена стратегија, па затоа мора да се прилагодите каде и колку што е можно.

Автор: Афије Шерифи