Алгоритамска дискриминација корисника друштвених мрежа

05/07/2024

Аутор: Жељко Ињац, новинар

 

Алглоритми на друштвеним мрежама су дизајнирани да оптимизују ефикасност друштвених мрежа и ефикасност реклама на друштвеним мрежама. Међутим, временом су постали узрок дискриминације на друштвеним мрежа, па и ограничавања слободе говора. Конкретан пример дискриминације проузроковане алгоритмима на друштвеним мрежама и платформама су они који су употребљени за филтрирање корисника за запошљавање у одређеним компанијама. Оваква врста дискриминације се правда нехотичним учинком алгоритама, међутим није једноставно у питању пропуст, него управо се предрасуде и неједнакости у друштву подупиру алгоритмима, који се заправо ослањају на стереотипе о појединим социјалним групацијама.

Технолошке компаније које врше запошљавање преко интернета једноставно не чине ништа на транспарентности у вези са начином на који њихови алгоритми функционишу. Већа транстапернстност функционисања алгоритама би требала бити омогућена објављивањем информација о факторима који се узимају у обзир приликом доношења одлука и омогућавањем независних ревизија алгоритама.

Алгоритми су само толико добри колико су добри подаци на којима су креирани, односно уколико су базе алогоритама и тренинг постављени тако да искључују сваку могућност дискриминације. Обезбеђивање да подаци који се користе за обуку алгоритама буду разнолики и репрезентативни могу помоћи у смањењу алгоритамских пропуста који иду на руку предрасудама и дискримининацији.

Уколико се алгоритми не тестирају редовно и ревидирају како би се открили и исправили било какви пропусти или несвесно унети елементи који доприносе дискриминацији корисника, што укључује коришћење симулација и сценарија који обухватају различите демографске групе, ризик од дискриминаторских алгоритама је сувише велик.

Јасна етичка правила и закони би могли значајно регулисати употребу алгоритама у областима као што су запошљавање и уопште алгиротамско деловање на друштвеним мрежама. Потребно је забранити дискриминаторне праксе алгоритама и поставити захтев за транспарентношћу и одговорношћу.

Програмери и инжењери који развијају алгоритме треба да буду обучени о етичким питањима и предрасудама о одређеним друштвеним групама. Едукација о етици и одговорности у развоју технологије помаже у препознавању и спречавању потенцијалних проблема.

У развој алгоритама потребно је укључити различите перспективе, укључујући стручњаке за етику, социологе и представнике различитих демографских група како би се обезбедила праведност и непристрасност.

Уколико постоји одсуство интересовања корпорација у чијем власништву су платформе друштвених мрежа или међународних организација, потребно је укључити државне органе који би поставили јасне етичке стандарде о употреби алгоритама. Ово укључује доношење закона и прописа који спречавају дискриминацију и захтевају одговорност од технолошких компанија.

Регулација алгоритама на друштвеним мрежама постаје све важнија тема у јавном дискурсу и међу регулаторним телима широм света. Иако постоје иницијативе и расправе о овој теми, може се рећи да се то још увек не регулише у довољној мери како би се адекватно одговорило на изазове које алгоритми представљају по приватност, јавно мишљење и друштвену кохезију.

Постоје истраживања и расправе у академским круговима, као и у цивилном друштву, која указују на утицај алгоритама на друштвене мреже, те самим тим и на друштво у целини и предлажу различите приступе регулацији.

У неким државама постоје регулаторна тела која разматрају питања везана за алгоритме и интернет платформе. На пример, Европска унија је увела Општу уредбу о заштити података (ГДПР), која се бави питањима приватности, али ова уредба ипак не регулише рад алгоритама, што је озбиљан пропуст.

Поједине иницијативе за доношење закона који би се бавили транспарентношћу и одговорношћу алгоритама се често суочавају са комплексношћу технолошких процеса и потребом за међународном сарадњом због глобалне природе технолошких компанија, а још чешће остају само мртво слово на папиру и јалов посао.

Пошто су друштвене мреже глобалне платформе, регулација алгоритама захтева међународну сарадњу и усклађивање стандарда како би се постигла ефикасна регулатива.

Повећање јавног притиска и свести о утицају алгоритама може утицати на регулаторна тела и технолошке компаније да предузму одговорније кораке у вези са алгоритмима.

Регулација алгоритама на друштвеним мрежама јесте у фокусу, али још увек недовољно да би се извршио значајан утицај на компаније и корпорације које креирају алгоритме.

У појединим случајевима реакција регулаторних тела након афере Фејсбук–Кембриџ аналитика била је усмерена ка јачању заштите приватности корисника друштвених мрежа. Ово је укључивало доношење ригорознијег законодавства у неким државама, као и примену нових правила која се односе на прикупљање, чување и коришћење личних података.

Међутим, постоји важна разлика између регулисања права корисника друштвених мрежа и регулисања алгоритама који оперишу на тим платформама. Док су закони о заштити приватности усмерени на заштиту података корисника, питање алгоритама је комплексније јер се тиче начина на који технолошке компаније манипулишу информацијама и утичу на корисничко искуство и јавно мишљење.

Да би се адекватно регулисали алгоритми на друштвеним мрежама, потребно је успоставити нове или прилагодити постојеће регулативе које би захтевале већу транспарентност у раду алгоритама, ограничавање њиховог утицаја на формирање друштвених балона филтрирања и манипулацију јавним мишљењем.

Дакле, иако је заштита приватности корисника важан корак, регулација алгоритама је такође неопходна како би се очувао интегритет информација и обезбедила разноликост извора и перспектива на друштвеним мрежама, али и омогућиле слободе које су тренутно ограничене корисницима мрежа под изговором очувања безбедности података или приватности корисника.

Афера Фејсбук–Кембриџ аналитика, заиста је показала све размере могућих злоупотреба података који се прикупљају путем алгоритама у политичке сврхе. У овој афери, подаци корисника Фејсбука су неовлашћено прикупљени путем апликације за тестирање личности, а затим су коришћени за циљано усмеравање политичких порука током америчких председничких избора.

Афера је код шире јавности изазвала велику забринутост због злоупотребе приватности података, манипулације јавним мишљењем и недостатка транспарентности у начину на који технолошке компаније рукују корисничким информацијама. Последице афере су биле многоструке.

Корисници су постали свесни да информације које деле на друштвеним мрежама могу бити злоупотребљене без њиховог знања или сагласности.

Постали су свесни (у већој или мањој мери) да коришћење података за циљано усмеравање политичких порука може значајно утицати на изборне резултате и обликовање друштвених ставова и токова.

Афера је довела до смањења поверења корисника у технолошке компаније и њихову способност да адекватно заштите податке корисника.

Ова ситуација је додатно истакла потребу за јачим регулативним оквиром који би штитио приватност података корисника и захтевао већу транспарентност у раду технолошких компанија. Иако су након ове афере донети одређени кораци ка бољој регулацији, изазови у вези са заштитом приватности и одговорним руковањем подацима и даље остају актуелни.

Забринутост да би у будућности могло доћи до ситуације у којој би технолошке компаније, путем својих друштвених мрежа и контролисаних алгоритама, могле утицати на формирање неке врсте тоталитарног друштва је у овом моменту потпуно оправдана. Ова забринутост се базира на више фактора.

Алгоритми који филтрирају информације могу стварати „балоне филтрирања”, где корисници виде само одређени тип информација који је у складу са њиховим претходним интересовањима или понашањем. Ово може смањити разноликост и објективност у информацијама које корисници добијају. Такво намерно „заглупљивање” корисника или ускраћивање шире информационе слике, дефинитивно може да се употреби у каквом друштвеном инжењерингу и постоји оправдана бојазан да се заправо већ на томе ради свесно и намерно.

У многим земљама, технолошке компаније оперишу са високим степеном аутономије у регулисању садржаја на својим платформама, често без јасне регулативе која би их обавезивала на транспарентност или заштиту корисничких права.

Недостатак адекватног одговора држава, закона и цивилног друштва још више отежава или онемогућава регулисање активности технолошких компанија у вези са алгоритмима и контролом информација.

Без јасне, одговорне регулације и контроле постоји озбиљан ризик да технолошке компаније могу или већ чине све што могу у манипулисању алгоритмима како би контролисале информације које корисници виде, што значајно утиче на политичке ставове, друштвене норме и јавно мишљење.

Да би се спречило евентуално креирање тоталитарног друштва путем технолошких компанија и њихових алгоритама, потребно је радити на више фронтова.

Неопходно је успоставити јасне законске оквире који би регулисали рад алгоритама и захтевали транспарентност у њиховом деловању.

Потребно је подизати свест о утицају алгоритама и балонима филтрирања међу корисницима друштвених мрежа како би се смањио њихов негативан утицај. Уместо подизања свести врши се, највероватније циљано и координисано, застрашивање корисника друштвених мрежа које доводи до ефекта екстремне параноје и подстиче део корисника да неометано шире теорије завере које иду у прилог немењању тренутног стања под изговором фаталистичког уверења да се против „робота” и корпорација не може учинити ништа и да је то већ готова ствар.

Организације цивилног друштва морају играти кључну улогу у заговарању заштите корисничких права и одговорног деловања технолошких компанија.

С обзиром на глобалну природу технолошких компанија, међународна сарадња и стандарди морају бити кључни за успостављање ефикасних регулатива јер је недовољно да само поједине државе уводе законе који би ограничавали утицај алгоритама или њихову злоупотребу.

Како би се заштитиле слободе и интегритет корисника интернета сада и у будућности, потребно је озбиљно приступити овом проблему, пре свега освестити кориснике да проблем заиста постоји и да су управо они ти који га могу решити.

Тренутно, технолошке компаније нису у свим државама подложне истим законима и уредбама које би их обавезивале да пруже транспарентност у вези са алгоритмима које користе. Приватне компаније често имају широку аутономију у регулисању садржаја на својим платформама, што најчешће доводи до тога да не постоји довољна транспарентност и одговорност према корисницима.

Такође, недостатак озбиљног притиска на компаније резултира мањком инцијатива за промену. Цивилни сектор и регулаторна тела у неким државама могу бити ограничени у својој способности да ефикасно регулишу ову област због недостатка специфичних законских оквира или политичке воље.

Иако се питање одговорности алгоритама повремено покреће у јавној дебати, конкретни кораци ка успостављању глобалних стандарда или законских регулатива још увек су ограничени. Потребна је већа јавна свест, ангажовање цивилног друштва и можда међународни притисак како би се подстакле промене у овој области.

До тада све остаје на појединцима који могу предузети извесне кораке као што су информисање о начину рада алгоритама, подржавању организација које се залажу за транспарентност и активног тражења разноликости извора информација како би се смањио утицај „балона филтрирања”.

Чињеница је да већина корисника интернета можда није заинтересована за едукацију о томе како алгоритми утичу на информације које им се приказују. То заправо погодује сценарију у којем ће алгоритми све више детерминисати садржај који корисници конзумирају, ограничавајући њихову перспективу и доводећи их у све уже друштвене балоне.

Како би се ово избегло или ублажило, важно је да технолошке компаније преузму одговорност за транспарентност алгоритама и пруже корисницима већу контролу над садржајем који им се приказује. То наравно у овом моменту делује као утопија, или барем тако делује корисницима друштвених мрежа у Србији, међутим, друштво у целини треба да развија критичку свест о информацијама које се конзумирају и да подстиче разноликост у изворима информација, те уједно и изврши озбиљан притисак на компаније како би омогућиле већу транспарентност алгоритама.

Већина корисника интернета није свесна у потпуности како алгоритми функционишу и како утичу на садржај који им се сервира. Ово даље доводи до ситуације где корисници несвесно конзумирају филтриран садржај који одговара њиховим претходним интересовањима или понашању, што за последицу има сужење перспективе или чак стварање „балона филтрирања”.

Не треба превише очекивати од едукације корисника друштвених мрежа, али је потребно радити на њој како би се код корисника развила свест о улози алгоритама и њиховом утицају на информације које конзумирају.

Стварање балона филтрирања, ограничава се разноликост информација којима су корисници изложени и утиче се на њихов поглед на свет.

Овакав утицај на кориснике друштвених мрежа је у директној супростности са демократским вредностима јер алгоритми, који диктирају садржај, могу бити аналогија ауторитарном лидерству у смислу контроле и ограничавања информација које корисници добијају. То доводи до ситуације где корисници нису у потпуности свесни ширих перспектива или информација које би им могле пружити свеобухватан увид у друштвене токове.

Балансирање корисника на друштвеним мрежама када их алгоритми намрено усмеравају у одређени друштвени балон може бити изазовно и чинити се готово немогућим, али заправо није немогуће. Уједно је то у овом тренутнку једино решење за избегавање „гетоизације” корисника друштвених мрежа, односно затварања у одређени друштвени балон и ускраћивања шире перспективе.

Да би се ово балансирање успешно извело, потребно је потрудити се да се прате различити извори информација, не само оне који се слажу са тренутним ставовима корисника, него и намерно праћење портала, или страница, или других корисника који имају сасвим супротне или другачије ставове. То заправо најбоље помаже да се разбије друштвени балон и да се избегне дискриминација коју намећу алгоритми и затварање у одређени друштвени балон.

Потребно је увек бити свестан могућности да су информације које вам алгоритми препоручују селективне. Проверавајте и истражујте самостално како бисте обезбедили да имате ширу слику. Немојте једноставно одлазити на већ понуђене линкове, већ се сами потрудите да истражите одређену информацију, вест, тему.

Разговарајте са људима који имају другачије ставове од ваших, али са поштовањем и отвореношћу. То сигурно помаже да се избегне „балон” и подстакне разноликост мишљења, али пре свега сигурно помаже да вас алгоритми не класификују и затворе у одређени друштвени балон. Већина корисника, на жалост није ни свесна да већ годинама уназад функционише у оквиру одређеног друштвеног балона и да су заправо гетоизирани, те им буде невероватно када неко пробије тај балон и уђе у неку дискусију са сасвим другачијим ставовима. Такви „падобранци” се обично дочекују „на нож”, блокирају или максимално хејтују док сами не оду, а пробијање друштвеног балона се доживљава као инцидент.

Сви заправо унутар једног друштвеног балона имају привид „мира и слоге” и лажну слику да је „цео свет”, односно сајбер свет у коме они бораве, онакав какви су и они сами.

Понекад је добро направити паузу од друштвених мрежа или смањити време проведено на њима како би се освежио поглед на свет. То је заправо најбољи начин да се изађе из заробљености алгоритмима у одређени наметнути друштвени балон.

 

Остави коментар

Ваш коментар ће бити проверен пре објављивања