Платформите, социалните медии и рисковете на алгоритмите

0
457

В началото на декември Съветът на Европейския съюз прие нов документ, посветен на засиленото въздействие на алгоритмите при популяризирането на съдържание, което показва насилие и екстремизъм и неговото разпространение в платформите и социалните медии. Това беше повод за европейските органи да формулират препоръки за подпомагане на борбата срещу незаконното съдържание, разпространявано чрез платформите, но също така да повдигнат въпроса за алгоритмите поради широкото използване на изкуствен интелект (ИИ) от социалните медии. Усилията срещу различните видове незаконно съдържание могат лесно да бъдат подкопани от начина, по който препоръчаните алгоритми се прецизират от големите технологични компании, които се стремят да запазят онлайн потребителите си за бизнес цели.

Документът подчертава необходимостта от координирани действия със Закона за цифровите услуги (DSA) особено с цел подобряване на прозрачността, отчетността и надзора върху алгоритмите. Според разпоредбите на DSA, прилагането на алгоритмите ще се оценява в рамките на рисковете, които произтичат от дейността на много големите онлайн платформи. Те  трябва да извършват годишни оценки на риска за своя сметка, проучвайки как са се справили с различни системни рискове, включително и с разпространението на незаконното съдържание в мрежата. Законът за цифровите услуги предоставя и възможност за създаването на подробна и задължителна рамка за прозрачност. Съществена част от прозрачността е да се обяснят на потребителите както техническите процеси на прилаганите автоматизирани системи за вземане на решения, така и свързаните с тях човешки решения. Етичните насоки за надежден изкуствен интелект, формулирани от експертната група на високо ниво по въпросите на ИИ, подчертават важността на прозрачността и разбираемостта на автоматизираните системи за вземане на решения, които имат значително въздействие върху живота на хората.

По-специално, докладите за прозрачност на компаниите трябва да включват подробна информация относно техните практики за препоръчване на съдържание: дали блокираното или премахнато незаконно и гранично съдържание се популяризира от алгоритмите на платформата, включително броя на показванията, както и данни за това колко често се препоръчва съдържанието на потребителите и дали е имало надзор, упражняван от хора. Трябва да се обясни и ролята на трети страни в програмирането и управлението на услуги като например ботовете на платформата.

Компаниите трябва да бъдат задължени да споделят сурови данни с държавите членки, с органи на ЕС и с трети страни (изследователски организации, НПО). Платформите твърдят, че техническата сложност на функционирането на алгоритмите поставя ограничения върху споделянето на данни, докато техните бизнес данни са изключително точни. Без твърди данни обаче годишните отчети ще бъдат само непроверими снимки. Именно сигурните данни биха помогнали на ЕС да задълбочи разбирането си за процесите и тяхното въздействие, да подпомогне изследванията и да проведе по-информиран диалог с компаниите.

Компаниите трябва да бъдат задължени да споделят информация и за собствената си изследователска работа относно препоръчаните алгоритми. Това би спомогнало за преодоляване на информационната празнина между изследователите вътре в компаниите и „външните лица“.

Рамката за прозрачност и задълбочения технически диалог с компаниите биха позволили на надзорния орган на ЕС да оцени коректността на докладите за прозрачност, да упражнява ефективен надзор върху политиките на платформите, както и спазването на техните собствени условия за управление на съдържанието (и по отношение на приложимите бъдещи правила на DSA). Надзорният орган на ЕС би трябвало да има възможността да извършва одити на място. Такъв надзор би позволил да се разбере напълно как работят алгоритмите и как компаниите ги променят, да се обсъдят резултатите и да се смекчат евентуални странични ефекти. Надзорната роля може да бъде възложена на органа, който трябва да наблюдава прилагането на DSA в тясна връзка с държавите членки. На практика ефективният надзор изисква достатъчен капацитет на персонала, както и адекватна компетентност (включително наличие на изследователи на данни и програмисти). В допълнение към този комплексен режим за големите платформи може да се създаде и специален режим за малките платформи.

Линк: https://charityvillage.com/spotlight-on-social-media-understanding-platform-algorithms/

 

Коментари

comments