Изкуственият интелект възпроизвежда дискриминацията към жените?

0
289

Използването на изкуствения интелект, освен предимствата, предизвиква и някои съмнения, поставя неочаквани въпроси и създава рискове. Оказва се, че той може дори да бъде субективен и да извършва дискриминация. Как може да се случи това? Възпроизвежда ли изкуственият интелект човешките пристрастия?

Изкуственият интелект (AI) все по-често се прилага както в частния, така и в държавния сектор. За да се гарантира ефикасността  му и за да се запази доверието в него, важно е регулаторите да прилагат принципите за отговорен модел, които поставят акцента върху смекчаването на дискриминацията и пристрастията. Един от основните проблеми, свързани с изкуствения интелект, се отнася до създаването на абсолютно доверие в алгоритмичния резултат.

Твърди се, че през 2018 г. Amazon е използвал опорочена система за набиране на кадри. Оказва се, че причината за проявените пристрастия е изкуствен интелект, който предпочита мъжете пред жените, въпреки че жените кандидатки имат същата квалификация като другите. Въпреки опитите да се преработи програмата така,че да стане неутрална по отношение на термина „жени“, няма гаранция, че пристрастията относно половете могат да бъдат напълно премахнати. Тъй като не може да се намери възможност за положителен изход от ситуацията, Amazon се отказва от целия софтуер за подбор.

Ключовият фактор за алгоритмичните пристрастия е свързан със събирането / въвеждането на данни и произтичащата от това дискриминация и асиметрия при агрегирането на данни. В допълнение към усвояването и самообучението въз основа на изразено човешко пристрастие алгоритмичното пристрастие може да бъде резултат и от непълен набор от данни или ограничен избор на данни, известен и като „пристрастие при подбора“. Една от основните илюстрации на подобни пристрастия при подбора е софтуерът за набиране на кадри на Amazon. Пристрастната преценка на алгоритъма е резултат от предишния модел на наемане на служители, прилаган от компанията в продължение на повече от десет години. Така повечето служители, постъпили на работа през този период, са мъже.

Най-смущаващата част от системите за изкуствен интелект е, че те не само възпроизвеждат човешките пристрастия, но и ги разпространяват и илюстрират. Облекчаването на пристрастията е от решаващо значение, тъй като алгоритмите на редовно посещавани платформи като Facebook, Amazon, Instagram и др. могат да повлияят на личността на потребителите, да предскажат поведението на потребителите, а в някои случаи да вземат автоматизирани решения без човешка намеса. Общото заключение е, че ограничаването на пристрастията на изкуствения интелект е от решаващо значение, тъй като намалява неговия потенциал за създаването на недоверие и изкривени резултати.

Проверката на алгоритмите от външна трета страна или от вътрешни червени екипи е ефективно средство за намаляване на пристрастията на изкуствения интелект чрез осигуряване на по-голяма прозрачност. Някои водещи технологични компании като Google AI и IBM’s Fairness 360 препоръчват практики, които могат да бъдат възприети като основа за ефективни стратегии в тази насока. Отговорните практики на Google AI включват проектиране на модели на изкуствен интелект, като се използват конкретни цели за справедливост, които се внедряват в системата, обучение и тестване на модела, систематични проверки за нелоялни пристрастия и анализ на ефективността. По подобен начин Fairness 360 на IBM предлага набор от инструменти с отворен код за потребителите да изследват, докладват и смекчават дискриминацията и пристрастията в моделите за машинно обучение, като прилагат принципите за справедливост и прозрачност.

През април 2021 г. Европейският съюз публикува Предложение за регламент за създаване на хармонизирани правила относно изкуствения интелект (Artificial Intelligence Act) и за изменение на някои законодателни актове на Съюза (Предложени регламенти). Тези актове съдържат разпоредби за осигуряване на съвместимост на изкуствения интелект с основните права на човека. Създаването на Европейски съвет за изкуствен интелект  допълнително ще улесни прилагането и ще стимулира разработването на стандарти, ориентирани към основни принципи и ценности на човешките права.

Подобно на Европейския съюз, Комисията за защита на личните данни в Сингапур публикува през 2019 г. Модел за управление, последван от второ издание през 2020 г. Тази рамка предвижда обучение, тестване и валидиране на масиви от данни за ограничаване на систематичните пристрастия. Освен това периодичният преглед и актуализирането на тези масиви може да помогне за ранното откриване и смекчаване на потенциалните пристрастия на изкуствения интелект.

В Индия Националният институт за трансформиране на Индия (NITI Aayog) издаде ръководни политически документи като Националната стратегия за изкуствен интелект от 2018 г. и Работен документ: към отговорен # AIForAll- Част 1, приканвайки публиката да изпраща бележки и коментари. През февруари 2021 г. NITI Aayog публикува документа „За подхода на Индия, част 1 – Принципи за отговорен изкуствен интелект (документ за подхода)“. При липсата на закони, които се отнасят до управлението на изкуствения интелект, не могат да се предприемат правни действия срещу подобни системи за изразени дискриминация или пристрастия. В настоящата си форма индийските закони не са пълноценни механизми за регулиране на изкуствения интелект и имат нужда от модернизиране.

Системите за изкуствен интелект не могат да бъдат напълно лишени от пристрастия, тъй като специфичната логика, по която те достигат до определен резултат, може да е непрозрачна или непредвидима. Алгоритмичното пристрастие обаче може да бъде смекчено чрез подходящи предпазни мерки, както беше споменато. Активното участие на интердисциплинарни специалисти като учени, експерти по етика, социални проблеми и регулиране, юристи, както и на всички заинтересовани страни, може да предостави широка гама от идеи и средства в тази насока.

Линк https://www.mckinsey.com/featured-insights/artificial-intelligence/tackling-bias-in-artificial-intelligence-and-in-humans#

 

Коментари

comments