ЄС: Регулювання штучного інтелекту загрожує мережі соціального захисту

ЄС: Регулювання штучного інтелекту загрожує мережі соціального захисту
4792 ПЕРЕГЛЯДІВ

План Євросоюзу з регулювання штучного інтелекту погано пристосований для захисту людей від недосконалих алгоритмів, які позбавляють їх життєво важливих благ та дискримінують уразливі групи населення, йдеться в опублікованій сьогодні доповіді Human Rights Watch. Європарламент має внести поправки до регламенту, щоб краще захистити права людей на соціальне забезпечення та достатній рівень життя.

У 28-сторінковій доповіді у формі документа з питаннями та відповідями "Як недосконале положення ЄС про штучний інтелект ставить під загрозу систему соціального забезпечення" розглядається, як уряди звертаються до алгоритмів для розподілу соціальної допомоги та запобігання шахрайству з допомогою. Спираючись на тематичні дослідження в Ірландії, Франції, Нідерландах, Австрії, Польщі та Великій Британії, Human Rights Watch прийшла до висновку, що ця тенденція до автоматизації може дискримінувати людей, які потребують підтримки соціального забезпечення, порушувати їхню конфіденційність і ускладнювати отримання ними державної допомоги. Проте нормативні акти мало що зроблять задля унеможливлення чи виправлення цих негативних наслідків.

Пропозиція ЄС не робить достатньо для захисту людей від алгоритмів, які несправедливо позбавляють їх допомоги, необхідних для того, щоб підтримати себе або знайти роботу", - сказав Амос Тох, старший дослідник із штучного інтелекту та прав людини в Human Rights Watch. "Пропозиція також не в змозі покласти край неправомірному стеженню та профілюванню людей, які живуть у бідності".

У деяких країнах алгоритми стали потужним інструментом обґрунтування скорочень бюджету соціального забезпечення, мотивованих жорсткої економією. В Австрії алгоритм, який уряд використовує для прогнозування перспектив працевлаштування, позбавляє деяких людей підтримки, необхідної для пошуку роботи, що ставить під загрозу їхнє право на достатній рівень життя. Алгоритм, який покликаний заощадити витрати за рахунок пріоритетного вибору тих, хто може скористатися програмами підтримки зайнятості, є дискримінаційним, недооцінюючи можливості працевлаштування жінок віком від 30 років, жінок з обов'язками для догляду за дітьми, мігрантів та людей з обмеженими можливостями.

Технології спостереження, що підсилюють моніторинг та профілювання людей, які живуть на низькі доходи, також поширюються по всій Європі. У Нідерландах уряд розгорнув програму оцінки ризиків, відому як SyRI, в районах із переважно низьким рівнем доходу, намагаючись передбачити ймовірність участі людей у ​​шахрайстві з допомогами чи податками. Уряд призупинив програму у квітні 2020 року після того, як суд ухвалив, що вона порушує недоторканність приватного життя людей. Проте групи громадянського суспільства б'ють на сполох із приводу законопроекту, що знаходиться в парламенті, який дозволяє обмін даними між державними органами та приватним сектором для виявлення шахрайства та потенційного відновлення програми оцінки ризиків.

В Ірландії уряд вимагає, щоб люди реєструвалися для отримання цифрового посвідчення особи, щоб отримати доступ до соціальних допомог та інших державних послуг, наприклад, для подання заяви на громадянство. Деякі заявники та групи громадянського суспільства заявили, що процес реєстрації, в якому використовується розпізнавання осіб для відсіювання дублікатів чи шахрайських заяв, є непотрібним та невиправдано нав'язливим.

 

Пропозиція ЄС є слабким захистом від цих небезпек. Постанова забороняє вузький список автоматизованих систем, що становлять "неприйнятний ризик" для прав, таких як алгоритми, які використовуються державними органами для оцінки "благонадійності" людей та виділення їх для "шкідливого чи несприятливого поводження" на основі цих оцінок. Однак неясно, чи заборонить це розпливчасте формулювання методи профілювання, що зловживаються, такі як SyRI або австрійський алгоритм профілювання при працевлаштуванні.

ПРЯМИЙ ЕФІР