Оновлена версія (13 червня 2023 р.) Цю публікацію було оновлено, тепер вона містить додаткову інформацію, надану порталом Muslim Pro. Повну версію можна прочитати на muslimpro.com.

Персональні дані та способи, якими компанії їх збирають та монетизують, набувають усе більшого значення в сучасному житті. Корпоративні бази даних величезні, взаємопов'язані та малозрозумілі. Непросто зрозуміти, а тим більше простежити, як переміщуються та використовуються дані. Проте компанії використовують їх, щоб зробити про нас певні висновки, що призводить до втрати роботи, кредитів та інших можливостей

Об'єднує елементи цієї всепроникної системи збір персональної інформації від маргіналізованих груп та її подальше дискримінаційне використання корпораціями та державними установами, що поглиблює наявну структурну нерівність у суспільстві. Контроль даних є проблемою у галузі громадянських прав, тому допомогти захистити ці права можуть закони про захист персональних даних. 

Дискримінаційний збір даних

Наші телефони й інші пристрої обробляють величезну кількість конфіденційних персональних даних, які корпорації збирають та продають за величезні гроші. Це підштовхує компанії та окремих осіб, що діють у мережі, збирати максимально можливу кількість даних про нашу поведінку. У певних обставинах кожне клацання мишею та проведення пальцем по екрану відстежується, а потім продається компаніям, що працюють у галузі рекламних технологій, та брокерам даних, які їх обслуговують. 

Коли окремі групи населення користуються мобільними застосунками інакше, збір та обмін даних може загострити проблеми з громадянськими правами. У 2020 році інтернет-журнал Motherboard провів розслідування, внаслідок якого з'ясувалося, що дата-брокер X-Mode збирав дані геолокації з тисяч застосунків, зокрема з Muslim Pro — застосунку з мусульманськими молитвами, яким користуються мільйони мусульман у всьому світі. До того, як збирати дані з Muslim Pro, X-Mode надавав дозвіл на використання таких даних військовим США через військових підрядників. І хоча застосунок Muslim Pro припинив надавати дані дата-брокеру X Mode, а в Muslim Pro стверджують, що жодні дані не потрапили до військових, наслідки для користувачів застосунку жахливі — через збір та передачу даних геолокації компаніями користувачі можуть стикнутися з дискримінацією, особливо через те, що регулярними покупцями цих даних є правоохоронні органи та інші урядові організації.

У 2016 році з'ясувалося, що Twitter, Facebook, Instagram та дев'ять інших платформ соціальних надавали компанії–розробнику ПЗ Geofeedia інформацію із соціальних мереж і геодані своїх користувачів. Ці дані використовували працівники поліції по всій території США з метою відстежування й виявлення осіб, які брали участь у протестах «Життя чорних важливі». ФБР також було клієнтом Geofeedia, а в одному зі звітів некомерційної організації The Intercept було зазначено, що інвестором компанії Geofeedia була венчурна фірма In-Q-Tel, яка працює на ЦРУ. Ці приклади демонструють, як моніторинг у соціальних мережах, надмірний збір та розголошення даних цифровими платформами можуть мати для чорношкірих людей суттєві наслідки, пов'язані з несправедливим ставленням до них.

До того ж люди з низьким рівнем доходів мають менше можливостей уникнути збору їхніх даних. А деякі дешевші пристрої та програми збирають більше даних, ніж інші. Наприклад, недорогі смартфони мають попередньо встановлені застосунки, що передають дані і їх неможливо видалити. Деякі ІТ-компанії стягують додаткову платню за уникнення контролю даних, наприклад, компанія AT&T свого часу нараховувала клієнтам постачальників послуг Інтернету 29 доларів США на місяць за відключення відстежування історії перегляду в браузері. Аналогічно деякі ІТ-компанії стягують додаткову платню з клієнтів за функції безпеки, які захищають їх від крадіжки даних як, наприклад, новий тарифний план Twitter, що включає двофакторну автентифікацію і коштує 11 доларів США на місяць. На жаль, конфіденційність даних — це розкіш, яку люди з низьким рівнем доходу не можуть собі дозволити.

Дискримінаційне використання даних під час показу рекламних оголошень 

Після того, як дані зібрано, конфіденційна інформація про мільйони людей готова для відкритого продажу. Її використовують корпорації та урядові організації, обираючи ціллю деякі вразливі незаможні групи населення, при цьому інші верстви населення позбавляються важливих можливостей. Попри правові норми щодо недискримінації за етнічною ознакою, ознакою статі або іншими характеристиками, багато корпорацій використовують алгоритми для реклами саме за такими характеристиками. 

Багато платформ і рекламодавців використовують персональні дані для таргетування реклами для певної категорії людей. Наприклад, інструмент платформи Twitter Tailored Audiences дозволяє рекламодавцям показувати рекламу користувачам по ключовим словам, залежно від їхніх інтересів та географічного положення. А Google використовує інструмент Customer Match, що дозволяє об'єднувати інформацію рекламних компаній та дані користувачів компанії Google.

Таке таргетування часто є дискримінаційним. Рада керівників Федеральної резервної системи з'ясувала, що «навіть користувачі, які шукають інформацію, щоб прийняти зважене рішення, можуть не зробити найкращий вибір для себе або своєї родини, оскільки до них може бути застосоване цифрове переконування і скеровування». 

Компанії показували сумнівну рекламу вразливим групам населення. Тисячі людей похилого віку стали мішенню реклами інвестиційних шахрайств з боку субстандартних кредиторів. Таким же чином показували політичну рекламу групам національних меншин, що призвело до штучного ускладнення процесу голосування. Це стало можливим завдяки масовому збиранню персональної інформації та складанню досьє на підставі таких характеристик, як національність. Команда колишнього президента Трампа використовувала анімаційну графічну рекламу, в якій Гілларі Клінтон намагалася переконати чорношкірих виборців не голосувати в День виборів.

Персональні дані також використовують, щоб певні групи населення не отримували вигідні пропозиції. У 2016 році служба новин ProPublica з'ясувала, що Facebook дозволяла рекламодавцям виключати захищені расові групи зі списку глядачів контенту компанії. Раніше один науковий журнал повідомив, що жінкам показують менше рекламних оголошень про високооплачувану роботу в мережі, ніж чоловікам. Випадки дискримінації можуть траплятися навіть коли рекламодавець не має наміру дискримінувати. У 2018 році компанія Upturn з'ясувала, що Facebook показував рекламні оголошення про роботу для водіїв автобусів аудиторії, яка на 80 відсотків складалася з чоловіків, хоча компанія Upturn не мала наміру показувати рекламу за ознакою статі.

Рекламні оголошення про житло також показували вибірково, за ознакою раси. У 2019 році проти Facebook було порушено справу в Федеральному суді — компанію звинувачували в тому, що вона використовувала «попередньо складений перелік демографічних, поведінкових характеристик та інтересів» для показу реклами агентам із продажу нерухомості та орендодавців, при цьому певна група покупців та орендарів не могла бачити цю рекламу. У справі також зазначалося, що це дозволило «розмістити рекламу про житло, яку не могли бачити жінки, люди з інвалідністю та люди деяких національностей». Система Facebook змінилася після угоди з Міністерством юстиції США. Оголошуючи компромісну угоду, представник уряду зазначив, що алгоритми Facebook порушували закони про справедливе вирішення житлових питань.

Розповсюджена система збору й монетизації компаніями персональної інформації у багатьох випадках є причиною дискримінаційного показу реклами. Внаслідок цього захищені групи не можуть бачити важливі оголошення про роботу або житло. Щоб уникнути дискримінації під час показу реклами, нам потрібні закони, що обмежують первинний збір персональної інформації.  

Дискримінаційне використання даних у процесі автоматичного прийняття рішень

Банки й орендодавці використовують автоматичні системи прийняття рішень, які допомагають вирішити чи надавати послуги потенційним клієнтам. Працедавці також використовують ці системи, щоб підбирати працівників, а в коледжах такі системи допомагають вибирати студентів. Такі системи дискримінують вразливі групи. Існує багато рішень цієї проблеми, зокрема прозорість алгоритмів та суворе застосування законів проти організаційних політик, які нерівномірно впливають на вразливі групи

Частина проблеми в тому, що автоматичні системи прийняття рішень мають легкий доступ до величезного сховища персональних даних, які компанії збирають та продають одна одній. Ці дані підживлюють упередженість алгоритмів. Тому частково рішення в тому, щоб почистити ці сховища та, в першу чергу, обмежити способи, якими компанії збирають наші дані.

Особливо викликають стурбованість випадки, коли фізичні магазини використовують технологію розпізнавання обличчя та фільтрують потенційних покупців, щоб не впускати небажаних клієнтів. Багато магазинів вже давно використовують цю технологію для виявлення потенційних крадіїв, часто покладаючись на помилкові, расово упереджені дані кримінальної юстиції. Нещодавно було виявлено, що цю технологію використовують у спортивному комплексі «Медісон-сквер-гарден», щоб не впускати працівників юридичної фірми, яка подала позов на материнську компанію комплексу. Організація могла з легкістю розширити цей «список ворогів» та включити до нього людей, які протестують проти дискримінаційної політики закладу в мережі або на вулицях. 

Але дуже часто технологія розпізнавання обличчя не працює, особливо коли йдеться про чорношкірих людей і жінок. Чорношкіру дівчину-підлітка Ламію Робінсон помилково вигнали з громадської ковзанки в Детройті, коли система розпізнала її як особу, яка, ймовірно, брала там участь у бійці. Все ж таки рішення проблеми громадянських прав та конфіденційності даних існує: заборонити компаніям робити відбитки обличчя будь-якої особи без її попередньої добровільної інформованої згоди. Ця згода має також стосуватися використання обличчя (або інших ідентифікаційних даних, наприклад, татуювання) у даних для навчання алгоритмів

Дискримінація і несанкціонований доступ до даних та зловмисне використання даних

Збір та зберігання величезної кількості персональних даних також пов'язані з ризиком неналежного використання цих даних працівниками та порушення громадянських прав. У 2014 та 2015 роках звільнили 52 працівника компанії Facebook за те, що вони скористалися доступом до даних користувачів. Один інженер використав сховище приватних бесід із Messenger Facebook, геодані та особисті фотографії, щоб дізнатися, чому жінка, з якою він зустрічався, припинила відповідати на його повідомлення. Інший інженер використав дані Facebook, щоб простежити за жінкою до її готелю. Таке переслідування стало можливим через надмірний збір даних компанією.

Надмірний збір даних також створює ризик витоку даних, що може мати негативні наслідки для людей із низьким рівнем доходів. Крадіжка даних створює додатковий ризик  крадіжки персональних даних, атак з метою вимагання  викупу й небажаного спаму. Щоб уникнути цих атак, потенційні жертви повинні витрачати час і гроші на заморожування й розморожування  кредитних звітів, відстежування своїх кредитних звітів та отримання послуг для попередження крадіжок персональних даних. Ці фінансові витрати часто можуть бути ще більш обтяжливі для людей із низькими доходами та ізольованих груп суспільства. Крім того, непостійність житла може ускладнити оповіщення вразливих людей про те, що сталося порушення.

Існує можливість зменшити ризик порушення громадянських прав — компанії повинні збирати й зберігати менше персональних даних.

Передача даних корпораціями уряду та дискримінаційне використання даних

Дискримінаційні дії уряду можуть бути спричинені купівлею персональних даних у корпорацій. Уряд використовує автоматичні системи для прийняття рішень у багатьох випадках, наприклад, чи повинна поліція  перевірити ту чи іншу особу або район, чи повинні представники органів опіки перевірити умови проживання дитини або чи повинен суддя відпустити людину, яка очікує на судовий розгляд. За словами Вірджінії Юбанкс, ці системи «автоматизують нерівність». Уряди все частіше купують дані у компаній та використовують їх для прийняття таких рішень.

Після скасування Верховним судом США рішення у справі Ро проти Вейда репродуктивне здоров'я все частіше стає  об'єктом уваги у галузі захисту цифрових прав. Наприклад, якщо ви шукали адресу клініки, дані про ваш пошук із Google Maps можуть надходити в поліцію. Ця загроза цифровим правам, що стає надалі сильнішою, особливо небезпечна для спільноти чорношкірих, кольорових громадян та корінних народів, людей із низьким рівнем доходів, іммігрантів, ЛГБТК+ та інших ізольованих груп суспільства, а також медичних організацій, які надають їм послуги. Ми повинні обмежити надання персональних даних та їхню купівлю у компаній шерифами й мисливцями за наживою, які виступають проти абортів. Ми також повинні обмежити доступ поліції до цих даних.

Поліція купує послуги спостереження з використанням відбитків обличчя у таких компаній, як Clearview, яка отримує відбитки обличчя мільярдів людей без їхнього дозволу, а потім передає базу даних відбитків поліції для встановлення особи невідомих підозрюваних по фотографії. Clearview допомогли поліції Маямі встановити особу людини, яка брала участь у протесті «Життя чорних важливі»

Використання поліцією таких корпоративних даних насправді є небезпечним. Через хибне розпізнавання обличчя було безпідставно арештовано щонайменше чотирьох чорношкірих чоловіків. У січні 2020 року поліція Детройта за допомогою програми розпізнавання обличчя заарештувала Роберта Вільямса за крадіжку годинників. Вільямса протримали в поліцейському відділку 30 годин. Після тривалого допиту поліцейські визнали, що «комп'ютер, напевно, помилився». За рік до цього той самий детектив із Детройта арештував іншого чоловіка, Майкла Олівера, після отримання даних про розпізнавання обличчя програмою. Найджіра Паркса звинуватили в крадіжці перекусів у Нью-Джерсі та незаконно арештували після помилкової ідентифікації. Паркс провів 10 днів у в'язниці, після чого майже рік із нього не знімали обвинувачення. Зовсім недавно поліцейський відділку в Батон-Руж арештував та ув'язнив Рандала Рейда майже на тиждень після того, як програма розпізнала його як крадія.

Наступні кроки

Корпорації, уряди та інші організації використовують персональні дані різними дискримінаційними способами. Один із підходів до рішення цієї проблеми — зменшити кількість даних, які ці установи можуть використовувати з метою дискримінації. Щоб викоренити порушення громадянських прав, ми повинні обмежити способи, якими компанії збирають наші персональні дані. 

Організація Electronic Frontier Foundation неодноразово закликала до прийняття таких законів про захист особистих даних. Щоб ці закони були ефективними, вони повинні передбачати їхнє примусове індивідуальне застосування та заборону «оплати за конфіденційність», яку не можуть собі дозволити люди з низьким рівнем доходів. Законодавство на федеральному рівні не повинно витісняти законодавство на рівні штату.

Related Issues