Skip to content

Як алгоритмічне упередження може зашкодити підліткам

22 de Квітень de 2021

Ключові винос

  • Експерти зазначають, що алгоритмічне упередження шкодить підліткам, які проводять багато часу в Інтернеті.
  • Нещодавно користувачі Twitter зіткнулися з проблемою, при якій чорні обличчя вибрали на користь білих.
  • Мозок підлітків, що розвивається, може бути особливо сприйнятливим до згубних наслідків алгоритмічного упередження, стверджують дослідники.

Клаус Ведфельт / Getty Images

Упередження, закріплені в деяких технологіях, відомих як алгоритмічне упередження, можуть завдати шкоди багатьом групам, але експерти кажуть, що це особливо шкодить підліткам. Алгоритмічне упередження, коли комп’ютерні системи показують упереджені результати, стає дедалі більшою проблемою. Нещодавно користувачі Twitter знайшли приклад упередженості на платформі, коли алгоритм виявлення зображень, який обробляє фотографії, вирізав чорні обличчя на користь білих. Компанія вибачилася за проблему, але поки не випустила виправлення. Це приклад упередженості, з якою стикаються підлітки, коли вони виходять в Інтернет, і вони роблять це більше, ніж будь-яка інша вікова група, стверджують експерти. “Більшість підлітків не знають, що компанії соціальних медіа пропонують їх для просування конкретного контенту, який, на їх думку, сподобається користувачам [in order] змусити їх залишатися якомога довше на платформі “, – заявила в електронному інтерв’ю доктор Май-Лі Нгуєн Стірс, доцент Школи медсестер при Університеті Дюксен, яка вивчає використання соціальних медіа серед підлітків / студентів”. Навіть якщо існує певний рівень свідомості щодо алгоритму, ефект від отримання недостатньої кількості вподобань та коментарів все одно є потужним і може вплинути на самооцінку підлітків “, – додав Стірс.

Розвиваючи мозок

Алгоритмічне упередження може вплинути на підлітків непередбачуваним чином, оскільки їх префронтальна кора все ще розвивається, пояснила в електронному інтерв’ю Мікаела Пізані, головний науковий співробітник компанії Rootstrap. “Ефект від недостатньої кількості вподобань та коментарів все ще сильний і може вплинути на самооцінку підлітків”. “Підлітки особливо вразливі до явища” соціальної фабрики “, де алгоритми створюють соціальні кластери на онлайн-платформах, що призводить до тривоги та депресії, якщо потреби підлітка в соціальному схваленні не задовольняються”, – сказала Пізані. “Алгоритми спрощуються на основі попередніх недосконалих даних – що призводить до надмірного представлення стереотипів за рахунок більш тонких підходів до формування ідентичності”. Якщо взяти ширшу точку зору, ми також залишаємось під питанням, як суспільство, чи хочемо ми, щоб алгоритми формували наших підлітків “подорожі до дорослого віку, і чи ця система навіть підтримує, а не стримує особистий особистий ріст?”

Через ці проблеми зростає потреба пам’ятати про підлітків при розробці алгоритмів, вважають експерти. “Спираючись на дані фахівців з розвитку, науковців даних та молодіжних захисників, політика XXI століття щодо конфіденційності даних та алгоритмічного проектування також може бути побудована з урахуванням особливих потреб підлітків”, – написала Авріель Еппс-Дарлінг, докторант Гарварду. нещодавно. “Якщо ми замість цього продовжимо применшувати або ігнорувати способи, якими підлітки є вразливими до алгоритмічного расизму, шкода, швидше за все, буде відображатись через покоління”.

Боротьба з упередженнями

Поки вирішення проблеми не існує, деякі дослідники намагаються знайти способи зменшити шкоду, заподіяну молодим людям за допомогою упереджених алгоритмів. “Втручання були зосереджені на тому, щоб підлітки визнали, що їхні соціальні медіа негативно впливають на їх психічне здоров’я, і ​​намагаючись розробити стратегії, щоб пом’якшити це (наприклад, зменшення використання соціальних мереж)”, – сказав Стірс. “Деякі студенти коледжу, з якими ми брали інтерв’ю, вказали, що вони відчувають себе вимушеними створювати вміст, щоб залишатися” актуальним “, навіть якщо вони не хочуть виходити чи писати”, – продовжила вона. “Однак вони відчувають, що їм потрібно генерувати вміст, щоб підтримувати зв’язок зі своїми послідовниками чи друзями”.

Кінцевою відповіддю може бути усунення людських упереджень від комп’ютерів. Але оскільки програмісти – лише люди, це складний виклик, вважають експерти. Одне з можливих рішень – розробити децентралізовані комп’ютери та запрограмовані забувати те, про що вони навчились, говорить Джон Сюйт, головний директор з технологій фірми робототехніки KODA. “Через децентралізовану мережу дані та аналітика цих даних збираються та аналізуються з різних точок”, – сказав Сьют в електронному інтерв’ю. «Дані збираються та обробляються не з однієї обробки розуму ШІ в межах його алгоритму, а сотні чи навіть тисячі». Коли ці дані збираються та аналізуються, старі «висновки» або зайві дані забуваються. Завдяки цій системі алгоритм, який, можливо, почався з упередженості, врешті-решт виправить та замінить це упередження, якщо воно виявиться помилковим. “Хоча упередження може бути віковою проблемою, можуть існувати способи боротьби з ним, принаймні в Інтернеті. Проектування комп’ютери, які позбавляються наших забобонів – це перший крок.