Skip to content

Расове упередження Twitter Algorithm вказує на більшу технічну проблему

8 de Квітень de 2021

Ключові винос

  • Twitter сподівається виправити те, що користувачі називають расовим упередженням у своєму програмному забезпеченні для попереднього перегляду зображень.
  • Заклик технічного гіганта може бути культурним розрахунком, необхідним галузі для вирішення питань різноманітності.
  • Відсутність різноманітності технологій шкодить ефективності їх технологічного прогресу.

Jaap Arriens / NurPhoto через Getty Images

Twitter збирається розпочати розслідування свого алгоритму обрізання зображень після того, як він став популярною темою, яка спонукала до більш широкої бесіди з питань різноманітності в технічній галузі. Журналіст соціальних мереж потрапив у заголовки після того, як користувачі виявили очевидні расові упередження в своєму алгоритмі попереднього перегляду зображень. Відкриття сталося після того, як користувач Twitter Колін Медленд використав платформу, щоб закликати Zoom не розпізнати своїх чорношкірих колег, які використовували технологію зеленого екрану, але в грандіозній демонстрації іронії він виявив, що алгоритм обрізання зображень Twitter поводився подібним чином і знецінив чорні обличчя. “Звичайно, це величезна проблема для будь-якої меншини, але я думаю, що це набагато ширше питання”. Інші користувачі взяли участь у тренді, що викликає низку вірусних твітів, які показують, що алгоритм послідовно надає пріоритет білим та світлішим шкірам обличчя, починаючи від людей, закінчуючи героями мультфільмів і навіть собаками. Ця невдача свідчить про більший культурний рух у технічній індустрії, який постійно не враховував групи меншин, який перейшов на технічну сторону. “Це змушує меншини почуватися жахливо, наче вони не важливі, і їх можна використовувати для інших речей, які можуть завдати більш серйозної шкоди”, – сказав Ерік Лідрінд Міллер, професор інформатики в Університеті Массачусетсу. телефонне інтерв’ю. “Після того, як ви вирішили, для чого можна використовувати якийсь програмний продукт, і про всю шкоду, яка може статися, ми починаємо говорити про способи мінімізації шансів на таке”.

Канарські на часовій шкалі

Twitter використовує нейронні мережі для автоматичного обрізання зображень, вбудованих у твіти. Алгоритм повинен визначати обличчя для попереднього перегляду, але, схоже, він має помітне біле упередження. Прес-секретар компанії Ліз Келлі написала у Твіттері відповідь на всі проблеми.

Келлі написав у Твіттері: “спасибі всім, хто піднімав це питання. Ми перевірили наявність упередженості перед відправкою моделі і не виявили доказів расової чи гендерної упередженості в нашому тестуванні, але очевидно, що нам потрібно зробити більше аналізу. з відкритим вихідним кодом, щоб інші могли переглядати та копіювати ” Співавтор доповіді “Технології розпізнавання обличчя в дикій природі: заклик до федерального відомства”, Лідрід-Міллер є провідним дослідником щодо надмірностей програмного забезпечення для навчання на основі штучного інтелекту. Він роками обговорював потенційний негативний вплив програмного забезпечення для навчання зображень і говорив про важливість створення реальності, коли ці упередження пом’якшуються наскільки це можливо. У багатьох алгоритмах технології розпізнавання облич використовуються довідкові набори для даних, часто відомі як навчальні набори, які являють собою набір зображень, що використовуються для точної настройки поведінки програмного забезпечення для навчання зображень. Зрештою це дозволяє ШІ легко розпізнавати широкий спектр облич. Однак у цих наборів посилань може не бути різноманітного пулу, що призведе до проблем, подібних до тих, що виникають у команди Twitter. “Звичайно, це величезна проблема для будь-якої меншини, але я думаю, що це також набагато ширше питання”, – сказала Лерд-Міллер. “Це пов’язано з відсутністю різноманітності в технічному секторі та необхідністю централізованої, регулюючої сили, яка б демонструвала належне використання цього виду потужного програмного забезпечення, схильного до зловживань та зловживань”.

Технологій не вистачає різноманітності

Twitter може бути останньою технологічною компанією, що займається рубанням, але це далеко не нова проблема. Область технологій залишається переважно білою, постійно переважають чоловіки, і дослідники виявили, що відсутність різноманітності спричинює тиражування системних, історичних дисбалансів у розробленому програмному забезпеченні. У звіті за 2019 рік Інституту AI Now Університету Нью-Йорка дослідники виявили, що темношкірі становлять менше 6 відсотків робочої сили у провідних технологічних фірмах країни. Подібним чином жінки становлять лише 26 відсотків робітників у цій галузі – статистика нижча за їхню частку у 1960 році. “Це змушує меншини почуватися жахливо, ніби вони не важливі, і це може бути використано для інших речей, які можуть спричинити більш серйозні завдати шкоди “. На перший погляд, ці проблеми представництва можуть здатися буденними, але на практиці заподіяна шкода може бути глибокою. Дослідники звіту AI Now Institute припускають, що це причинно пов’язано з проблемами, пов’язаними із програмним забезпеченням, яке часто не враховує небілі та не чоловічі групи. Будь то інфрачервоні дозатори мила, які не виявляють темнішу шкіру, або програмне забезпечення AI від АМ, яке не відрізняє жіночі обличчя від чоловічих колег, невдача у вирішенні питань різноманітності в технічній галузі призводить до невдачі технологій до вирішення різноманітного світу. “Є багато людей, які не продумували ці проблеми і насправді не усвідомлюють, як ці речі можуть завдати шкоди і наскільки суттєвою є ця шкода”, – запропонував Лірдінг-Міллер щодо вивчення зображень ШІ. “Сподіваємось, ця кількість людей скорочується!”