«Ваша посмішка фейк» — система розпізнавання емоцій оцінює наскільки щасливі співробітники

У Китаї створена система на базі штучного інтелекту, яка оцінює настрій людини по виразу його обличчя. Виробник стверджує, що програма допоможе скоротити кількість конфліктів і дисциплінувати людей. Однак експерти налаштовані не так оптимістично.

Уявіть, що ви відпрацювали вже 12 годин, відчуваєте втому і розчарування, але змушуєте себе зберігати нейтральний вираз обличчя. Сил вже немає, але позіхати, морщитися або хмуритися не можна — за вами спостерігає всевидюче око. Воно відстежує ваш емоційний стан і обов’язково повідомить, якщо ви виглядаєте зліше, ніж допустимо.

Це не сюжет науково-фантастичного фільму або епізоду серіалу «Чорне дзеркало». Для деяких працівників китайських технологічних корпорацій це вже стає реальністю.

Система розпізнавання емоцій, розроблена китайською компанією Taigusys, може виявляти та відстежувати вираз обличчя людей і створювати докладні звіти про кожну людину, щоб фіксувати їх емоційний стан. Однак дослідники відзначають, що подібні системи не тільки часто помиляються, але й абсолютно неетичні.

Вперше про цю систему згадано в травневому розслідуванні The Guardian. Taigusys називає своїми клієнтами такі корпорації, як Huawei, China Mobile і PetroChina. Однак невідомо, чи використовується цей продукт в їх офісах.

Видання Insider зв’язалося з Taigusys і 36 компаніями зі списку її партнерів, але жодна з них не відповіла на запити про коментарі.

Як це працює?

На сайті компанії повідомляється, що її система допомагає «розв’язувати нові проблеми» і може «мінімізувати конфлікти», пов’язані з емоційною поведінкою.

Це робиться за допомогою системи штучного інтелекту, яка може одночасно зчитувати вирази облич кількох людей. Потім алгоритм вивчає рухи лицьових м’язів і біометричні особливості кожної людини та оцінює їх за кількома шкалами, описаним Taigusys.

  • Хороші емоції — щастя, здивування і почуття, викликані чимось позитивним.
  • Негативні — відраза, сум, збентеження, презирство і гнів.
  • Нейтральні — наприклад, наскільки людина зосереджена на завданні.

Taigusys стверджує: програма настільки тонка, що визначить, якщо хтось «натягує» посмішку.

Також вона формує звіти про людей, в яких може порекомендувати їм «емоційну підтримку», якщо маркери негативних емоцій перевищують норму.

«Виходячи з аналізу рис обличчя людини, система може обчислити різні метрики, в тому числі наскільки конфліктною, напруженою або нервовою є людина. Ми також можемо проаналізувати емоційну реакцію людини та з’ясувати, чи не замишляє вона чогось підозрілого», — йдеться в описі продукту компанії.

Етика і права людини

Правозахисники та технічні експерти Insider заявляють, що тренд викликає тривогу: в основі систем розпізнавання емоцій лежать неетичні, ненаукові ідеї.

Відуші Марда (Vidushi Marda), старший керівник британської правозахисної програми Article 19, і Шазеда Ахмед (Shazeda Ahmed), аспірант філософії в Школі інформації Каліфорнійського університету в Берклі, в січні 2021 року опублікували дослідження з результатами, що вражають. Вони виявили 27 компаній в Китаї, які працювали над розробкою програм розпізнавання емоцій, включаючи Taigusys.

«Якщо така технологія впроваджується, це порушує етичні та юридичні права співробітників на робочому місці. Навіть від приватних компаній очікують поваги до недоторканності приватного життя і гідності, а також права співробітників на свободу дій і думок», — додає Марда.

Вона зазначає, що системи розпізнавання емоцій засновані на слабкому і не доведеному науково припущенні, що вираз обличчя пов’язаний з внутрішнім емоційним станом людини.

Через постійне спостереження люди можуть почати контролювати себе, щоб обдурити систему.

Даніель Лейфер (Daniel Leufer), аналітик по європейській політиці некомерційної організації Digital civil rights Access Now, зазначає: навіть якби програма могла принести результат, вона грубо порушує права людини — право на недоторканність приватного життя, свободу вираження поглядів та свободу думки.

«Найгірше те, що порушення можуть статися не дивлячись на те, що розпізнавання емоцій неможливо з наукової точки зору. Сам факт того, що люди вірять в це, а також створюють і розгортають системи, що претендують на це, надає реальний вплив на людей, — каже Лейфер. — Просто не використовуйте це, не розробляйте і не фінансуйте».

«Суспільство, яке стежить за нашими емоціями, — це суспільство, яке буде винагороджувати одних і карати інших. Чи є певні емоції свідченням злочинності чи низької продуктивності? », — ставить питання Роб Райх (Rob Reich), професор політології в Стенфорді та співавтор книги з етики та технологій «Системна помилка: у чому помилилася Кремнієва долина і як ми можемо перезавантажитися» (System Error: Where Silicon Valley Went Wrong and How We Can Reboot).

«Великий Брат буде спостерігати… Результатом стане систематичне порушення приватного життя і деградація людства», — стверджує Роб Райх.

Лейфер додає, що використовувати системи штучного інтелекту для спостереження за чужими емоціями неетично, особливо якщо спостереження ведуть роботодавці, поліція та уряд — ті, кому підпорядковуються ті, за ким спостерігають.

Можливо, саме тому в’язниці є одними з небагатьох робочих місць, які відкрито зізналися у використанні програми.

Раніше генеральний директор Taigusys розповів The Guardian, що системи його компанії встановлені в 300 в’язницях і центрах утримання під вартою по всьому Китаю. Вона підключена приблизно до 60 тисяч камер в таких установах і допомагає зробити ув’язнених «більш слухняними».

За допомогою цієї системи влада може стежити за людьми в режимі реального часу, 24 години на добу.

«Насильство і самогубства дуже поширені в центрах утримання під вартою. Навіть якщо зараз поліція не б’є ув’язнених, часто їх намагаються виснажити, не дозволяючи їм заснути. В результаті у деяких з’являються психічні розлади, і вони намагаються накласти на себе руки. І наша система допоможе запобігти цьому», — зазначає Чень Вей (Chen Wei) — генеральний менеджер Taigusys.

Десмонд Онг (Desmond Ong), доцент кафедри інформаційних систем і аналітики Школи обчислювальної техніки Національного університету Сінгапуру, вважає, що потенційно програма могла б допомогти в «виявленні ситуацій, що становлять загрозу життю — втоми, сп’яніння або психічних проблем у пілотів і машиністів поїздів».

Однак і він вказує, що вона може стати інструментом для несправедливого і нелюдського поводження з людьми. Наприклад, якщо в KPI співробітників колл-центру додадуть емпатію.

Сандра Вахтер (Sandra Wachter), доцент і старший науковий співробітник Оксфордського інституту інтернету, вважає: малоймовірно, що алгоритм буде точно розуміти складний емоційний стан людей тільки по виразу обличчя. Наприклад, нас часто вчать ввічливо посміхатися, і це не завжди означає гарний настрій або згоду.

«Застосування програм для розпізнавання емоцій до співробітників також становить загрозу для різноманітності, оскільки через них людям доведеться діяти так, щоб відповідати алгоритмічному стандарту. Це порушує право на свободу вираження себе», — каже Вахтер.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Insider

Глеб Петров

Доктор технических наук, член научно- аналитического совета Украинского ядерного общества.

Добавить комментарий