Фрази, які можуть помилково запускати Alexa, Siri та Google Асистент

Alexa, Siri, Google Асистент і інші голосові помічники стали звичною частиною життя мільйонів людей. Однак захисники конфіденційності побоюються, що пристрої, які постійно прослуховують наші розмови, можуть нести в собі більше ризиків, ніж користі. За даними нового дослідження, загроза набагато серйозніше, ніж вважалося раніше.

Фрази, які можуть помилково запускати Alexa, Siri та Google Асистент

Отримані результати показують, що розумні колонки часто вмикаються, реагуючи на діалоги у фільмах і деякі фрази у мові. Після цього вони починають записувати звуки навколо і передавати їх Amazon, Apple, Google або іншим виробникам. Дослідники виявили більше тисячі словосполучень, включаючи фрази з «Гри престолів», «Американської сімейки», «Карткового будиночка» або новинних програм, які призводять до некоректного запуску пристроїв.

«Ці системи спеціально запрограмовані з деяким ступенем припущень, щоб краще розпізнавати мову користувачів, — розповідає одна з вчених, Доротея Колоса (Dorothea Kolossa). — Це зроблено, щоб пристрої працювали ефективніше, але іноді це призводить до помилкових спрацьовувань».

Фрази, яких варто уникати

В основному це слова і вирази, які за своїм звучанням нагадують назву пристрою.

  • Alexa: unacceptable, election, a letter
  • Google Assistant: OK, cool; Okay, who is reading
  • Siri: a city, hey jerry
  • Cortana: Montana

Запуск Alexa в епізоді з «Гри престолів»

У цьому відео персонаж «Американської сімейки» говорить hey jerry і випадково запускає Siri.

Пристрої спочатку активуються локально, на рівні алгоритмів, які аналізують фрази. Потім система приймає це за спробу включення і відправляє звук на сервери компанії, де більш надійні механізми підтверджують це припущення. Іноді розумні колонки активуються лише локально, а алгоритми в хмарі визнають запит помилковим.

Вторгнення в особисте життя

За словами дослідників, коли пристрої прокидаються, вони записують частину сказаного і передають ці дані виробнику. Співробітники компанії можуть розшифровувати ці аудіозаписи, щоб поліпшити технології розпізнавання мови. В результаті фрагменти потенційно приватних розмов можуть потрапити в розпорядження третіх осіб.

І це не теоретичний ризик: у 2016 році правоохоронні органи, які розслідували вбивство, викликали в суд представників Amazon і запросили дані Alexa, передані незадовго до злочину. Пізніше газета The Guardian повідомила, що співробітники Apple іноді транскрибують делікатні розмови, підслухані Siri. На записах виявилися бесіди між лікарями та пацієнтами, ділові переговори, обговорення нелегальних угод і сексуальні контакти.

Леа Шенхерр (Lea Schönherr), Максиміліан Голл (Maximilian Golla), Ян Уайл (Jan Wiele), Торстен Айзенхофер (Thorsten Eisenhofer), Доротея Колоса (Dorothea Kolossa) і Торстен Холц (Thorsten Holz) з Рурського університету в Бохумі та Інституту безпеки та конфіденційності імені Макса Планка випустили науково-дослідну роботу під назвою «Це неприпустимо. Де моя конфіденційність? ». Ось до яких висновків вони прийшли:

«Нам вдалося ідентифікувати понад тисячу послідовностей, які помилково запускають розумні колонки. Приклади представлені у відео. У нашому дослідженні ми аналізуємо різноманітні джерела аудіо, вивчаємо вплив гендеру і різних мов та вимірюємо відтворюваність виявлених тригерів. Також ми описуємо метод штучного створення таких виразів. Зворотне декодування каналу зв’язку Amazon Echo дозволяє отримати уявлення про те, як комерційні компанії працюють з даними тригерами на практиці. Крім того, ми аналізуємо вплив випадкових тригерів на конфіденційність і обговорюємо механізми, які можуть захистити особисті дані користувачів розумних колонок».

Вчені проаналізували голосові помічники Amazon, Apple, Google, Microsoft і Deutsche Telekom, а також три китайських моделі — Xiaomi, Baidu і Tencent. У недавній публікації розглядалися пристрої перших чотирьох виробників. Представники Apple, Google і Microsoft не відразу це прокоментували. Пізніше Amazon опублікував наступну заяву:

«На жаль, нам поки не надали доступ до методології даного дослідження, тому ми не можемо підтвердити висловлені в ньому судження. Зі свого боку ми можемо запевнити вас, що конфіденційність — це важлива частина сервісу Alexa, і наші пристрої активуються тільки після проголошення відповідного слова. Користувачі розмовляють з Alexa мільярди раз на місяць, і випадки помилкового спрацьовування відбуваються вкрай рідко. Наші системи розпізнавання мови поліпшуються з кожним днем ​​у міру використання клієнтами даних пристроїв. Ми продовжуємо вдосконалювати зазначені технології та закликаємо дослідників розкрити нам методологію дослідження, щоб ми могли відповісти більш докладно».

Дослідники відмовилися надавати копію до публікації повної версії статті. Однак з представлених даних вже можна зробити висновок, що голосові помічники можуть порушувати конфіденційність непомітно для користувачів. Тим, кого турбує дана проблема, рекомендується використовувати цифрові асистенти тільки тоді, коли це дійсно необхідно, і відключати їх в інший час. Крім того, можна повністю відмовитися від даних пристроїв.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Arstechnica