Раніше, всі кому не лінь говорили про майбутнє, де штучний інтелект перевершить людину та захопить світ. Але 2018 рік показав, що ця технологія має інші, достатньо серйозніші загрози.

Йдеться про прогнози Уїла Найт (Will Knight) та Карен Хао (Karen Hao) з MIT Technology Review.

Автомобілі, які самознищуються

Після того, як безпілотний автомобіль Uber збив на смерть пішохода, слідство з’ясувало, що трагедії можна було уникнути.

Автовиробники Ford та General Motors, та відносно нові новачки, як наприклад Uber і ціла низка різних стартапів поспішають комерціалізувати технологію, яка не дивлячись на свою сирість вже залучила мільярди доларів інвестицій. Waymo у цій сфері добилися найбільшого прогресу – в минулому році компанія запустила в Арізоні перший сервіс безпілотного таксі. Але навіть технології Waymo дещо обмежені – безпілотні автомобілі не можуть їздити де завгодно та за будь-яких умов.

Чого очікувати у 2019: законодавчі органи США та інших країн поки що закривають очі на цю проблему, боячись завадити майбутнім інноваціям. Адміністрація безпеки дорожнього руху США навіть повідомила, що чинні правила безпеки можна послабити у відношенні до безпілотних авто. Але пішоходи та водії звичайних автівок не давали згоди на те, щоб на них тестували технології. Ще одна серйозна аварія за участю безпілотників у 2019 році й відношення влади все ж зміниться.

Боти втручаються в політику

У березні минулого року прогримів скандал з компанією Cambridge Analytica, яка використала вразливість в технології обміну даними Facebook для втручання в президентські вибори США. Викликаний цією подією резонанс показав, що алгоритми здатні поширювати дезінформацію в суспільстві.

Під час виступу перед Конгресом США Марк Цукерберг пообіцяв, що штучний інтелект навчиться знаходити та блокувати шкідливий контент, хоча технологія все ще не вміє повноцінно розуміти тексти, зображення або відео.

Чого очікувати у 2019: обіцяння Цукерберга буде перевірено під час виборів у двох найбільших країнах Африки – Південної Африки та Нігерії. Крім того, вже розпочалась підготовка до виборів в США у 2020 році, а значить, з’явиться все більше технологій з використанням штучного інтелекту для розповсюдження фейкових новин, включаючи чат-ботів.

Миротворчі алгоритми

В минулому році співробітники Google дізналися, що їх роботодавець постачає технології розпізнавання зображень для дронів армії США. Робітники злякалися, що вони стали на шлях до розробки смертельно небезпечних дронів. Як наслідок – компанія відмовилася від проекту Maven та створила етичні норми та правила для штучного інтелекту.

Великі гравці індустрії й знамениті вчені підтримали ініціативу про заборону використання автономної зброї. Використання штучного інтелекту у воєнних цілях набирають обертів, але відомі компанії, такі як Microsoft та Amazon в цьому не беруть участі.

Чого очікувати у 2019: хоча Пентагон витрачає великі кошти на проекти штучного інтелекту, активісти сподіваються, що у цьому році ООН візьме до уваги попередній закон про заборону автономної зброї.

Нагляд вищого рівня

Здатність штучного інтелекту розпізнавати обличчя з неймовірною точністю привела до того, що в декотрих країнах технології нагляду стають все більш популярними.

Розпізнання облич дозволяє користувачам розблокувати свій смартфон, а алгоритмам автоматично відмічати його на фото. Але захисники цивільних прав вважають, що технологія може привести до антиутопії, оскільки здатна серйозно втрутитися в приватне життя і допустити упередженість до певних груп людей через помилки під час навчання алгоритмів.

У декотрих країнах, особливо в Китаї, технологія розпізнавання облич використовується поліцією та владою для нагляду за громадянами. Amazon продає цю технологію органам США, що займаються політикою емігрантів.

Чого очікувати у 2019: технологія розпізнавання облич буде використовуватися в автомобілях та веб-камерах. Буде визначатися не лише ваша особистість, але й емоції, які ви відчуваєте у цей час. Можливо, цього року вийде закон, що обмежує використання подібної технології.

Безумство дипфейків

В минулому році велику популярність мали фейкові порноролики з накладними обличчями знаменитостей. Таке відео зазвичай називають словом «deepfake», вони створюються за допомогою генеративних мереж або GAN.

Nvidia нещодавно показали, що GAN може згенерувати фотореалістичне зображення обличчя людини будь-якої раси, статі або віку.

Чого очікувати у 2019: усе більше людей будуть задурені явищем дипфейку. Але DARPA буде тестувати нові методи виявлення фейкових відео. Враховуючи, що алгоритми також використовують штучний інтелект, очікувано, що це буде гра у доганялки.

БІЛЬШЕ ЦІКАВОГО:

Джерело: Medium