Зараз девайс перебуває у демоверсії.
Третьокурсники Львівської політехніки разом із менторами з IT-компанії GlobalLogic створили прототип, що відрізняє живу людину від фото- чи відеозображення. Цей портативний девайс можна буде використовувати для оснащення систем безпеки вхідних дверей. Також розпізнавати підозрюваних у злочинах або шукати зниклих людей. Над проєктом працювали 5 місяців. За словами студентки Софії Міхновської алгоритм зараз підтримує демоверсію. Прототип працює за допомогою нейронної мережі. До слова, за схожим принципом функціонує Face ID у iPhone.
“Якщо алгоритм зрозуміє, що ви показуєте йому фото — система вас не пропустить. Я з одногрупниками розробляли частини алгоритмів, тренували нейронні мережі. Для того, щоб вона стала повноцінною системою варто використовувати апаратне забезпечення кращої якості”, — говорить студентка Львівської політехніки.
Студенти реалізували ідею прототипу у життя за допомогою мови програмування Python. Девайс працює автономно, не потребує ні інтернету, ні комп’ютеру. Як зазначила Ольга Чайка, провідна розробниця програмного забезпечення GlobalLogic, працювати над прототипом почали 2 роки тому. Тоді не було потрібного інструментарію, на базі якого створили б систему розпізнавання обличчя.
“Новизна прототипу у тому, що він здатен розрізняти Deep fake*. Проєкт, який передував прототипу збиралися створити просто для визначення людини. Це без урахування того, що можна показати фото людини на телефоні. Цю систему можна було обдурити. Тому ми створили іншу, яка розрізняє людину від зображення”, — говорить Ольга Чайка.
Точність розпізнавання обличчя — 92 %. До слова, система Amazon Recognition, якою до 2020 року користувалася американська поліція, розпізнає людину з точністю 99%.Система аналізує кілька кадрів за короткий проміжок часу. Алгоритм враховує можливість викривлення обличчя людини під час ідентифікації, різне середовище і схожість рис обличчя. За допомогою штучного інтелекту система помічає навіть незначну відмінність зображення особи від реальної людини, завдяки чому неможливо пройти перевірку з чужим фото.Deep fake — накладання справжніх зображень або відео на інші зображення або відеоролики. Використовують для створення підроблених новин (— ред.)