Втратила контроль: нейромережа відмовилася бути толерантною

    0
    3

    Дослідники з Массачусетського технологічного університету і Стенфорда вивчили три популярні комерційні ШІ-алгоритму розпізнавання осіб і виявили в них ознаки сексизму та расизму. Виявилося, що при аналізі фотографій білих чоловіків алгоритми невірно визначали стать лише у 0,8% випадків, а у разі темношкірих жінок — у 34,7%. Подробиці дослідження повідомляє Science Daily.

     

     

    Джой Буоламвини, провідний автор дослідження, вперше зіткнулася з проблемою упередженості алгоритмів кілька років тому. Для свого аспірантського проекту вона використовувала комерційну програму для розпізнавання осіб. Команда Джой була етнічно і расово строкатою, в ході роботи виявилося, що алгоритм надійно працює тільки з її єдиним білим учасником. Буоламвини, сама темношкіра, спробувала проаналізувати власні фото, і виявилось, що система або зовсім не розпізнає її особу, або невірно визначає стать.

     

     

    Щоб дослідити подібні помилки систематично, дослідниця зібрала добірку зображень, де темношкірі і жінки були представлені набагато краще, ніж у стандартних тестах, що використовуються для перевірки систем розпізнавання осіб. Всього в добірці було більше 1200 зображень. Потім всі зображення були оцінені по шкалі відтінків шкіри Фіцпатріка.

     

     

    Зібрана добірка використовувалася, щоб перевірити три комерційні системи розпізнавання осіб, створені провідними технологічними компаніями. Виявилося, що всі вони набагато точніше працюють з фотографіями білих чоловіків, а у випадку жінок і темношкірих відсоток помилок зростає. Для жінок з темною шкірою — з оцінкою IV, V або VI за шкалою Фіцпатріка — коефіцієнт помилок склав 20,8%, 34,5% та 34,7% відповідно.

     

    Раніше портал “Знай.uа” повідомив, що нейромережа стане “призначати” злочинців.

    Источник: znaj.ua