Microsoft відмовляється від інструментів для розпізнавання емоцій, статі й віку

21 червня у Microsoft повідомили, що більше не продаватимуть технології, які мають визначати стать, вік та емоції людини. Компанія пішла на цей крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим і ненадійним», пише NYT.

Головне

  • Microsoft поступово відмовиться від штучного інтелекту для розпізнавання емоцій, статі й віку. Нові користувачі не матимуть доступ до цих функцій, а вже наявні втратять його протягом року.
  • Компанія пішла на такий крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим, ненадійним або інвазивним».
  • Інструменти аналізу віку й статі, емоцій можуть бути корисними в інтерпретації зображень для людей з вадами зору. Однак «існує величезна кількість культурних, географічних та індивідуальних варіацій у тому, як ми виражаємо себе», каже голова відділу ШІ Наташа Кремптон. Зокрема, додала вона, так званий гендерний класифікатор системи був бінарним, «і це не відповідає цінностям» Microsoft.

Деталі

Зміни є частиною політики Microsoft, спрямованої на більш жорсткий контроль над своїми продуктами штучного інтелекту. Зокрема зараз компанія орієнтується на 27-сторінковий документ «Стандарт відповідального штучного інтелекту». У ньому прописано, що ШІ не повинен негативно впливати на суспільство.

Microsoft також змінить умови використання функції розпізнавання обличчя. Ті, хто хочуть ним користуватися, мають подати заявку на доступ і пояснити, як саме застосовуватимуть інструмент. Наприклад, Uber використовує програмне забезпечення у своєму додатку, щоб переконатися, що обличчя водія відповідає ідентифікатору його облікового запису.

Інструменти із використанням ШІ регулярно піддаються критиці. Наприклад, у 2020 році дослідники виявили, що програми, які перетворюють мовлення на текст, розроблені Microsoft, Apple, Google, IBM і Amazon, менш ефективні для темношкірих людей. Система Microsoft була найкращою, але помилково ідентифікувала 15% слів для білих людей і 27% — темношкірих.

Раніше DOU розповідав про інженера Google, який вважає, що AI-система чат-ботів, над якою він працював з осені 2021-го, здатна мислити, висловлювати власну думку й почуття, як семирічна дитина. Компанія вивчила докази співробітника та вирішила відсторонити його від роботи за порушення конфіденційності.

Похожие статьи:
Шановні учасники, брифінг завершено. Інформація щодо конкурсу буде доступна для завантаження. Чекайте оновлення сайту. ...
Program QA Юлия Брыгарь решилась на релокацию в страну, о которой очень мало знала. Она переехала из Днепра в Куала-Лумпур,...
В рубриці DOU Проектор всі бажаючі можуть презентувати свій продукт (як стартап, так і ламповий pet-проект). Якщо вам є про...
Компания Google вновь подвела итоги использования версий операционной системы Android. Новейшее исследование проводилось в...
DOU у партнерстві з FORMATSIA.LVIV запускає дослідження потреб хардвер-інженерів. Зовсім скоро планується відкриття...
Яндекс.Метрика