Microsoft відмовляється від інструментів для розпізнавання емоцій, статі й віку

21 червня у Microsoft повідомили, що більше не продаватимуть технології, які мають визначати стать, вік та емоції людини. Компанія пішла на цей крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим і ненадійним», пише NYT.

Головне

  • Microsoft поступово відмовиться від штучного інтелекту для розпізнавання емоцій, статі й віку. Нові користувачі не матимуть доступ до цих функцій, а вже наявні втратять його протягом року.
  • Компанія пішла на такий крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим, ненадійним або інвазивним».
  • Інструменти аналізу віку й статі, емоцій можуть бути корисними в інтерпретації зображень для людей з вадами зору. Однак «існує величезна кількість культурних, географічних та індивідуальних варіацій у тому, як ми виражаємо себе», каже голова відділу ШІ Наташа Кремптон. Зокрема, додала вона, так званий гендерний класифікатор системи був бінарним, «і це не відповідає цінностям» Microsoft.

Деталі

Зміни є частиною політики Microsoft, спрямованої на більш жорсткий контроль над своїми продуктами штучного інтелекту. Зокрема зараз компанія орієнтується на 27-сторінковий документ «Стандарт відповідального штучного інтелекту». У ньому прописано, що ШІ не повинен негативно впливати на суспільство.

Microsoft також змінить умови використання функції розпізнавання обличчя. Ті, хто хочуть ним користуватися, мають подати заявку на доступ і пояснити, як саме застосовуватимуть інструмент. Наприклад, Uber використовує програмне забезпечення у своєму додатку, щоб переконатися, що обличчя водія відповідає ідентифікатору його облікового запису.

Інструменти із використанням ШІ регулярно піддаються критиці. Наприклад, у 2020 році дослідники виявили, що програми, які перетворюють мовлення на текст, розроблені Microsoft, Apple, Google, IBM і Amazon, менш ефективні для темношкірих людей. Система Microsoft була найкращою, але помилково ідентифікувала 15% слів для білих людей і 27% — темношкірих.

Раніше DOU розповідав про інженера Google, який вважає, що AI-система чат-ботів, над якою він працював з осені 2021-го, здатна мислити, висловлювати власну думку й почуття, як семирічна дитина. Компанія вивчила докази співробітника та вирішила відсторонити його від роботи за порушення конфіденційності.

Похожие статьи:
GlobalLogic входить до трьох найбільших ІТ-компаній на українському ринку — зараз тут працює понад 6 тисяч спеціалістів. Водночас кожні...
У новому спецвипуску DOU Podcast говоримо про українську освіту: чому онлайн-навчанням не можна замінити офлайн, ситуацію в регіонах,...
Южнокорейский оператор LG U+ и компания Huawei объявили об успешном завершении совместных испытаний сети 4T4R, которая будет запущена в...
ЗСУ ліквідували чергового російського генерала, у Мінцифри створили посвідчення особи на період воєнного часу, а у Маріуполі...
Южнокорейская компания LG Electronics объявила о достижении в прошедшем четвертом квартале 2015 года операционной выручки в размере 349...
Яндекс.Метрика