Microsoft відмовляється від інструментів для розпізнавання емоцій, статі й віку

21 червня у Microsoft повідомили, що більше не продаватимуть технології, які мають визначати стать, вік та емоції людини. Компанія пішла на цей крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим і ненадійним», пише NYT.

Головне

  • Microsoft поступово відмовиться від штучного інтелекту для розпізнавання емоцій, статі й віку. Нові користувачі не матимуть доступ до цих функцій, а вже наявні втратять його протягом року.
  • Компанія пішла на такий крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим, ненадійним або інвазивним».
  • Інструменти аналізу віку й статі, емоцій можуть бути корисними в інтерпретації зображень для людей з вадами зору. Однак «існує величезна кількість культурних, географічних та індивідуальних варіацій у тому, як ми виражаємо себе», каже голова відділу ШІ Наташа Кремптон. Зокрема, додала вона, так званий гендерний класифікатор системи був бінарним, «і це не відповідає цінностям» Microsoft.

Деталі

Зміни є частиною політики Microsoft, спрямованої на більш жорсткий контроль над своїми продуктами штучного інтелекту. Зокрема зараз компанія орієнтується на 27-сторінковий документ «Стандарт відповідального штучного інтелекту». У ньому прописано, що ШІ не повинен негативно впливати на суспільство.

Microsoft також змінить умови використання функції розпізнавання обличчя. Ті, хто хочуть ним користуватися, мають подати заявку на доступ і пояснити, як саме застосовуватимуть інструмент. Наприклад, Uber використовує програмне забезпечення у своєму додатку, щоб переконатися, що обличчя водія відповідає ідентифікатору його облікового запису.

Інструменти із використанням ШІ регулярно піддаються критиці. Наприклад, у 2020 році дослідники виявили, що програми, які перетворюють мовлення на текст, розроблені Microsoft, Apple, Google, IBM і Amazon, менш ефективні для темношкірих людей. Система Microsoft була найкращою, але помилково ідентифікувала 15% слів для білих людей і 27% — темношкірих.

Раніше DOU розповідав про інженера Google, який вважає, що AI-система чат-ботів, над якою він працював з осені 2021-го, здатна мислити, висловлювати власну думку й почуття, як семирічна дитина. Компанія вивчила докази співробітника та вирішила відсторонити його від роботи за порушення конфіденційності.

Похожие статьи:
Час від часу я замислювався, чи треба змінювати роботу, чи, може, залишити так, як є? Пів року тому я усвідомив, що це радше питання мого...
Я работаю на enterprise-level аккаунте Dev-Pro, посвященном платформе Point of Sale для ресторанов быстрого питания и retail-бизнеса. Когда-то на проекте...
У новому випуску DOU Podcast говоримо про те, як відбуватиметься повоєнна відбудова України, для чого Мінцифра створила новий кластер...
You have probably wondered what financial planning procedure professional’s use for their clients. But what you do not know is that you can do most of what these pros do while at home. Here are the six steps for financial planning that...
17 липня на порталі «Дія» запрацювало електронне бронювання. За тиждень роботи цього сервісу вдалося забронювати понад 55 тисяч...
Яндекс.Метрика