Microsoft відмовляється від інструментів для розпізнавання емоцій, статі й віку

21 червня у Microsoft повідомили, що більше не продаватимуть технології, які мають визначати стать, вік та емоції людини. Компанія пішла на цей крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим і ненадійним», пише NYT.

Головне

  • Microsoft поступово відмовиться від штучного інтелекту для розпізнавання емоцій, статі й віку. Нові користувачі не матимуть доступ до цих функцій, а вже наявні втратять його протягом року.
  • Компанія пішла на такий крок зокрема через критику низки науковців та активістів, які стверджували, що таке програмне забезпечення може бути «упередженим, ненадійним або інвазивним».
  • Інструменти аналізу віку й статі, емоцій можуть бути корисними в інтерпретації зображень для людей з вадами зору. Однак «існує величезна кількість культурних, географічних та індивідуальних варіацій у тому, як ми виражаємо себе», каже голова відділу ШІ Наташа Кремптон. Зокрема, додала вона, так званий гендерний класифікатор системи був бінарним, «і це не відповідає цінностям» Microsoft.

Деталі

Зміни є частиною політики Microsoft, спрямованої на більш жорсткий контроль над своїми продуктами штучного інтелекту. Зокрема зараз компанія орієнтується на 27-сторінковий документ «Стандарт відповідального штучного інтелекту». У ньому прописано, що ШІ не повинен негативно впливати на суспільство.

Microsoft також змінить умови використання функції розпізнавання обличчя. Ті, хто хочуть ним користуватися, мають подати заявку на доступ і пояснити, як саме застосовуватимуть інструмент. Наприклад, Uber використовує програмне забезпечення у своєму додатку, щоб переконатися, що обличчя водія відповідає ідентифікатору його облікового запису.

Інструменти із використанням ШІ регулярно піддаються критиці. Наприклад, у 2020 році дослідники виявили, що програми, які перетворюють мовлення на текст, розроблені Microsoft, Apple, Google, IBM і Amazon, менш ефективні для темношкірих людей. Система Microsoft була найкращою, але помилково ідентифікувала 15% слів для білих людей і 27% — темношкірих.

Раніше DOU розповідав про інженера Google, який вважає, що AI-система чат-ботів, над якою він працював з осені 2021-го, здатна мислити, висловлювати власну думку й почуття, як семирічна дитина. Компанія вивчила докази співробітника та вирішила відсторонити його від роботи за порушення конфіденційності.

Похожие статьи:
Німецький розробник програмного забезпечення SAP оголосив про надання безплатного доступу до своїх новітніх технологій університетам...
Оператор мобильной связи МТС объявил о включении на территории действия GSM-сетей МТС в регионах России технологии передачи голосам в...
Здравствуйте, уважаемые читатели! Сегодня предлагаем обсудить HDMI-кабели, USB-OTG и прочие улучшающие функциональность смартфона...
Чи буває так, що люди покидають компанії не через бажання заробляти більше, а з інших причин, часом погоджуючись навіть...
У свіжому випуску новинного дайджесту DOU News розповідаємо про запуск «єБронювання», Defense-tech розробки, які допомагають...
Яндекс.Метрика