Ай-питание голосовых помощников с женскими голосами усугубляют вредные гендерные стереотипы, согласно исследованию ООН.
Такие женские помощники изображаются как «услужливый и готов помочь», подкрепляя идею, что женщины — «подчиненной», он находит.
Особую тревогу, он говорит, как они так часто дают «отклонения, вялых или апологетических ответов» до оскорблений.
Авторы доклада призывают технологические компании прекратить голосовых помощников женского пола по умолчанию.
Исследования ЮНЕСКО (Организация Объединенных Наций по вопросам образования, науки и культуры) имеет право, я покраснела бы, если могла бы, заимствованное из ответ от Сири для того, чтобы называться сексуально-провокационный термин.
«Такие компании, как Эппл и Амазон, укомплектованных в подавляющем большинстве случаев мужчина инженеры, создали системы искусственного интеллекта, которые вызывают их женскими цифровых помощников, чтобы приветствовать словесные оскорбления с уловом-меня-если-вы-можете-флирт», — говорится в докладе.
«Ибо речи большинства голосовых помощников женского пола, он посылает сигнал о том, что женщины… послушные помощники, доступные по нажатию кнопки или с тупым голосовая команда «привет» или «ОК». Помощник держит никакая сила агентства за то, что командир спрашивает он. Он с отличием команды и отвечает на запросы, независимо от их тонуса или вражды», говорится в докладе.
«Во многих общинах, это подтверждает общепринятые гендерные предубеждения, что женщины находятся в подчиненном положении и терпимы к плохому обращению».
Исследовательская компания компании Canalys подсчитала, что около 100 миллионов смарт-колонки — оборудование, которое позволяет пользователям взаимодействовать с голосовыми помощниками были проданы во всем мире в 2018 году.
И, по данным исследовательской фирмы оценкам Gartner, к 2020 году некоторые люди будут иметь больше разговоров с голосовыми помощниками, чем с супругами.
Голосовые ассистенты теперь управлять примерно один миллиард задачи в месяц, согласно отчету, и подавляющее большинство — в том числе китайских технологических гигантов — явно женскими голосами.
Корпорация Microsoft, Кортана был назван в честь искусственного интеллекта в видеоигры Гало, который проецирует себя как чувственные обнаженные женщины, в то время как в Siri от компании Apple означает «красивая женщина, которая ведет вас к победе» в скандинавской. В то время как помощник Гугл имеет гендерно-нейтральное имя, его голос по умолчанию женский.
Компания Apple все-таки сделать мужской голос Сири доступна в 2013 году, и это голос по умолчанию в языков, включая британский, арабский и французский.
Доклад призывает разработчиков создавать нейтральную машина пол для голосовых помощников, чтобы запрограммировать их, чтобы препятствовать гендерных оскорблений и объявить о технологии, а не человека с самого начала взаимодействия с человеком.
Группа лингвистов, технологов саунд-дизайнеров и экспериментируют с бесполой цифровой диктофон с голоса и позвонил В.
В докладе также подчеркивается цифровые навыки гендерный разрыв, из-за отсутствия использования интернета среди девочек и женщин в Африке к югу от Сахары и некоторых частях Южной Азии, спад исследований в области ИКТ рассматривается девушек в Европе.
Согласно докладу, женщины составляют всего 12% исследователей ИИ.