Что мне нравится в этом, так это то, что речь идет о действии, а не только о теории, поэтому мы можем принять его и просто использовать для улучшения тек. В 2017 году исследователь Феминистского ИИ Джози Янг создала процесс проектирования феминистских чат-ботов на основе бумаги Шоуэна, и это действительно была наша Полярная звезда — мы адаптировали стандарты Джози для наших собственных мастерских и использовали их для изготовления бюстгальтеров (да, бюстгальтеры — это технологии!), прототипирование личных интеллектуальных помощников. Наши стандарты ориентированы на пять областей, каждая из которых содержит оперативные вопросы, например:
1. Пользователи
«Можете ли вы определить пользователя, который мог бы получить полномочия через вашего чатбота / голосового помощника?»
2. Цель
«Удовлетворяет ли ваш чатбот / голосовой помощник значимые человеческие потребности или устраняет несправедливость?»
3. Предвзятость команды
«Как ваши ценности и положение в обществе связаны с людьми, которых ваш чатбот / голосовой помощник стремится привлечь?»
4. Дизайн и представление
«Как ваш чатбот / голосовой помощник будет напоминать пользователю, что это не человек?»
5. Дизайн беседы
«Какие типы ответов будут воплощать феминистские ценности?»
А вот несколько примеров проектных решений, которые были основаны на стандартах.
Факса никогда не говорит «я». Трудно избегать этого маленького местоимения при разработке разговоров, но мы сделали это, признавая сложные эмоциональные привязанности, которые люди могут сформировать к ботам, которые чувствуют себя очень человечными. Отсутствие «я» напоминает людям, что они не разговаривают с «настоящим» человеком.
F'xa была создана командой с разными расами, полами, гендерной идентичностью и мышлением. Это отражает текущую тенденцию в индустрии искусственного интеллекта. F'xa дает определения ИИ и феминизма от людей с разными расами, полами, гендерной идентичностью и мышлением, признавая, что такие определения культурно расположены. И F'xa использует ряд тонов кожи в своих смайликах, чтобы признать свой голос как нечто многозначное.
Институт AI Now также недавно выпустил собственный отчет «Дискриминационные системы: пол, раса и власть в искусственном интеллекте», в котором описывается кризис разнообразия в секторе искусственного интеллекта. Статистические данные вызывают тревогу: только 18 процентов авторов на крупных конференциях МА являются женщинами; более 80 процентов профессоров ИИ — мужчины; женщины составляют только 15 процентов научных сотрудников ИИ в Facebook и 10 процентов в Google. Публичных данных о трансработниках или других гендерных меньшинствах нет; только 2,5% рабочей силы Google — черные, в то время как Facebook и Microsoft — по 4%. Очевидно, что с этими вопросами нужно что-то делать.
Мы запрограммированы на предвзятость, и мы не можем просто искоренить это из нашего познания, но мы можем замедлить, распознать его и внести исправления в системы (технологические и неврологические), чтобы не усугубить проблему.
Если мы не воспринимаем предвзятость как проектировщиков всерьез, мы собираемся поставить в невыгодное положение всех, кого нынешние технологические системы не поддерживают. Мы рискуем усилить социальное неравенство и дисбаланс сил, которые необходимо срочно исправить. Используемые нами феминистские методы могут быть реализованы во многих различных контекстах, и дизайнеры в любом месте могут рассмотреть возможность их использования, чтобы убедиться, что они не сознательно или неосознанно сохраняют предвзятость. Это не произойдет в одночасье, но чем раньше мы начнем активно вмешиваться в наши процессы проектирования и узнаем больше о социальных контекстах, в которых возникает предвзятость, тем скорее мы начнем создавать более равный социально-технический мир. .