Skillbox


Силиконовая долина имеет Франкенштейн момент. Сегодня монстры — это компании с миллиардом долларов, за которые мы пришли, чтобы зависеть от всего: от результатов поиска до автомобильных аттракционов; их создателей, ослепших, чем стали эти платформы. Марк Цукерберг не понял, когда он запустил Facebook из своей гардеробной комнаты в Гарварде, чтобы он стал домом для алгоритмической пропаганды и фильтрации пузырьков. YouTube не ожидал, что станет основным моделям теоретиков заговора, и Twitter не ожидал спонсируемой государством троллинга или высказывания ненависти, которые определяли бы его платформу.

Но должны ли они? В новом путеводителе показаны компании технических компаний, которые могут предвидеть будущие изменения отношений человека с технологиями и что они могут настраивать свои продукты, чтобы они могли нанести меньше урона, когда эти конечные дни придут.

Руководство, названный Ethical OS, выходит из партнерства между Институтом будущего, аналитическим центром на базе Пало-Альто и Лабораторией технологий и общества, годовой инициативой от инвестиционной фирмы Omidyar Network. Обе группы сосредоточены на пересечении технологий и общества. В совокупности они представляют себе этическую ОС как мост между исследователями, которые изучают растущее влияние технологий на общество и компании, которые владеют контролем.

«Здесь мы находимся в этой новой эре, где существует целый ряд непреднамеренных социальных последствий которые появляются по мере того, как технология становится все более распространенной, и тем не менее технологические компании не дотягивают до прямой связи между продуктами, которые у них есть, и могут опередить это », — говорит Паула Голдман, глава Tech and Society Solutions Lab, который возглавлял проект. «Толчком для инструментария Ethical OS было именно то, что: вот инструмент, который поможет вам продумать эти последствия и убедится в том, что то, что вы разрабатываете, хорошо для мира и полезно для вашей долгосрочной перспективе».

Future Shock

. Руководство для трех частей — доступно для загрузки здесь — затрагивает социальные последствия, от дезинформации до экономики допамина. Он функционирует как своего рода книга с контрольными перечнями, мысленными экспериментами и базовыми решениями для разработчиков продуктов, дизайнеров, учредителей или инвесторов, чтобы бороться с будущим воздействием своих продуктов.

В первом разделе описываются 14 близких друг к другу, будущих сценариев, основанных на современных волнениях в технологическом мире, которые могут угрожать компаниям в будущем. Что происходит, например, если такая компания, как Facebook, покупает крупный банк и становится социальным кредитным провайдером? Что произойдет, если технология распознавания лиц станет основным инструментом, создающим новую категорию приложений, которая интегрирует технологию в такие мероприятия, как знакомства и покупки? Командам рекомендуется разговаривать по каждому сценарию, подключать их к платформам или продуктам, которые они разрабатывают, и обсуждать стратегии подготовки к этим возможным фьючерсам.

Каждый из этих сценариев исходил из современных «сигналов», определенных Институт будущего — рост «глубоких подделок», инструменты для «интеллектуального правосудия» и растущие опасения по поводу технологической зависимости.

«Мы собираем такие вещи, которые пробуждают наше воображение, а затем мы ищем шаблоны , отношения. Затем мы общаемся с людьми, которые производят эти технологии, и мы начинаем разрабатывать свои собственные теории о том, где будут возникать риски », — говорит Джейн МакГонигал, директор игровых исследований в Институте будущего, и руководитель исследования Этическая ОС. «Этические дилеммы касаются вопросов, выходящих далеко за рамки следующего следующего цикла или следующего цикла роста, поэтому мы почувствовали, что помогли компаниям развить воображение и предусмотрительность, чтобы думать, что десятилетие может позволить более этическим действиям сегодня».

Вопрос Время

Существует также контрольный список для смягчения последствий стихийных бедствий в восьми «зонах риска», включая этику машин и алгоритмические смещения, контроль данных и монетизацию, а также состояние наблюдения. Руководство побуждает команды находить соответствующие зоны риска, запускать контрольный список и затем задумываться о том, как исправить или смягчить эти риски. Например: как плохие актеры могут использовать ваши технологии, чтобы подорвать или атаковать правду? Является ли технология усиливающей или усиливающей смещения? Как инструменты могут быть разработаны для того, чтобы защищать потраченное время?

«Контрольный список, вероятно, самый простой из них, который можно представить в повседневной обстановке. Мы даже придерживаемся мнения о том, что происходит с данными о клиентах, если ваша компания покупается, продается или закрывается. создала версию для советов директоров, чтобы провести пятиминутную дискуссию на доске », — говорит Райна Кумра, предприниматель по месту жительства в лаборатории Tech and Society Solutions, которая придумала идею инструментария. «Как основатель, когда вы делаете свои начальные собрания продуктов, вы можете добавить этот контрольный список в этот процесс в конце или в середине.

Наконец, руководство включает в себя набор из семи стратегий будущей проверки чтобы помочь командам начать принимать более этические меры. Они берут на себя этические гарантии в других отраслях промышленности — клятву Гиппократа для служащих данных или, например, программу раздачи ошибок, которая вознаграждает людей за фальсификацию этических проблем или возможный общественный вред от технологии

Human Playbook

. Руководство было до сих пор пилотировано почти 20 компаниями, стартапами и школами, которые использовали его либо для более точной беседы об этике, либо для руководства конкретными решениями о продуктах. TechStars, которая запускает более 40 программ запуска ускорителей по всей стране, начала использовать структуру этических ОС, чтобы решить, какие стартапы инвестировать в нее, исходя из их способности думать о будущих проблемах. Колорадо Небрежения, говорит Кумра, не были нормой в технике. «Когда я занимался сбором средств для своего стартапа, я разговаривал с более чем сотней венчурных капиталистов и многими, многими учредителями», — говорит она. «Беседа об этике никогда не возникала».

«Все хотят делать лучше, но мы слышали отзывы, когда мы разговаривали с венчурными капиталистами и техническими соучредителями, секрет производства. Они не знали, что делать ».

Raina Kumra, лаборатория технологий и обществ

По этой причине руководство, подобное этому,« приветствуется, но просрочено », говорит Люк Старк, исследователь из Дартмута, который изучает пересечение поведения и технологий. «[Academics] подумывал об этих проблемах какое-то время, поэтому было бы интересно увидеть, что некоторые идеи и общие проблемы потенциально могут возникнуть перед людьми, которые участвуют в разработке, разработке и финансировании».

Старк говорит, что области проблем, обозначенных в этических операциях, «абсолютно точны». Но поскольку этическая ОС — это руководство, предназначенное для техников-учредителей и инвесторов, некоторые из этих решений требуют бизнес-потребностей по сравнению с социальными. Будущие сценарии предполагают, что глубокие подделки и технологии распознавания лиц будут продолжать расти беспрепятственно, и что технологическая индустрия останется в значительной степени нерегулируемой в течение следующего десятилетия. Он предлагает этические решения для компаний, которые «приятно иметь», в том числе тех, которые помогут делу в нижней строке, а не «нужно иметь».

«В некотором смысле сама этика является очень узким обрамлением , — говорит Старк. «Он поддается этим узким толкованиям индивидуального поведения и индивидуального принятия решений, а не мыслим о структурных вопросах». Он видит руководство, такое как Ethical OS, как превосходный первый шаг в серии «все более последовательных шагов» среди технических компаний.

Goldman также видит этическую ОС в качестве первого шага, чтобы начать запуск мышления о будущем последствия. Она называет руководство «строительные леса» — основой для более глубоких, длительных и более серьезных разговоров. В других отраслях, таких как медицина, существуют аналогичные процедуры для решения этики; В технологии многие компании используют похожие путеводители для решения вопросов безопасности, интернационализации, доступности или пользовательского опыта (например, как кто-то перемещается по первым двум экранам приложения, прежде чем они регистрируются для учетной записи). «Если вы занимаетесь разработкой продукта, вы привыкли запускать эти проигрыватели, чтобы что-то запустить», — говорит Коди Симмс, партнер TechStars. «Я думаю, что этическая ОС может служить подобным типом руководства».

. Возможно ли, что этот вид проверки будущего может стать стандартным в командах по разработке продуктов. Но Goldman и Kumra заявляют, что интерес со стороны технологов никогда не был выше.

«Все хотят сделать лучше, но мы услышали отзывы, когда мы разговаривали с венчурными капиталистами и техническими соучредителями, что они не сделали этого. но они не знали, что делать », — говорит Кумра. «Ничто не может измениться, если у вас нет простого набора инструментов для включения этого изменения».

. Простой набор инструментов мог бы, по крайней мере, начать разговор — и сделать его труднее для основателей в будущем использовать стандартную защиту в общежитии.


Более великие WIRED Stories