В этой статье автор утверждает, что воспроизведение эффекта принятия этических решений недостаточно для достижения функциональной морали в искусственных моральных агентах («AMA’s»). Этот подход получил название подхода "как-если" к машинной этике. Автор возражает против этого подхода на том основании, что подход "как если бы" требует от человека принятия существенных метаэтических утверждений о морали, которые по меньшей мере не обоснованы, а возможно, даже ошибочны.
Одной из целей эксперимента "Моральная машина" было "внести вклад в разработку глобальных, социально приемлемых принципов машинной этики". Эксперимент привлек значительное внимание, но также подвергся серьезной критике, в первую очередь со стороны Жака. Цель данной статьи также состоит в том, чтобы внести свой вклад в предотвращение подобных экспериментов по машинной этике. Однако в данной работе делается еще более глубокий вывод о том, что частью проблемы был сам подход эксперимента к морали, который, как утверждает автор, разделяется многими другими проектами этического «AI». В проектах этического «AI», таких как эксперимент "Моральная машина", цель, которую обычно преследуют при воспроизведении принятия этических решений, заключается в создании машин, которые выглядят так, "как будто" они принимают этические решения. Отсюда автор называет это "как если бы" подходом к воспроизведению принятия этических решений. Наиболее важными сторонниками этого подхода являются Уоллах и Аллен, которые в своей основополагающей работе "Моральные машины" предложили, что мораль машины должна быть построена через разделяемые промежуточные шаги, которые сначала направлены на реализацию "функциональной морали", в отличие от "истинной морали", которой, по нашему мнению, обладают люди. Это означает, что разработка искусственного морального агента должна быть направлена на достижение "функциональной эквивалентности поведения" при принятии этических решений, что, по их утверждению, "является всем, что может иметь значение для практических вопросов проектирования «AMA’s»". В этой статье автор утверждает, что подход "как если бы" к принятию этических решений недостаточен для достижения функциональной морали в «AMA’s», а также то, что мы не должны стремиться воспроизвести этическое принятие решений, лишь фиксируя эффект этического принятия решений. Автор возражает против этого подхода на том основании, что подход "как если бы" требует от человека принятия существенных метаэтических утверждений о морали, которые по меньшей мере необоснованны, а возможно, даже ошибочны. Другими словами, подход "как если бы" предполагает слишком много о морали, чтобы быть подходящим подходом для воспроизведения принятия этических решений. Цель автора - предположить, что ограниченность картины морали, принятой в этих взглядах, может быть правдоподобной причиной этического обеднения эксперимента "Моральная машина". Эта статья также является предложением начать (или вернуться) к разговору о том, как мораль рассматривается в машинной этике. Для начала автор вводит хайдеггеровскую концепцию энфрейминга, предложенную в эссе "Вопрос о технологии".
Энфрейминг, суть современной технологии, по Хайдеггеру, "это вызов, который ставит перед природой необоснованное требование, чтобы она поставляла энергию, которую можно извлечь и хранить как таковую". "Сельское хозяйство теперь - это механизированная пищевая промышленность. Воздух теперь используется для получения азота, земля - для получения руды, руда - для получения урана" и т.д. Технологический спрос на энергию управляет природой и организует ее в "стоячий резерв", или в состояние, когда природа готова к извлечению энергии. Эта идея о том, что мир становится резервом, важна для понимания энфрейминга. Кроме того, Хайдеггер называет такую суть неразумной, ведь она несет опасность: "она изгоняет человека в тот вид раскрытия, который является упорядочиванием". Это означает, что энфрейминг делает невозможным доступ к истине объекта в мире. Другими словами, его опасность заключается в невозможности доступа к "фундаментальной характеристике" человеческой сущности без ее "маркировки": люди могут существовать только как исполнители энфрейминга, или человеческие ресурсы, функция которых заключается в осуществлении перехода всех вещей в стоячие резервы. В целом, энфрейминг - это процесс, в котором технология меняет наше отношение к миру, изменяя то, как мир представляется нам. Таким образом, автор лишь стремится предположить, что идея энфрейминга может дать полезное представление о состоянии машинной этики. Но какое отношение это имеет к машинной этике? Хайдеггер предполагает, что мы теряем возможность доступа к "фундаментальной характеристике" нашей сущности. А автор говорит нам о том, что этика, человеческое начинание, теряет фундаментальную характеристику своей сущности через подход "как если бы" в машинной этике. Благодаря подходу "как если бы" этика превращается в резерв. Поскольку этика превращается в резерв, она реорганизуется в поле, более подходящее для распространения «AMA», капитулируя перед определенными метаэтическими взглядами. Автор называет этику, возникающую в результате такого изменения, "Готовой этикой". Готовая этика - это реконструкция морали с помощью метаэтических рамок, которые в наибольшей степени способствуют развитию «АМА». Она мотивирована потребностью в машинной морали, и поэтому, на первый взгляд, является убедительной. Типичное обоснование необходимости «AMA’s» выглядит следующим образом: «AI»- это инструмент, который в достаточно развитом состоянии должен не только улучшить, но и полностью заменить человека там, где это целесообразно. Чтобы замена была как можно более распространенной, технология должна быть надежной. В «AI» одним из требований надежности является выполнение искусственным агентом соответствующих норм без активного контроля со стороны человека. Очевидно, что для достижения надежности принятие этических решений должно быть каким-то образом представлено в искусственном агенте - машинной моралью. Таким образом, возникает необходимость в «АМА».
Проблема с воспроизведением принятия этических решений на любом уровне заключается в том, что у нас нет решающей теории морали. Не будет преувеличением сказать, что, когда речь идет о принятии этических решений, мы совершенно запутались в том, что именно следует воспроизводить. Нам предлагают использовать лучшее "приближение [этики], согласованное в обществе". Мы должны имитировать эффекты - "компетентность", "функцию", "как если бы" - этики. Стало разумным представлять дело таким образом, что другого выбора нет, потому что машинная мораль "неизбежна".
При таком развитии событий внешний вид этики занимает место сущности этики в процессе развития «АМА», а значит, и машинной этики. Здесь незаметно влияние энфрейминга, когда "фундаментальная характеристика" морали теряется в процессе извлечения. То, что получается в результате применения подхода "как если бы", лишено этой "фундаментальной характеристики" морали: это совершенно другая мораль - мораль, которая переосмыслена прагматическими потребностями развития «AI». Готовая этика, результат подхода "как если бы" к тиражированию принятия этических решений, является взглядом на мораль и, следовательно, метаэтическим взглядом. Она представляет собой комбинацию версий морального генерализма и морального натурализма. Что касается морального генерализма, то зависимость этики ИИ от подхода к морали, ориентированного на принципы, уже была отмечена и подвергнута критике. Далее, многие представительные работы по машинной морали либо сосредоточены на выявлении моральных принципов, которыми могут руководствоваться искусственные агенты, либо выбирают реализацию таких принципов на основе существующих моральных теорий по принципу "сверху вниз", что предполагает рассмотрение общих принципов для анализа конкретных случаев. Приверженность моральному натурализму наиболее явно проявляется в проектах, использующих агрегацию предпочтений для определения общих принципов, которыми будут руководствоваться искусственные агенты. Агрегирование предпочтений известно как "объединение рейтингов предпочтений нескольких индивидов по двум или более социальным альтернативам в единый коллективный рейтинг предпочтений (или выбор) по этим альтернативам". В контексте разработки этического «AI» это означает, что на основе объединения многих примеров индивидуальных человеческих предпочтений принимается политическое решение о том, как будут действовать машины. Однако, по мнению автора, есть основания полагать, что эти взгляды на мораль могут быть ошибочными. Поскольку они могут быть ошибочными, это делает эти взгляды заслуживающими обсуждения в перспективе развития «AMA’s». Эффекты, производимые «AMA’s», будут определяться этими метаэтическими взглядами. Изменение нашего общего морального суждения между двумя ситуациями зависит от изменения валентности действий мужчины. Валидность каждого действия зависит от информации, которая нам открывается. Действия мужчины по возмещению ущерба в первой ситуации не являются морально эквивалентными тому, что он делает во второй ситуации, хотя содержание самого действия, если брать его в отдельности, не меняется. Поэтому обобщенные моральные императивы из ситуаций не могут быть надежно применены к различным ситуациям. Это создает проблемы для достаточности моральных принципов, что ставит морального генералиста в положение обороняющегося.
По мнению Малле, моральная компетентность, которую можно определить, изучив, как мораль практикуется нами в настоящее время, должна быть точкой отсчета при воспроизведении принятия этических решений. Получаемая в результате функциональная моральная компетентность противостоит, например, теоретическим идеалам моральной компетентности. Малле предполагает, что знание "истинной" моральной компетентности не является необходимым для производства морально приемлемых действий.
Автор считает, что это дает слишком благоприятную интерпретацию того, насколько хороши люди на самом деле. Хотя с инженерной точки зрения полезно думать, что наблюдаемое в данный момент поведение людей служит подходящей точкой отсчета для других агентов, с этической точки зрения делать это наивно и даже опасно - как было бы, если бы результаты эксперимента "Моральная машина" были немедленно представлены в автономных транспортных средствах. Эти предположения намекают на то, где подход "как если бы" промахивается в воспроизведении принятия этических решений. Хабермас утверждает, что существует "этическое и моральное применение практического разума". Моральное применение заключается в том, чтобы спросить, "могли ли все [члены морального сообщества] желать, чтобы любой человек в [их] ситуации действовал в соответствии с той же самой максимой". Это различие подчеркивает различные мотивы оправдания в моральной жизни: первое направлено на индивидуальную целостность, а второе - на общественную гармонию.
Основываясь на этом различии, хабермасианская картина морального дискурса предполагает, что ответ на нормативный вопрос вырабатывается в результате решения индивида прибегнуть к морально-этическому использованию практического разума. Мораль, согласно Хабермасу, - это переговоры между индивидом и обществом. То, что моральная компетентность строится на переговорах между индивидом и обществом, подразумевает, что моральная компетентность строится не на следовании нормам, а на готовности индивида соотнести свои собственные ценности с ценностями общества. Поскольку процесс оправдания зависит от взаимодействия между агентами с независимыми целями, которые постоянно ведут переговоры, он также может объяснить, как мы пересматриваем наши моральные убеждения или как мы применяем наши моральные принципы, исходя из вновь возникших ситуаций. Моральный факт, согласно модели Хабермаса, не существует в статичном виде, как это предпочитает Реди-Этика.
Поскольку "машинная мораль в такой же степени связана с принятием решений человеком, как и философские и практические вопросы внедрения «AMA’s»", воспроизведение процесса обоснования следует рассматривать как возможно необходимый компонент для практического внедрения «AMA’s». В конечном итоге, подход "как если бы" - это попытка воссоздать наблюдаемые эффекты способности человеческих агентов принимать этические решения, а не попытка точно воспроизвести реальный способ, которым человеческие агенты принимают этические решения. Для инженера просто прагматично предположить существование полезных закономерностей в нашей наблюдаемой моральной жизни.
В итоге, ответ автора статьи заключается в том, что одно из необходимых условий создания функционально моральной машины - сделать ее решения заслуживающими доверия человеческих агентов. Подход "как если бы" не выполняет это условие, поскольку не учитывает процесс оправдания, представляющий собой комбинацию индивидуальных внутренних моральных рассуждений и общинных переговоров о ценностях, который, вероятно, является одним из наших стандартов для определения того, является ли произведенное действие морально приемлемым. Поэтому нам следует начать (или вернуться) к разговору о том, как мы должны думать о морали в машинной этике. Автор лишь утверждает, что проблема воспроизведения принятия этических решений, даже на функциональном уровне, сложнее, чем некоторые ее представляют. Подход "как если бы" направлен на имитацию эффектов принятия моральных решений. Но, рассматривая только эффект морали, мы совершаем ошибку, предполагая слишком много о морали, и, в свою очередь, не можем уловить то, что кажется существенным для морали, даже на функциональном уровне. Рассмотрение недостатков метаэтических обязательств "Готовой этики" было сделано в надежде показать это. Автору статьи хотелось бы надеяться, что эти соображения могут способствовать выработке более совершенного подхода к машинной этике.
Источники:
Jun Kyung, апрель 2021, "Критика подхода ‘как-если’ к машинной этике"
Взято из: //link.springer.com/article/10.1007/s43681-021-00070-3
Comments