1. Стандартисты считают, что искусственным агентам необходимы определенные внутренние состояния, и, таким образом, роботы не являются моральными агентами, поскольку у них отсутствуют эти внутренние состояния.
2. Функционалисты считают, что значение имеет определенное поведение и реакции — независимо от того, какими могут быть внутренние состояния, — подразумевая, что роботы могут быть моральными агентами, пока их поведение адекватно.
3. Различие между стандартистами и функционалистами грубое. На самом деле существует множество возможных позиций, разбросанных по континууму. Затем взгляды различаются в зависимости от того, какие комбинации этих свойств могут быть у роботов.
4. В статьях, в которых утверждается, что роботы (могут) иметь свободу воли, ответственность и т. д., обычно утверждается, что человеческий разум не сильно отличается от того, как работают машины, или что сознание не имеет значения.
5. Однако можно думать, что у людей есть особая форма сознания, и все же утверждать, что роботы, лишенные этого свойства, могут в значительной степени обладать свободой воли и ответственностью.
6. Человеческое сознание будет пониматься как нефизическое феноменальное сознание, однако аргумент состоит в том, что бессознательные роботы в значительной степени обладают той же свободой воли и ответственностью, что и мы, но с некоторыми важными отличиями
7. Взгляды на сознание распространяются по континууму от редуктивного физикализма, где сознание есть не что иное, как нечто физическое, до субстанциального дуализма, где сознание есть нечто совершенно отличное от физического.
8. Некоторые функционалисты утверждают, что мы не знаем, сознательны ли другие люди или машины, но это не имеет значения; важно то, как мы должны относиться к машинам, поведение которых похоже на поведение людей.
9. Когда дело доходит до свободы воли, стандартными теориями являются компатибилизм и либертарианство. Компатибилисты считают, что свобода воли совместима с детерминированным миром, что отвергают либертарианцы.
10. Либертарианцы утверждают, что компатибилизм подразумевает концепцию свободы воли, слишком слабую, чтобы ее можно было назвать «свободой воли», в то время как компатибилисты отвергают возможность создания последовательной либертарианской теории.
11. Событийно-каузальный либертарианство занимает промежуточное положение между типичными формами компатибилизма и либертарианства и пытается получить лучшее от обеих сторон — более сильную форму свободы воли легче обосновать как последовательную и правдоподобную теорию.
12. Стандартные теории свободы воли представляют собой различные формы компатибилизма и либертарианства. Компатибилисты считают, что свобода воли совместима с детерминированным миром, что отвергают либертарианцы.
13. Детерминизм означает, что существует только одно возможное содержание будущего, обычно понимаемое как определяемое законами природы и начальными условиями мироздания.
14. Либертарианцы используют термин «свобода воли» в более сильном смысле. Либертарианцы часто описывают это, говоря, что люди должны быть источником своих собственных действий и иметь контроль, так что то, что происходит, частично зависит от них.
15. Компатибилисты отвергают возможность создания последовательной либертарианской теории.
16. Подробности о том, как самость может постепенно развиваться с течением
времени, приведены в теории самости нейробиолога Антонио Дамасио. Он различает основное «я», которое представляет собой сознательный опыт бытия субъектом от момента к моменту, и автобиографическое «я», в котором мы храним воспоминания и которое со временем дает нам идентичность как личности.
Люди начинают жизнь без свободы воли. Врожденные желания или случайный выбор заставляют нас выбирать из различных альтернатив. Результатами нашего выбора являются события, которые мы воспринимаем как хорошие или плохие и храним в качестве воспоминаний в нашей автобиографической личности.
17. Контролировать выбор — значит вызывать выбор, ибо как вы можете контролировать то, с чем вы не связаны причинно? Таким же образом может быть решена проблема регресса.
18. Для обсуждения ответственности роботов необходима теория ответственности. Существуют две основные теории ответственности: теории базовой пустыни и консеквенциалистские теории. Теории основной пустыни говорят, что человек заслуживает того, чтобы нести ответственность, когда выполняются определенные условия, в то время как консеквенциалистские теории говорят, что мы возлагаем на людей ответственность за достижение хороших последствий. Либертарианцы обычно придерживаются теорий базовой пустыни, в то время как компатибилисты обычно являются консеквенциалистами.
19. Согласно М. Варгасу, возложение ответственности на других является общей стратегией воспитания хорошего поведения в других.
20. Первое возражение состоит в том, что консеквенциалистская теория ответственности, по-видимому, приравнивает ответственность к влиянию. Но на многие вещи можно повлиять разными способами, которые мы бы не назвали ответственностью, так что это должно быть нечто большее, чем просто влияние. Варгас отвечает, что ответственность — это определенный вид влияния, когда мы влияем на процессы обсуждения людей, чтобы заставить их вести себя по-другому.
21. Второе возражение заключается в том, что возложение ответственности на других часто не приводит к тому, что люди ведут себя лучше. Варгас соглашается, но тем не менее считает, что возложение ответственности на других в качестве общей стратегии часто — даже если не всегда — работает.
22. Третье возражение заключается в том, что мы должны проводить различие между возложением ответственности на других и возложением на других соответствующей ответственности. Варгас отвечает, что в качестве общей стратегии лучше всего воздействовать на тех, кто несет причинную ответственность за что-либо.
23. Четвертое возражение заключается в том, что мы часто хвалим и порицаем людей без намерения культивировать хорошее поведение. Варгас отвечает, что, хотя культивирование хорошего поведения часто не является намерением, это все же практика, которая имеет такой эффект, и даже обвинение мертвых может повлиять на живых.
24. Счет Варгаса можно усилить добавлением от Хилари Бок о том, что мы делаем, когда возлагаем ответственность на других. Бок утверждает, что мы сравниваем их действия со стандартом того, что, по нашему мнению, они должны были сделать в данной ситуации, а это означает, что мы можем возлагать на других ответственность также за бездействие или за события, которые они не вызывали.
25. Степень свободы воли или степень контроля над своими действиями — это степень, в которой на наши действия влияет независимое автобиографическое «я». Возложение ответственности на других работает, влияя на человека таким образом, что (ожидаемые) акты похвалы и порицания являются событиями, которые человек переживает и сохраняет в своей памяти, которые затем активируются и влияют на будущий выбор.
26. Есть два основных вывода из теорий. Во-первых, разум со свободной волей можно понимать как причинный процесс, в котором автобиографическое «я» учится на опыте и влияет как на себя, так и на будущее поведение посредством непрерывного процесса. Во-вторых, ответственность — это способность подвергаться влиянию путем привлечения к ответственности посредством нормального процесса рассуждений. Могут ли такой разум, свобода воли и ответственность быть реализованы в роботе, что делает его агентом, способным к морально ответственному поведению? Более пристальный взгляд на то, как работают роботы, подразумевает, что это возможно.
27. Есть два основных желания: избегать боли и испытывать хорошее, и что существуют физические реализаторы нашего сознательного опыта хорошего и плохого. Автобиографическое «я» руководствуется тем, что воспринимается как хорошее или плохое, но оно может изменить то, какие конкретные действия или переживания кажутся хорошими или плохими.
28. Главное заключается в том, что вполне правдоподобно думать, что нормальные причинные процессы в мозгу заставляют нас действовать так, как мы это делаем.
29. Если робот мог учиться на собственном опыте, то, кажется, он мог бы учиться и на ответственности (через похвалу и порицание). Кажется, что могут быть роботы, которые учитывают похвалу и порицание в своих действиях. Мы могли бы заставить робота следовать двум общим алгоритмам: «Если это приятно, то сделайте это» и «если вам плохо, то избегайте этого», и добавьте еще два алгоритма, говорящих «если люди хвалят вас, это приятно» и «если люди обвиняют вас, это плохо».
30. Человеческое мышление руководствуется тем, что мы воспринимаем как хорошее и плохое, и что похвала и порицание — это опыт хорошего и плохого, который мы принимаем во внимание в наших рассуждениях. Машины могли бы делать то же самое, если бы мы исходили из того, что действия вызывают физические актуализаторы, а не сознательный опыт.
31. Возможно, в будущем роботы станут сознательными. Тогда содержание их сознания, вероятно, будет сильно отличаться от нашего, так как содержание нашего сознания сильно формируется тем, что выгодно для нас с точки зрения эволюции.
32. Если не думать, что сознание может быть сведено к физическим процессам, сознание кажется тем, что делает возможным единый субъект с феноменальным опытом интенциональных мыслей и эмоций, которые ощущаются хорошо и плохо.
33. Поскольку существуют эти различия между сознательными и бессознательными агентами, полезно различать сознательные и бессознательные версии используемых терминов и четко понимать, в чем разница.
34. Как уже упоминалось, ответственность проявляется в степени. Все люди разные и выросли в разных условиях, но также имеют разную степень свободы воли и ответственности. Роботы тоже разные, и у них может быть разная степень свободы воли и ответственности. Точно так же, как людей можно расположить на шкале от отсутствия или малой способности к ответственному поведению, роботов можно расположить на той же шкале.
35. Роботы также должны быть достаточно умными, чтобы понимать разницу между правильным и неправильным в большинстве новых ситуаций, с которыми они сталкиваются, чтобы иметь достаточную способность к морально ответственному поведению.
36. Есть много разных причин, по которым мы кого-то наказываем. Один из них — влиять на поведение, и в более мягких вариантах (например, обвинение) мы делаем это с раннего детства, чтобы научить детей действовать. Таким образом, «наказание» робота за влияние на поведение не является морально проблематичным, даже если он не обладает достаточной способностью к ответственному поведению.
37. Мы можем возлагать ответственность как на людей, так и на роботов с общей целью повлиять на их поведение, но эти важные сходства и различия между бессознательными роботами и сознательными людьми должны заставить нас возлагать на них ответственность по-разному.
Работу выполнил студент группы 3331504/10002 Кодочигов Александр Алексеевич
Источник: How a non-conscious robot could be an agent with capacity for morally responsible behaviour, 2022. Søvik, A.O. AI Ethics. https://link.springer.com/article/10.1007/s43681-022-00140-0#Fn28
Comments