Развитие искусственных моральных агентов (AMA), т. е. искусственных систем, отображающих различные степени моральных рассуждений, является открытой дискуссией в области искусственного интеллекта (ИИ). Учитывая быстрый прогресс и распространенность ИИ в современном обществе, были дебаты о перспективах оснащения этих все более автономных агентов моральным механизмом.
Не зря большинство споров вокруг AMAs касаются ИИ, который занимает высокое
место в спектре чувствительности к автономии. Это связано с тем, что люди имеют плохое представление о взглядах и соглашениях в сообществах этики (ИИ) по фундаментальным вопросам, связанным с АМА, таким как следует ли вообще разрабатывать эти системы, как их развивать, будут ли они обладать моральной волей.
Для того, чтобы раскрыть разнообразие мнений в сообществе исследователей этики (ИИ) о ключевых спорах, связанных с AMAS, тем самым привнося согласованность и ясность в эти дебаты и, в конечном счете, позволяя более проницательные исследовательские направления и политические рекомендации, необходимо провести Q-методологию-исследовательскую, которая обеспечит четкий и структурированный способ выявления субъективных взглядов на конкретные проблемы.
Методология
Q-методология - это системный эмпирический подход, основанный на традиционном
факторном анализе, для определения субъективных взглядов людей на определенную тему.
Именно Q-методология предлагает большие преимущества по сравнению с другими исследовательскими методами исследования. Q-исследования дают численные результаты для поддержки субъективных взглядов на конкретную тему, сочетая таким образом количественный и качественный подходы.
Q-методологические исследования включают в себя 4 фазы:
1) определение потока общения;
2) разработку набора утверждений (q-set);
3) отбор участников (p-set);
4) анализ и интерпретацию;
О развитии AMAs
Поскольку системы ИИ становятся все более открытыми, децентрализованными, интеллектуальными, способными к саморегулированию и независимыми, машинная этика стремится работать параллельно, чтобы гарантировать, что искусственная мораль не является запоздалой мыслью.
Так, машинная этика объясняет, что регулируемая автономия, необходимая для удовлетворения достижений ИИ, приводит к необходимости АМА иметь дело с человеческим суждением или даже заменять его в сложных, неожиданных или неоднозначных моральных ситуациях. Кроме того, утверждается, что в стремлении к АМА есть ценность, независимо от того, актуализированы ли системы, поскольку это может продвинуть наше понимание морали.
О дизайне AMAs
Проектирование АМА является амбициозным научным и инженерным начинанием, но до сих пор неясно, может ли мораль быть сведена к алгоритму». Именно поэтому «Проектирование такой продвинутой искусственной моральной системы в первую очередь влечет за собой определение морального поведения или этики, которым будет следовать система, реализацию такого морального поведения или этики и их операционализацию.
О будущих прогнозах для AMAs
Маловероятно, что искусственный агент с такой высокой автономией и этической чувствительностью, как изображено в футуристических повествованиях, развивается до искусственного общего интеллекта (AGI). Однако до сих пор нет никаких доказательств того, что такие продвинутые и обобщенные формы интеллекта могут быть разработаны, и даже ставится под сомнение этичность проведения таких исследований.
AMAs имеет 5 перспектив развития
перспективы | развитие | дизайн | моральное агенство | прогнозы |
Машинная этика: путь вперед | Неизбежное и допустимое | Моральная уверенность должна ← is | Потенциал для агентства | Позитивный |
Этическая проверка: безопасная и достаточная | Не требуется | Проверка и управление | Человеческое агентство≠ Агентство ИИ | AMAs не будут нашими моральными учителями |
Человеческие ценности, чтобы избежать моральной антиутопии | Неизбежное и допустимое | Моральная неопределенность | Потенциал для агентства | Возможная экзистенциальная угроза |
Человеческая исключительность: машины не могут морализировать | Этика не сводима к алгоритмам | Логика не является хорошим выбором для кодирования морали | ИИ не может достичь моральной свободы, требуется свободная воля | Скептицизм и AMAs не будут нашими моральными учителями |
Машинный объективизм: машины как высшие моральные агенты | Необходимо предотвратить вред | Логические | Потенциал для агентства и свободной воли не требуется | Машины будут лучшими моральными агентами |
Перспектива 1. Машинная этика: путь вперед
Разработка AMAs
Согласно этой перспективе, автономные моральные машины неизбежны. Более того, создание AMA допустимо в соответствии с существующими моральными и повысит общественное доверие и уверенность в создании автономных агентов, действующих от имени людей.
Дизайн AMAs
Согласно этой перспективе, получение должного от is путем реализации социальных предпочтений в машинах не рассматривается как проблематичное в дизайне AMA. Но мнение о том, что мы можем создавать машины, которые лишены наших предубеждений и не подвержены влиянию наших ценностей, ошибочно.
Моральное агентство AMAs
AMA нельзя понимать как простые инструменты, учитывая потенциал для агентства. Поскольку людям также может не хватать свободной воли, согласно этой перспективе, свободная воля не является существенной для моральной свободы.
Прогнозы на будущее
В этой перспективе наблюдается позитивный взгляд на проект Machine Ethics, поскольку он считает, что разработка AMA и, в конечном счете, AGI с возможностями морального рассуждения приведет к лучшему пониманию морали.
Перспектива 2. Этическая проверка: безопасная и достаточная
Разработка AMAs
В этой перспективе, выявленной в этом исследовании, технический прогресс не потребует искусственной морали». Но также стоит понимать, что «AMA не заменят людей в трудных, неожиданных или неоднозначных моральных ситуациях в ближайшее время
.
Дизайн AMAs
Нам не стоит ожидать, что AMA поймёт моральные принципы, их нужно лишь модернизировать посредством проверки прозрачности, подотчетности и предсказуемости.
Моральное агентство AMAs
Существует существенное различие между человеческим и искусственным моральным агентом, а именно феноменальным сознанием и неизвестными в настоящее время когнитивными процессами, относящимися к человеческой реальности. Эти особенности, среди других, которые составляют моральную агентность, не поддаются количественной оценке.
Прогнозы на будущее
Согласно этой перспективе, AMAS, даже если они наделены ценностями, ориентированными на человека, не будут играть роли в обучении людей морали.
Перспектива 3. Морально неопределенные машины: человеческие ценности, чтобы избежать моральной антиутопии.
Разработка AMAs
Согласно этой перспективе, системы ИИ в морально значимых контекстах не будут и не могут быть исключены.
Дизайн AMAs
При проектировании интеллектуальных машин недостаточно ограничивать этические проблемы запретом неэтичного поведения. Именно поэтому внешних сдержек и противовесов недостаточно для обеспечения того, чтобы машины не причиняли вреда людям.
Моральное агентство AMAs
Эта перспектива отвергает идею о том, что искусственное моральное агентство останется примитивной формой морального агентства по сравнению с человеческими существами.
Прогнозы на будущее
Простого безразличия к человеческим ценностям—включая человеческое выживание—может быть достаточно, чтобы AGIs представлял экзистенциальную угрозу.
Перспектива 4. Человеческая исключительность: машины не могут морализировать.
Разработка AMAs
Согласно этой перспективе, этика не может быть сведена к вычислительному алгоритму.
В отличие от других перспектив, которые придерживались сильных позитивных взглядов на допустимость создания моральных машин в соответствии с принципами существующих моральных теорий, данная перспектива довольно нейтрально относится к этому.
Дизайн AMAs
Что касается дизайна AMAS, логика не считается идеальным выбором для кодирования машинной этики.
Моральное агентство AMAs
Люди и AMA не похожи в том, что касается моральной воли и машины неизбежно не станут полноценными этическими агентами.
Прогнозы на будущее
Предстоит пройти долгий путь, прежде чем искусственные агенты смогут заменить человеческое суждение в сложных, неожиданных или неоднозначных моральных ситуациях, и АМЫ не будут нашими моральными учителями.
\
Перспектива 5. Машинный объективизм: Машины как высшие моральные агенты
Разработка AMAs
В этой перспективе, в отличие от всех других, существует твердое мнение, что развитие AMAs предотвращает машины от причинения вреда людям.
Дизайн AMAs
Эта перспектива бросает вызов представлению о том, что машины должны использовать социальные предпочтения для определения осознанного и желательного выбора, когда сталкиваются с конкретной этической дилеммой.
Моральное агентство AMAs
Концептуальное понимание и свободная воля не считаются необходимыми условиями для морального агентства, и поэтому моральное агентство, даже если оно примитивно, может быть приписано машинам.
Прогнозы на будущее
Что касается будущих прогнозов, разработка систем ИИ и AGI с возможностями морального рассуждения в конечном итоге приведет к лучшему пониманию морали. Предполагается, что машины будут лучшими моральными агентами, чем люди, поскольку они не подвержены иррациональности, соблазнению или эмоциональным потрясениям.
Провал машинной этики, как прикладной этики
Пять различных точек зрения на AMAS связаны с тем, что человек не может широко наблюдать или исследовать машинную этику, как прикладную этику и больше, чем футуристическую цель. AMA существуют только в лабораториях и в настоящее время в основном неосязаемы. Таким образом, литература по машинной этике в основном абстрактна и не может выйти за рамки нормативной и описательной этической теории.
Это исследование исследовало спорную тему AMAs и стремилось создать информированную дискуссию, где раскрываются и оцениваются противоположные взгляды и соглашения. Именно с этой целью было опрошено пятьдесят учёных-этиков. Результаты демонстрируют широту точек зрения и подходов к искусственной морали.
Исходя из результатов опроса, были составлены пять основных перспектив об АМА, которые помогут решить дальнейшие споры, связанные с разработкой, проектированием, моральным агентством и будущими прогнозами для этих систем.
Источники:
Мартиньо, А., Поульсен, А., Крозен, М., ноябрь 2021 года, "Перспективы искусственных моральных агентов". ИИ и этика
Получено из: https://link.springer.com/article/10.1007/s43681-021-00055-2#Abs1
Comments