ИНФОРМАЦИОННАЯ ЭТИКА ФЛОРИДИ
как макроэтика и модели на основе информационно-вычислительных агентов
Спустя десять лет после введения Информационной этики (IE) был рассмотрен вклад Флориди в последующее производство знаний в нескольких областях исследований.
Информационная этика Лучано Флориди (IE) - это новая теоретическая основа этики.
По словам Флориди, ИКТ со всеми информационными структурами и процессами порождают нашу новую информационную среду обитания - Инфосферу.
Для IE моральное действие - это шаблон обработки информации.
IE рассматривает фундаментально информационный характер нашего взаимодействия с миром, включая взаимодействие с другими агентами.
Информационная этика - это макроэтика, поскольку она фокусируется на системах/сетях агентов и их поведении.
Способность ИЭ изучать этические явления на базовом уровне лежащих в основе информационных моделей и процессов делает его уникальным среди этических теорий в обеспечении концептуальной основы для анализа на фундаментальном уровне современного глобализированного мира, основанного на ИКТ.
Это позволяет проводить компьютерное моделирование – мощный инструмент для изучения, который расширяет наше понимание информационных механизмов этики.
Вычислительные модели помогают фиксировать поведение, невидимое для невооруженного разума, который полагается исключительно на общую интуицию.
В статье представлен анализ применения IE в интерпретации в рамках информационно-вычислительного подхода.
Основное внимание уделяется распределению ответственности/подотчетности и аналогичным явлениям обмена информацией в сетях агентов.
Агентное моделирование позволяет изучать возрастающую сложность поведения в многоагентных системах, когда агенты (акторы) варьируются от клеточных автоматов до софтботов, роботов и людей.
Технологии автономных обучающихся искусственных интеллектуальных систем быстро развиваются, что приводит к новому разделению задач между людьми и роботами/софтботами.
Самая большая современная проблема, связанная с автономными интеллектуальными системами, - это страх потери человеком контроля и ненадлежащего поведения роботов, которые могут причинить вред.
Среди неподобающих видов поведения есть этически неприемлемый. Чтобы гарантировать этически адекватное поведение автономных интеллектуальных систем, искусственная этическая ответственность / подотчетность должна быть одной из встроенных функций интеллектуальных артефактов.
Добавление требования к искусственному этическому поведению к роботу /программному роботу никоим образом не снимает с людей ответственности за проектирование, производство и управление автономными интеллектуальными системами.
Напротив, в нем будет четко указано на необходимость того, чтобы все, кто связан с такой интеллектуальной технологией, обеспечивали ее этичное поведение.
Современные роботы используются в основном как сложные электромеханические инструменты и не имеют никакой возможности брать на себя моральную ответственность.
Но технологический прогресс замечателен; роботы быстро совершенствуют свои сенсорные и моторные способности, а развитие искусственных (синтетических) эмоций добавляет новые измерения в робототехнику.
Развивается искусственное мышление и другие навыки обработки информации – все это приводит к значительному прогрессу в области социальной робототехники.
Таким образом, у нас есть веские причины попытаться проанализировать будущее технологическое развитие, в котором роботы/софтботы настолько умны и отзывчивы, что наряду с искусственным интеллектом обладают искусственной моралью.
Технологические артефакты всегда являются частью более широкой социально-технологической системы с распределенными обязанностями.
Разработка автономных, обучающихся, морально ответственных интеллектуальных агентов, следовательно, зависит от нескольких контуров обратной связи ответственности; осознание и готовность к управлению рисками со стороны проектировщиков, производителей, исполнителей, пользователей и обслуживающего персонала, а также поддержка общества в целом, которая обеспечит реагирование на последствия об использовании технологии.
Эта сложная система совместной ответственности должна обеспечивать безопасное функционирование гибридных систем, состоящих из людей и интеллектуальных машин. Информационная этика обеспечивает концептуальную основу для компьютерного моделирования таких социально-технологических систем.
Помимо примеров конкретных применений IE, интерпретация нескольких широко обсуждаемых вопросов, таких как роль уровней абстракции, натурализма и сложности/разнообразия в информационной этике, предлагается с помощью информационно-вычислительного анализа.
Источники
1. Hilmi Demir: Luciano Floridi’s Philosophy of Technology. Critical Reflections, Springer, 2012, p. 3-22.