top of page

ИНФОРМАЦИОННАЯ ЭТИКА ФЛОРИДИ
как макроэтика и модели на основе информационно-вычислительных агентов

licensed-image.jpg

Спустя десять лет после введения Информационной этики (IE) был рассмотрен вклад Флориди в последующее производство знаний в нескольких областях исследований.

Информационная этика Лучано Флориди (IE) - это новая теоретическая основа этики.

По словам Флориди, ИКТ со всеми информационными структурами и процессами порождают нашу новую информационную среду обитания - Инфосферу.

Для IE моральное действие - это шаблон обработки информации.

IE рассматривает фундаментально информационный характер нашего взаимодействия с миром, включая взаимодействие с другими агентами.

2.jpg

Информационная этика - это макроэтика, поскольку она фокусируется на системах/сетях агентов и их поведении.

5.jpg

Способность ИЭ изучать этические явления на базовом уровне лежащих в основе информационных моделей и процессов делает его уникальным среди этических теорий в обеспечении концептуальной основы для анализа на фундаментальном уровне современного глобализированного мира, основанного на ИКТ.

Это позволяет проводить компьютерное моделирование – мощный инструмент для изучения, который расширяет наше понимание информационных механизмов этики.

Вычислительные модели помогают фиксировать поведение, невидимое для невооруженного разума, который полагается исключительно на общую интуицию.

В статье представлен анализ применения IE в интерпретации в рамках информационно-вычислительного подхода.

Основное внимание уделяется распределению ответственности/подотчетности и аналогичным явлениям обмена информацией в сетях агентов.

Агентное моделирование позволяет изучать возрастающую сложность поведения в многоагентных системах, когда агенты (акторы) варьируются от клеточных автоматов до софтботов, роботов и людей.

Технологии автономных обучающихся искусственных интеллектуальных систем быстро развиваются, что приводит к новому разделению задач между людьми и роботами/софтботами.

7.jpg

Самая большая современная проблема, связанная с автономными интеллектуальными системами, - это страх потери человеком контроля и ненадлежащего поведения роботов, которые могут причинить вред.

6.jpg

Среди неподобающих видов поведения есть этически неприемлемый. Чтобы гарантировать этически адекватное поведение автономных интеллектуальных систем, искусственная этическая ответственность / подотчетность должна быть одной из встроенных функций интеллектуальных артефактов.

Добавление требования к искусственному этическому поведению к роботу /программному роботу никоим образом не снимает с людей ответственности за проектирование, производство и управление автономными интеллектуальными системами.

Напротив, в нем будет четко указано на необходимость того, чтобы все, кто связан с такой интеллектуальной технологией, обеспечивали ее этичное поведение.

Современные роботы используются в основном как сложные электромеханические инструменты и не имеют никакой возможности брать на себя моральную ответственность.

Но технологический прогресс замечателен; роботы быстро совершенствуют свои сенсорные и моторные способности, а развитие искусственных (синтетических) эмоций добавляет новые измерения в робототехнику.

Развивается искусственное мышление и другие навыки обработки информации – все это приводит к значительному прогрессу в области социальной робототехники.

Таким образом, у нас есть веские причины попытаться проанализировать будущее технологическое развитие, в котором роботы/софтботы настолько умны и отзывчивы, что наряду с искусственным интеллектом обладают искусственной моралью.

9.jpg

Технологические артефакты всегда являются частью более широкой социально-технологической системы с распределенными обязанностями.

4.jpg

Разработка автономных, обучающихся, морально ответственных интеллектуальных агентов, следовательно, зависит от нескольких контуров обратной связи ответственности; осознание и готовность к управлению рисками со стороны проектировщиков, производителей, исполнителей, пользователей и обслуживающего персонала, а также поддержка общества в целом, которая обеспечит реагирование на последствия об использовании технологии.

Эта сложная система совместной ответственности должна обеспечивать безопасное функционирование гибридных систем, состоящих из людей и интеллектуальных машин. Информационная этика обеспечивает концептуальную основу для компьютерного моделирования таких социально-технологических систем.

Помимо примеров конкретных применений IE, интерпретация нескольких широко обсуждаемых вопросов, таких как роль уровней абстракции, натурализма и сложности/разнообразия в информационной этике, предлагается с помощью информационно-вычислительного анализа.

Источники

1. Hilmi Demir: Luciano Floridi’s Philosophy of Technology. Critical Reflections, Springer, 2012, p. 3-22. 

bottom of page