Аннотация
По мере роста осознания возможностей и опасности искусственного интеллекта распространённым подходом стало обращение к этическим нормам.
Однако я считаю, что этические нормы ИИ бесполезны и не способны сколько-нибудь значимо смягчить расовый, социальный и экологический ущерб, наносимый технологиями ИИ. В сухом остатке, преобладающее сейчас в обществе обращение к принципам ИИ является не только бессмысленной, но и опасной уловкой, отвлекающей огромные финансовые и человеческие ресурсы от потенциально более эффективной деятельности.
1. Введение
Технологии искусственного интеллекта находят все большее применение в самых разных отраслях: здравоохранении, управлении персоналом, образовании, сельском хозяйстве, производстве и в правоохранительной деятельности.
Однако в системах социального обеспечения и социальной поддержки автоматизированные системы принятия решений могут усугублять неравенство и ущемлять бедные слои населения, увековечивать стереотипы и предрассудки, подрывать демократические и эгалитарные условия.
С ростом осознания возможностей и опасности ИИ преобладающим подходом стало обращение к этике ИИ – государственным и частным секторами были выпущены рекомендации, ограничения и принципы, которым должны следовать при создании новых технологий. Несмотря на это, весь этот поток создаваемых сводов этических норм ИИ в значительной степени бесполезен, и результатом провала является пропасть между высокими идеалами и развитием технологий на местах.
2. Бессмысленные принципы
Появившееся в последние годы большое количество моральных кодексов, ограничивающих программ и руководств по ИИ породило соответствующее количество принципов, однако эти принципы весьма абстрактны и неоднозначны. Здесь речь идет не о том, чтобы обсуждать достоинства тех или иных ценностей, а о том, чтобы подчеркнуть фундаментальное отсутствие консенсуса вокруг ключевых понятий.
Многие ключевые термины, используемые в этических схемах ИИ неоднозначны,
перегружены, наполнены противоречивыми смыслами, что позволяет компаниям определять их так, как удобно, в соответствии с характеристиками продукта и целями бизнеса, которые уже определены. Подобная двусмысленность способствует этической "галочке", позволяя компании заявлять о своей приверженности тем или иным принципам или идеалам, не прибегая к какой-либо значимой рефлексии или реконфигурации.
3. Изолированные принципы
Развитие ИИ не происходит в вакууме, поскольку разработка и внедрение технологий всегда носит в высшей степени социальный и культурный характер, встраиваясь в богатую сеть человеческих и нечеловеческих субъектов. Предполагать, что модель ИИ "необъективна" и нуждается только в корректировке, значит рассматривать вопрос в слишком узких рамках, упуская из виду более обширные и системные проблемы, ведь неэтичный ИИ - это логичный побочный продукт неэтичной индустрии.
В программах бакалавриата по науке о данных особое внимание уделяется информатике и статистике, но не хватает этической подготовки, они жестко сфокусированы на технических проблемах и их решениях. Проблемное пространство, рассматриваемое при разработке технологии, слишком узко и не позволяет охватить этические, моральные и социальные последствия разработки продукта тем или иным способом, в этих условиях наличие этического кодекса ИИ, жестко ориентированного на цифровой продукт или услугу, представляется совершенно недостаточным.
4. “Беззубые” принципы
Этические рамки ИИ могут устанавливать нормативные идеалы, но они не имеют механизмов, обеспечивающих соблюдение этих ценностей и принципов, именно по этой причине выдвижение этических заявлений позволяет технологическим компаниям продолжать свою деятельность бесконтрольно, не подвергаясь судебным искам, штрафам и другим наказаниям. Ценности, перечисленные в заявлениях по этике ИИ и предлагаемые организациями по этике ИИ, тесно связаны с корпоративными ценностями (или могут быть интерпретированы таким образом, чтобы соответствовать им).
“Беззубость” означает, что корпорации могут поддерживать свою репутацию, проводя резонансные работы по созданию этических основ, будучи уверенными в том, что этические нормы не приведут к коренным изменениям в их производственных возможностях, организационной иерархии или ежеквартальных доходах.
Заимствуя известную концепцию "зелёного камуфляжа", этот феномен "этического камуфляжа", как средства уклонения от регулирования, получил широкое распространение в дискуссиях об этике ИИ.
5. Разрыв между принципами и практикой
ИИ называют революционным явлением, которое приведет к огромному количеству изменений в работе и жизни, но при этом наблюдается значительное сопротивление обновлению законодательства и нормативных актов для управления этими изменениями, ведь возникает пропасть между этическими рекомендациями и их практической реализацией, между принципами и практикой.
Операционализация - это не просто формальный вопрос ”перевода" этической ценности в технологический результат, так как существуют противоречия и компромиссы, которые необходимо проработать и воплотить в материальную форму модели данных или цифрового продукта.
Исходя из вышеизложенного, можно предложить два препятствия на пути операционализации: (1) проблему борьбы с другими принципами при выработке имеющих смысл требований и (2) проблему реализации этих требований в виде конкретных функций, рамок и инструкций. Это сложная работа, требующая решения социальных и политических вопросов, создания прототипов, тестирования и отбраковки различных проектов: здесь нет простых путей.
6. Альтернативы этическим принципам
Поскольку на создание этических основ ИИ тратятся огромные человеческие и финансовые ресурсы, недостаточно просто осудить этику ИИ как бесплодную или бесполезную, необходима критическая оценка воздействия этической работы на сегодняшний день.
Один из подходов, по сути, заключается в более широком понимании справедливости ИИ, то есть имеет смысл расширить сферу этического взаимодействия: взаимодействие организаций с группами, которые могут подвергнуться негативному воздействию ИИ в большей мере, но с которыми обычно не консультируются: дети, цветное население, ЛГБТ+ сообщества, мигранты и другие группы.
Если происхождение массивов данных, используемых при создании ИИ, часто замалчивается, то эта проблема может быть решена с помощью "паспорта данных" - стандартных документов, в которых описывается создание массива данных, метод его сбора, ограничения, рекомендуемое использование и т.д.
Должны быть четко определены границы подотчетности. Как производители, так и потребители технологий должны иметь возможность эффективно бороться с вредными технологиями ИИ, а ответственность должна быть подкреплена принудительным исполнением: судебными исками, штрафами или запретом на использование в определенной юрисдикции. Для исправления ситуации может потребоваться изменение дизайна продукта, консультации с членами сообщества или полная остановка работы ИИ-сервиса.
В совокупности пути решения этой проблемы выходят за рамки этических принципов, обеспечивая прогресс в этой важнейшей области за счет глубокого и радикального осмысления потенциальных возможностей и "подводных камней" ИИ.
Литература:
1. Luke Munn, 2022, The uselessness of AI ethics, Retrieved from https://link.springer.com/article/10.1007/s43681-022-00209-w [Электронный ресурс]
Comments