top of page
artemilyasov2003

Регулирование ИИ: Соображения, применимые ко всем Домены

Абстрактный


Технологии, основанные на ИИ, намного опередили

существующую нормативно-правовую базу, вызвало сложные вопросы о том, как установить ограничения на наиболее опасные разработки (например, смертоносное автономное оружие или роботы-разведчики). Исходя из предположения, что на

саморегулирование индустрии робототехники нельзя положиться,

участились призывы к вмешательству правительства в сферу регулирования

— как на национальном, так и на международном уровнях.




Различные подходы к регулированию ИИ делятся на два основных

категории. Секторальный подход направлен на выявление социальных рисков, связанных с отдельными технологиями, с тем чтобы можно было реализовать превентивные или смягчающие стратегии, исходя

из предположения, что правила, применимые к ИИ, скажем, в финансовой отрасли, будут сильно отличаться от правил, применимых к поставщикам медицинских услуг. Межотраслевой подход, напротив, предполагает формулирование правил

(будь то нормы, принятые промышленным консенсусом, или законы, установленные правительственными органами), которые, как следует из названия, будут применяться к технологиям на основе искусственного интеллекта в их общности.


Введение

Использование ИИ сопряжено с проблемами и возможностями во многих

областях и областях: технической, этической, политической, социальной и

культурной. Это сопровождается необходимостью подотчетности, алгоритмической объяснимости и даже юридической ответственности. Если мы

не понимаем, как работает система, то это размывает границы

того, кто может или кто должен нести ответственность за результат

или процесс принятия решения.


Обуздание Смертоносного Автономного Оружия

Системы: Первые попытки регулирования ИИ



Согласно определению Википедии, искусственный общий интеллект - это

интеллект машины, которая может понять или изучить

любую интеллектуальную задачу, которую может выполнить человек. Тем не менее, пока

жюри все еще не определилось, принесет ли ИИ огромную пользу

человечеству или принесет возможные бедствия.


В 2013 году был опубликован отчет ООН.

Специальный докладчик по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства или произвольных казнях, Кристоф Хейнс, о применении смертоносной силы через

то, что он назвал «смертоносной автономной робототехникой (LAR)».Он

подошел к вопросу с точки зрения защиты

жизни во время войны и мира и сделал ряд срочных рекомендаций организациям, государствам, разработчики роботизированных

систем и неправительственные организации. После его публикации 16 стран поставили вопросы, связанные с новыми — или “роботизированными” — технологиями, на повестка дня Конвенции о конкретных видах обычного оружия

(КОО) в Женеве. Первые встречи по этим вопросам

состоялись в 2014 году, и они показали, что лишь немногие страны

разработали какую-либо политику по этому вопросу.


Первые встречи по этим вопросам состоялись в 2014 году, и они показали, что лишь немногие страны разработали какую-либо политику по этому вопросу. Тематические сессии, в которых приняли участие ученые, академики и активисты в области искусственного интеллекта, были посвящены правовым аспектам, этическим и социологическим аспектам, значимому человеческому контролю над решениями о целеуказании и атаках, а также оперативным и военным аспектам. И то, что Кристоф Хейнс назвал смертоносной автономной робототехникой, теперь называется “смертоносными автономными системами оружия” или LAWS. Хотя единого общепринятого определения LAWS не существует, этот термин в настоящее время обычно охватывает широкий спектр потенциальных систем оружия, от полностью автономного оружия , которое может наносить удары без какого-либо вмешательства человека, до полуавтономного оружия, которое требует действий человека для управления или выполнения миссии.



В 2016 году правительства приняли решение сформировать Группу правительственных

Эксперты (GGE) для продвижения этого вопроса. Принципиальное отличие заключается в том, что GGE действует на основе консенсуса, что, по сути, дает право вето на любые решения или заявления, принятые GGE, любому государству-участнику.



В 2015 году на одной из ведущих мировых конференций по ИИ,

Международной совместной конференции по искусственному интеллекту (IJ CAI 15), было опубликовано Открытое письмо исследователей ИИ и робототехники, подписанное почти 4000 выдающимися учеными, такими как Стюарт Рассел, Янн ЛеКун, Демис Хассабис, Ноэль Шарки и многие—многие другие. Более 22 000 подписчиков, включая Стивен Хокинг, Илон Маск и Яан Таллинн, и это лишь некоторые из тех, кто предостерегали от разработки оружия ИИ и утверждали, что "большинство исследователей ИИ не заинтересованы в создании ИИ оружие, и не хотят, чтобы другие запятнали их поле деятельности, делая это”.



Проблема смертоносного автономного оружия явно повысила

значимость законодательного регулирования ИИ. Пропаганда со стороны гражданского общества, особенно кампания "Остановить роботов-убийц", коалиция НГО, стремящихся превентивно запретить смертоносное автономное оружие, сыграла важную роль в том, чтобы эта проблема была освещена в средствах массовой информации, но этот фокус на одной проблеме нелегко воспроизвести в других технологиях, основанных на ИИ.


Можем ли мы когда-нибудь надеяться регулировать и управлять ИИ?



Искусственный интеллект - это универсальная тема, которая распадается

на множество вариаций и применений. Вместо того, чтобы решать проблемы

ИИ в целом, легче решать отраслевые приложения ИИ, такие как LAWS, чем общий ИИ, который является широким, адаптивным и продвинутым, как человек, в решении целого ряда когнитивных задач.



Технологии, основанные на искусственном интеллекте, стали важной проблемой для людей и правительств. В ответ мы наблюдаем две отчетливые тенденции:

• Индустрия искусственного интеллекта и технологий стала центром для

консультативных советов по этике и связанных с ними усилий по укреплению их репутации в том, что я бы назвал “ответственным ИИ”.

• Были созданы частные организации, такие как Partnership for AI (миссия: приносить пользу людям и обществу) или

Open AI (миссия: гарантировать, что искусственный интеллект общего назначения принесет пользу всему человечеству).

• Академические учреждения, такие как Нью—Йоркский университет—

создали такие институты, как AI Now, исследовательский институт, изучающий социальные последствия ИИ; Массачусетский Технологический институт (MIT) проводит проект по этике и управлению ИИ, чтобы поддержать людей и учреждения, которые работают над тем, чтобы направлять ИИ в этически сознательных направлениях.

• Организуются семинары и конференции с участием широкого круга технических и нетехнических заинтересованных сторон для обсуждения масштабов проблем, а также поиска решений.




Правительства делают шаг вперед


Одна из главных тенденций на данный момент - это растущее внимание правительств

к нарушениям, создаваемым искусственным интеллектом, и поиск

путей формирования этики ИИ.

Президент России Владимир Путин в 2018 году сказал группе школьников, что “тот, кто контролирует искусственный интеллект, станет правителем мира”.

Президент Франции Макрон в 2018 году назвал технологическую революцию, которая приходит с ИИ, “фактически политической революцией” и сказал, что при формировании того, как ИИ повлияет мы, вы должны быть вовлечены на стадии проектирования и установить правила.



Французское агентство по защите данных (Национальная комиссия

информации и свобод, CNIL) в декабре 2017 года опубликовало 75-страничный

отчет о результатах общественного обсуждения искусственного интеллекта, алгоритмов, этики и способов его регулирования. В докладе изложены шесть областей, в которых преобладают этические дилеммы:

1. Автономные машины, принимающие решения

2. Тенденции, дискриминация и отчуждение, которые программируются намеренно или непреднамеренно

3. Алгоритмическое профилирование людей

4. Предотвращение сбора данных для машинного обучения

5. Проблемы при отборе качественных, количественных и релевантных данных

6. Человеческая идентичность в эпоху искусственного интеллекта


Европейский союз: “Использование возможностей

искусственного интеллекта на службе Прогресса человечества”



Европейский союз в апреле 2018 года выпустил “Искусственный интеллект для Европы: принятие перемен” (European Комиссия 2018 года). Это стало началом европейской Инициативы по ИИ со следующими целями:

1. Повысить технологический и промышленный потенциал ЕС и Внедрение ИИ во всей экономике

2. Подготовка к социально-экономическим изменениям

3. Обеспечить надлежащую этическую и правовую базу



В руководстве перечислены семь основных принципов для достижения

надежного ИИ:

1. Кадровое агентство и надзор

2. Надежность и безопасность

3. Конфиденциальность и управление данными

4. Прозрачность

5. Разнообразие, недискриминация и справедливость

6. Социальное и экологическое благополучие

7. Подотчетность

Этичный ИИ — Новая Корпоративная Модная Фраза



Многие технологические компании недавно изложили этические принципы, которыми они руководствуются в своей работе над ИИ. У таких крупных компаний, как Microsoft,

Facebook и Axon, теперь есть консультативные советы по этому вопросу. Недавно Amazon объявила, что помогает финансировать исследования в области “алгоритмической справедливости”, а Salesforce использует “архитектор” этической практики искусственного интеллекта, а также “главный специалист по этике и человеческому использованию”.



Британская организация (миссия: Ответственный Технологии для более справедливого будущего), опубликовал доклад, озаглавленный “Регулирование для ответственной технологии” (Miller et al. 2018), который требует создания нового независимого регулирующего органа с тремя обязанностями:

1. Дайте регулирующим органам возможность удерживать технологию в соответствии с подсчетом переменного тока.

2. Информировать общественность и лиц, определяющих политику, с помощью надежных фактических данных о воздействии технологий.

3. Поддерживайте людей в стремлении получить компенсацию за ущерб, причиненный технологиями.

Наметился Сдвиг Парадигмы



Я считаю, что одна из проблем высокопоставленного эксперта ЕС

Группа по ИИ заключается в том, что она пытается быть всеобъемлющей и

, следовательно, стремится к более общим и возвышенным заявлениям

, а не к предписаниям в применении. Как я отмечал в начале этой статьи, легче рассмотреть регулирование в одном аспекте ИИ, чем во всем спектре приложений. Позвольте мне сосредоточиться на одном таком аспекте, который начал привлекать к себе большое внимание: распознавание лиц и повсеместное использование камер. Премия Тьюринга была присуждена трем выдающимся ученых-вычислителей за их работу над нейронными сетями, которая, в частности, ускорила развитие служб распознавания лиц.


Может ли быть какая-то роль для международной организации или учреждения?


В докладе под названием “Эпоха цифровой взаимозависимости” подчеркивается важность содействия большей открытости и доверию в Интернете и излагаются рекомендации в отношении потенциальных моделей сотрудничества, однако доклад представляет собой скорее краткий обзор текущего положения дел, чем модель для реализации идей и предложений (Секретарь ООН Общий 2019 год).


Подведение Итогов: 15 Рекомендаций



Быстро развивающиеся технологии — в

частности, искусственный интеллект и робототехника — представляют собой особую проблему для регулирования

со стороны правительств. Технологии принадлежат частной промышленности, они развиваются в мгновение ока, и их

нелегко понять из-за их сложности, и они могут устареть к тому времени, когда правительство согласится их регулировать.

Это означает, что традиционные модели государственного регулирования не могут быть применены. Итак, если не регулирование, то что можно

сделать? Вот мои предложения:

1. Расширяйте опыт в области искусственного интеллекта, чтобы он не ограничивался

небольшим числом стран или узким сегментом населения.

2. Примите тот факт, что правильные решения по технологии искусственного интеллекта не будут приниматься без активного участия самих технологов.

3. Поэтому найдите общий язык для правительственных чиновников, политиков и технических экспертов.

4. Начните диалог, чтобы (а) политики были основаны на технических возможностях и (б) технологи/эксперты определили требования к подотчетности политики.

5. Обсудите, как создать социальную лицензию для ИИ, в том числе новые структуры стимулирования, призванные побудить правительства и частную промышленность согласовывать разработку и внедрение технологий искусственного интеллекта с общественными интересами.

6. Сосредоточьтесь на результате, а не на процессе: принципы, защита конфиденциальности, конвергенция цифровой политики, а также различия в правовых и нормативных системах и культурах между США, ЕС и Китай.

7. Установите некоторые “Красные линии” — запретные зоны для технологий искусственного интеллекта, таких как смертоносные автономные системы оружия,

Оценка граждан правительством при поддержке искусственного интеллекта (“социальная оценка”).

8. Используйте стратегию “мягкого права” для преодоления ограничений и проблемы традиционного государственного регулирования для Искусственный интеллекта и робототехники.

9. Обсудите проблемы, затраты, надежность и ограничения текущего уровня техники.

10. Развивайте прочные рабочие отношения, особенно в оборонном секторе, между государственными и частными разработчиками ИИ.

11. Убедитесь, что разработчики и регулирующие органы уделяют особое внимание вопросу человеко-машинного интерфейса.

12. Поймите, как разные домены вызывают разные проблемы.

13. Составьте список уже существующих руководящих принципов и посмотрите, где есть пробелы, которые необходимо заполнить, чтобы предложить больше руководство по обеспечению прозрачности, подотчетности и справедливости Инструменты искусственного интеллекта.

14. Узнайте у смежных сообществ (кибербезопасность, биотехнологии, авиация) об усилиях по повышению безопасности и надежности.

15. Правительствам, фондам и корпорациям следует также изыскивать средства для разработки и внедрения систем искусственного интеллекта с гуманитарными целями.



 

Источник:Joachim von Braun · Margaret S. Archer Gregory M. Reichberg · Marcelo Sánchez Sorondo Editors. "Robotics, AI, and Humanity: Science, Ethics, and Policy". Switzerland: 2021, Springer.

9 просмотров0 комментариев

Comments


Пост: Blog2_Post
bottom of page