Во вступлении автор пишет: «Ядерное оружие стало переломным моментом в изменении характер войны и стратегии безопасности (Jervis, 1989). Теперь ИИ может произвести еще одно изменение в мире, когда он будет интегрирован в системы ядерного оружия». «"Алармисты" считают, что ИИ никогда не должен быть допущен к принятию ядерных решений из-за его непредсказуемой траектории самосовершенствования. "Подрывники" считают, что воздействие будет в основном определяться способностью противника изменить, ввести в заблуждение, отвлечь или обмануть ИИ».
ИИ в поддержке принятия решений в ядерной сфере
Сущность ядерного сдерживания и роль
искусственного интеллекта
По определению: «Сдерживание — это использование угроз возмездия для того, чтобы отговорить противника от нападения на себя или своих союзников. Сдерживание — это не единственная цель и не победа в войне. Чтобы добиться успеха, сдерживание должно быть многомерным».
«ИИ будет играть лишь ограниченную, вспомогательную роль в принятии ядерных решений. Тем не менее, рассмотрение возможного применения ИИ в системах поддержки принятия решений требует от нас пересмотреть жизнеспособность некоторых традиционных мудростей в качестве предположения для ядерного сдерживания».
Растущие вопросы о рациональности
«В настоящее время, по мере развития исследований в области поведенческой экономики, появляется все больше аргументов, которые ставят под сомнение предположение о рациональности принятия решений человеком в условиях кризиса, на котором зиждется стратегическая стабильность в рамках ядерного сдерживания».
«Из-за чрезмерной уверенности они могут не сократить
убытки и пойти на больший риск либо для возмещения прогнозируемых
убытков, либо для восстановления контроля. Короче говоря, люди не могут действовать таким образом, чтобы максимизировать полезность, или даже не осознают в явном виде издержек и выгод определенных действий, которые они предпримут (Krepinevich, 2019)».
«...поскольку ИИ является сверхрациональным и свободен от психологических предубеждений, а также от давления, под которым всегда находятся люди, существует возможность того, что ИИ сможет снизить, если не искоренить, риски человеческих ошибок и неправильного восприятия».
Туман войны ИИ
«Туман войны" в ядерном сдерживании — это проблема,
присущая ядерному сдерживанию как таковому, но не исключительно присущая ИИ. Внедрение ИИ в ISR помогло бы устранить такой "туман войны", вызванный отсутствием информации о возможностях и развертывании противника».
«...ИИ может принести другой тип "тумана войны", из-за потенциальных последствий внедрения ИИ в процесс принятия решений. В ситуации, когда стратегические цели постоянно меняются, узкий ИИ не обязательно играет роль в очистке "тумана войны". Скорее, проблема "черного ящика принятия решений в ИИ, как описано ниже, создает специфический для ИИ "туман войны"».
ИИ как "черный ящик"
«Лица, принимающие решения, должны нести ответственность за последствия своих решений, даже если они полагаются на “советы” со стороны
ИИ, который может быть ложным».
«Шарре говорит, что реальная опасность гонки вооружений ИИ заключается не в том, что какая-либо страна будет отставать от своих конкурентов в области ИИ, а в том, что восприятие гонки побудит всех поспешно развернуть небезопасные системы ИИ».
ИИ и изменение характера ядерного сдерживание
Влияние на ISR
«Эксплуатация таких сложных систем вооружения эффективно и управление такими сложными системами оружия гарантирует минимизацию риска дезинформации (и последующей ложной тревоги), неправильной интерпретации информации, механических ошибок систем раннего предупреждения в условиях очень сильном дефиците времени, поскольку такие ошибки могут привести к катастрофическим последствиям».
«Еще одним достоинством усиления потенциала ISR является возможное улучшение мониторинга событий, связанных с ядерным оружием, и проведение операций по мониторингу и проверке, что способствует соблюдение договоренностей по контролю над вооружениями и разоружению (если таковые имеются)».
«Если одна из сторон приобретает превосходство в системах ISR с использованием алгоритмов искусственного интеллекта и технологии зондирования, и улучшит свою способность обнаруживать и нацеливать пусковые установки ядерного оружия и другие стратегические объекты, в то время как варианты политики другой стороны заключаются либо в том, чтобы догнать в технологиях, либо снизить предсказуемость своего поведения и сделать расчет затрат и выгод от ядерного нападения быстрее это может привести к дестабилизации стратегических отношений. В этой ситуации государства, применяющие минимальное ядерное сдерживания, больше пострадают от таких асимметричных действий».
Вызовы для стабильного контроля над ядерными
Риски: Контроль над вооружениями и запутывание
«Когда ИИ помогает ИИ помогает лицам, принимающим решения, и полевым командирам в выборе оптимального плана сражения, он неизбежно преобразует структуру и применение сил, а также организационные и оперативные модальности в системах командования и управления, чтобы успеть за быстрым темпом меняющихся ситуаций. В сочетании с новыми технологиями, такими как высокоточные управляемые ракеты и гиперзвуковые планеры, формирующаяся военная экосистема
может повысить уязвимость стратегических объектов».
«ИИ - это технология, основанная на программном обеспечении, что затрудняет реальную оценку его возможностей затруднена. Это предполагает, что режим контроля над вооружениями для ИИ или проверка функционирования ИИ в оружейных системах будет невозможен и не заслуживает доверия. Поэтому государства, обладающие ядерным оружием, легко могут неправильно понять или просчитаться в том, в какой степени им следует рассчитывать на влияние ИИ на возможности и намерения их противников».
Повестка дня для ядерной этики в эпоху ИИ
Способность ставить цель
«…ошибки совершает не машина, а люди, которые неправильно используют систему или злоупотребляют ею. Система принятия решений с использованием ИИ может работать в сжатые сроки, что может не позволить людям, принимающим решения, проводить повторную оценку и анализ выводов/советов, которые предоставляет система с расширенными возможностями ИИ. В такой ситуации риск предвзятости автоматизации будет еще выше».
«В обозримом будущем мы вряд ли сможем представить, что ИИ в одиночку поставит цель и примет решение о применении ядерного оружия от имени людей».
Принятие ответственности и подотчетности
Серьезно
«Человеческая психическая система является закрытой системой, и действия основанные на намерениях друг друга, непредсказуемы в конечном смысле. Другими словами, "непознаваемость" является основой так называемой "свободы воли", а также колебания смысловой интерпретации, а значит, и ответственности в поведении».
«Могут ли лица, принимающие решения, определить и описать цель ядерной стратегической игры таким образом, чтобы ИИ мог понимать и работать, включая абстрактные, нормативные понятия? Если предположить, что это возможно, можно ли преодолеть культурные различия в происхождении и интерпретациях этих концепций, будут ли они преодолены для того, чтобы поддержания высокого уровня взаимной предсказуемости и, следовательно стабильности».
Заключение
«Если ИИ даст нам шанс ответить на эти трудные вопросы о ядерном сдерживании, ИИ может спасти человечество. Но без решения проблем, рассмотренных выше, ИИ может сдвинуть вперед часы Судного дня и приблизить нас к ядерной зиме».
Source: Нобумаса Акияма, 2021 г., «ИИ который начёт ядерную зиму или ИИ, который спасёт человечество? Искусственный интеллект и ядерное сдерживание»//Журнал «Robotics, AI, and Humanity» под редакцией Иоахим фон Браун, Маргарет С. Арчер, Грегори М. Райхберг и Марсело Санчес Сорондо.
Издательство: «Springer», Швейцария 2020, с. 161-170
Retrieved from
Comments