top of page
Фото автораEgor Ptashnick

Два аргумента против дружественного человеку ИИ

За последние несколько десятилетий значительно возросло внимание к бесчисленным этическим последствиям искусственного интеллекта.

Среди многочисленных проблем-экзистенциальный риск, который, по мнению некоторых, может возникнуть в результате развития искусственного общего интеллекта (AGI), который является пока еще гипотетической формой ИИ, способной выполнять все те же интеллектуальные подвиги, что и люди.

Это привело к обширным исследованиям того, как люди могут избежать потери контроля над ИИ, который, по крайней мере, так же умен, как и лучшие из нас. Эта "проблема контроля" породила исследования по разработке "дружественного ИИ", который является высококвалифицированным AGI, который принесет пользу или, по крайней мере, не будет враждебным по отношению к людям.

Дружественный ИИ (FAI) против этически беспристрастного ИИ (IAI)


Дружественный ИИ-это искусственный общий (или супер-) интеллект, который будет уважать интересы или, по крайней мере, не будет враждебным по отношению к человечеству. Вполне вероятно, что дружелюбие является необходимым условием для того, чтобы человечество могло пользоваться потенциальными преимуществами, которые может предоставить генерал или суперинтеллект.

Поскольку интеллект является основным инструментом, с помощью которого люди достигли своего места на вершине земной иерархии, превосходящий интеллект враждебного ИИ сделает наше выживание крайне маловероятным, а наше процветание-еще менее вероятным. Чтобы избежать таких катастрофических результатов, AGI может быть разработан таким образом, чтобы запретить или отключить его способность причинять вред людям или делать то, что люди командуют.


В отличие от FAI, идея "этически беспристрастного" ИИ (или IAI) предполагает, во-первых, что существует набор беспристрастных, нейтральных к видам моральных фактов. Во-вторых, благодаря своему обширному интеллекту IAI будет иметь возможность обнаруживать и действовать в соответствии с этими фактами, в дополнение к гораздо более высокой способности точно рассчитать последствия любого действия. В-третьих, из-за отсутствия у него акратических эмоций, когнитивных предубеждений и слабости воли, а также его сверхразума и беспристрастной, не видовой ориентации на цели, он будет гораздо более склонен эффективно действовать в соответствии с этим набором моральных фактов, чем люди, вероятно, когда-либо могли.


Аргумент от нечеловеческих разумных существ

1. Как моральные агенты, люди несут ответственность перед всеми разумными существами, на которых могут повлиять наши действия.

2. Учитывая, что люди способны создавать более одного вида ИИ, если один из них будет лучше уважать интересы всех разумных существ, то при прочих равных условиях мы должны морально создать такой ИИ.

3. IAI будет, при прочих равных условиях, лучше уважать интересы всех разумных существ, чем FAI.

4. Люди способны создавать IAI или FAI.

5. Учитывая возможность создания IAI или FAI, при прочих равных условиях мы должны морально создать IAI.

А теперь подробнее о каждой предпосылке:

Предпосылка 1.


Принятие этой предпосылки не требует принятия равного обращения или равного рассмотрения всех моральных пациентов. Требуется только, чтобы все моральные пациенты были достойны морального рассмотрения, чтобы их интересы уважались». Иначе говоря, «люди исключительны и достойны большего морального рассмотрения, но это не означает, что мы должны быть одобрены или даже защищены любой ценой.

Предпосылка 2.




Если мы можем создать что-то, что будет лучше уважать интересы всех разумных существ, то, при прочих равных условиях, мы должны морально сделать это.





Предпосылка 3.




IAI будет лучше уважать интересы всех разумных существ, чем FAI. Чтобы однозначно согласиться с этой предпосылкой, необходимо привести несколько объяснений.





Во-первых, обратите внимание, что рассмотрение FAI нечеловеческих интересов будет ограничено случаями, в которых такое рассмотрение или такие интересы являются инструментально ценными. В противном случае такие интересы будут полностью игнорироваться. Это подразумевается понятием искусственного интеллекта, который ориентирован исключительно на дружелюбие к людям.

Хотя наверняка будет много случаев, когда интересы нелюдей совпадают с интересами людей, есть бесчисленное множество других, в которых это маловероятно. Например, FAI с экстраординарными возможностями, часто приписываемыми AGI/ASI может создать альтернативные способы сохранения человеческой ценности биоразнообразия при одновременном уничтожении некоторых разумных видов, опасных для человека. Например, он может уничтожить агрессивные виды медведей, собак, львов, тигров, носорогов, акул, змей, приматов и т. д. И Заменить их неагрессивными версиями.


Во-вторых, будучи проникнутым беспристрастными моральными ценностями, IAI с меньшей вероятностью, чем люди и FAI, нанесет вред разумным нелюдям для защиты относительно тривиальных интересов людей. Он также будет с большей вероятностью приносить пользу непосредственно нечеловекам, а также открывать и проводить стратегии оптимизации интересов всех видов одновременно, когда это возможно. Более того, FAI, будучи ориентированным на человека в своем поведении, может также поощрять и усиливать уже широко распространенные человеческие тенденции игнорировать или тривиализировать нечеловеческие интересы. Это связано с тем, что благоговение и почтение, с которыми мы, вероятно, интерпретируем действия и команды FAI, могут привести нас к тому, что такие действия будут оправданы и, в свою очередь, усугубят человеческий вред нелюдям.

Аргумент от будущих видов


Даже если кто-то отвергает, что любые существующие в настоящее время нечеловеки достойны морального рассмотрения, следует признать, что любой вид, морально равный или даже превосходящий людей, должен быть предоставлен, по крайней мере, равен тому, что мы предоставляем людям. Этот подход требует самой слабой антивидовой позиции, и я ожидаю, что она будет очень широко принята.

Эволюционная теория предполагает, что люди существуют в биологическом континууме, который просто так случается, что мы находимся на интеллектуальном и, возможно, моральном пике в настоящее время. Сам Дарвин считал, что разница в "умственных способностях" между людьми и нелюдями-это вопрос степени, а не рода.


Если бы ни одно органическое существо, кроме человека, не обладало какой-либо ментальной силой или если бы его силы были совершенно иной природы, чем у низших животных, то мы никогда не смогли бы убедить себя, что наши высокие способности развивались постепенно. Но можно ясно показать, что принципиальной разницы такого рода нет. Мы также должны признать, что существует гораздо более широкий интервал в умственной силе между одной из низших рыб...и одной из высших обезьян, чем между обезьяной и человеком; и все же этот огромный интервал заполняется бесчисленными градациями…Нет принципиальной разницы между человеком и высшими млекопитающими в их умственных способностях.


Учитывая наше дальнейшее существование, люди обязательно уничтожат большинство видов на планете. Это не что иное, как обоснованная экстраполяция вымираний, в которые мы уже внесли свой вклад, вместе с вероятностью продолжения причин, по которым эти вымирания произошли.

На самом деле, вполне возможно, что мы уничтожим или, возможно, уже уничтожили виды, которые породили бы один или несколько видов, которые были бы морально выше нас. Какие бы независимые от вида функции ни лежали в основе предполагаемого нынешнего морального превосходства людей, нет веских оснований полагать, что такие функции не могут развиваться, даже в большей степени, у нечеловеков.

Тем не менее, отмеченные выше широко распространенные человеческие черты предполагают, что даже если бы люди могли рассчитать вероятность того, что некоторые из этих видов будут морально превосходить самих себя, они вряд ли подчинились бы соответствующим изменениям, которые потребовались бы для появления новых видов.

Поэтому IAI должен быть создан, чтобы решить, продолжают ли люди существовать вообще, и если он решит, что мы это делаем, он также должен решить, Какую широту нам следует разрешить. Это согласуется с предпосылкой 1 по следующим причинам:

1. IAI узнает беспристрастные, нейтральные к видам моральные факты.

2. IAI сможет прийти к превосходному пониманию адаптации и естественного отбора. Это может быть достигнуто путем обучения с помощью соответствующих материалов вместе с его превосходными возможностями рассуждения.

3. Как беспристрастный, IAI будет мотивирован обладать и применять это понимание адаптации и естественного отбора на основе своего суждения о том, что мораль нейтральна для видов и что, если это суждение верно, будущие существа морально релевантны.

4. IAI будет хорошо позиционирован, чтобы определить, будут ли виды, которые могут развиться из тех, кому мы, вероятно, подвергнем опасности, равны или морально превосходят людей.

Зачем вообще создавать AGI?


Хотя можно согласиться с тем, что IAI морально предпочтительнее FAI, можно все же подвергнуть сомнению допустимость разработки AGI для начала.

Независимо от того, должны ли мы создать AGI, человечество действительно сделает это, если сможет. Причин много, но они, безусловно, включают в себя стремление к прибыли, власти и простое научное любопытство.


Но с учетом всего сказанного, учитывая, что интеллект является, по крайней мере, основной причиной появления науки и всех ее инноваций, важно иметь в виду ряд потенциальных преимуществ, которые может обеспечить превосходный интеллект (например, лечение болезней, устранение опасностей глобального потепления, решения для уменьшения демократии и более вероятной среды для гармонии интересов в целом, а также множество преимуществ, которые могут быть за пределами наших возможностей).


Если наше понимание интеллекта адекватно для разработки достаточно полезного AGI, то, учитывая все вышесказанное, вышеизложенное дает два аргумента для разработки такого рода AGI, который будет соответственно беспристрастным. И если беспристрастный AGI может рассчитать вероятность будущих видов, которые морально превосходят людей, то, с моральной точки зрения, у нас есть причина-можно даже сказать, что у нас есть долг—разработать такой AGI.

Заключение


Учитывая определенные предположения относительно искусственного общего интеллекта, а также определенные факты о людях, развитие AGI должно быть направлено на беспристрастный AGI, а не на ориентированный на человека вид, последний из которых доминирует в современных исследованиях и литературе по ИИ и экзистенциальному риску. Такой вывод можно сделать, если опираться на то, что люди не единственные существа, достойные морального рассмотрения, и тот факт, что люди, вероятно, уничтожили и, вероятно, уничтожат виды, которые вполне могут эволюционировать в виды, которые морально равны или даже превосходят нас.

Поэтому, если окажется, что люди настолько особенные, насколько мы, кажется, думаем, и если мы на самом деле движемся к развитию AGI, то у нас есть очень веские основания разработать ИИ, беспристрастный в своей моральной ориентации, чтобы мы могли быть более вероятными для облегчения существ с эквивалентными или улучшенными версиями именно такого рода специфичности. По крайней мере, вопрос о том, чьи именно интересы следует учитывать и почему, должен получить больше внимания, чем в настоящее время.


 

Источники:

Дейли К. ноябрь 2021г. "Два аргумента против дружественного человеку ИИ". Этика ИИ

Взято из https://link.springer.com/article/10.1007/s43681-021-00051-6

14 просмотров0 комментариев

Comments


Пост: Blog2_Post
bottom of page