ИИ (искусственный интеллект) – это уже неотъемлемая часть нашей жизни. С каждым днём ИИ становится всё полезнее и полезнее для человечества, однако с такой силой приходят и навязчивые мысли об опасности.
Концепция сильного и слабого интеллекта
Что же из себя представляет сильный и слабый ИИ?
«Цель слабого искусственного интеллекта состоит в выполнении отдельных интеллектуальных операций, которые не подразумевают наличия у компьютера подлинного сознания». Программы с сильным ИИ, напротив, отождествляются с человеческим разумом.
«Слабый искусственный интеллект является инструментом, который позволяет решать те или иные задачи, не требующие полного спектра человеческих познавательных способностей». Наиболее яркий пример – экспертные системы, которые заменяют эксперта в той или иной области.
Применение такого ИИ может создавать некоторые проблемы:
· проблема безработицы – многие служащие потеряли работу из-за популяризации таких программ;
· проблема ответственности – сложно определить, кому отвечать за ошибки машины.
Применение сильного ИИ также приводит к ряду проблем, одна из которых заключается в вопросе: «если мы сможем создать искусственный интеллект, превосходящий наш собственный, то, как сложатся отношения людей и машин?» Невозможно дать гарантии, что сильный ИИ не захочет продолжить своё развитие без участия человека, что наверняка приведет к непредсказуемым последствиям.
Тест Тьюринга
Чтобы определить, достиг ли ИИ уровня человеческого сознания, в 1950 году был предложен эмпирический тест А. Тьюринга.
Тьюринг описал простую игру, которая включает в себя минимум трёх игроков.
Существуют три основных варианта теста:
1. Иммитационная игра.
Игрок А — мужчина, игрок В — женщина и игрок С - ведущий беседу (любого пола). С никого не видит и может общаться только письменными сообщениями. Задавая вопросы игрокам А и В, С пытается определить, кто из них мужчина, а кто — женщина. Задача игрока А — запутать игрока С, задача игрока В — помочь игроку С прийти к верному решению.
2. Первоначальный тест на основе имитационной игры.
Тьюринг предлагает, чтобы роль игрок А был компьютером. Его задача — притвориться женщиной, чтобы сбить с толку игрока С. Успешность выполнения подобной задачи оценивается на основе сравнения исходов игры, когда игрок А — компьютер, и исходов, когда игрок А — мужчина.
Главный вопрос игры: "Могут ли машины думать?"
3. Стандартная интерпретация.
Игрок А — компьютер, игрок В — человек любого пола. Задачей ведущего является теперь не определить, кто из них мужчина и женщина, а кто из них компьютер, а кто — человек.
Теперь целью теста Тьюринга является ответ не на вопрос, может ли машина одурачить ведущего, а на вопрос, может ли машина имитировать человека.
Впервые такой тест был пройден 8 июня 2014 года в Лондоне. Компьютерная программа «Евгений Густман», созданная командой разработчиков из России, убедила 33% судей в том, что она является 13-летним мальчиком из Одессы.
Приз Лобнера
Создатели компьютерных программ часто ставят целью создание не мыслящей, а играющей в разумный диалог машины. По этой причине тест Тьюринга «не может выполнять роль единственного регулятива в создании программ ИИ».
Так, 1990 году Хью Лобнером было предложено проводить дополнение к тесту Тьюринга под названием «Приз Лобнера», которое представляет собой соревнование по выявлению лучшего имитатора человеческого разговора.
Победителем соревнования, проведенного в 2006 году, является программа Джоан («Joan») Ролло Карпентера (Rollo Carpenter).
Китайская комната
Бытует мнение, что люди смогут создать действительно сильный ИИ, подобный человеческому мозгу.
Доказать обратное решил американский философ Дж. Р. Серль, проведя в 1980 году мысленный эксперимент под названием «китайская комната».
В такую комнату Дж. Р. Серль поместил человека, который знает только английский. Ему были предоставлены три корзины:
1. текст на китайском (рукопись);
2. китайские иероглифы и правила на английском, позволяющие сопоставить первую и вторую корзины (рассказ);
3. правила на английском для сопоставления первых двух корзин с третьей (вопросы).
За пределами комнаты находится свободно разговаривающий по-китайски собеседник, который посылает вопросы и ждёт ответы. Человек из комнаты, пользуясь тремя корзинами, сможет выдать логически верные ответы на вопросы об одном из рассказов и убедить собеседника в знании языка.
Представим, что работа человека моделируется цифровым компьютером. Он точно так же сможет пройти тест, используя систему символов и не понимая их значения.
Аргумент Дж. Р. Серля направлен против теста Тьюринга и «исключает любую возможность создания сильного искусственного интеллекта»:
· ментальность компьютерного процессора, моделирующего человеческую деятельности, никогда не будет сопоставлена с работой биологического мозга
· «синтаксис не определяет семантическое содержание символов, точно так же, как компьютер обращается с данными, не придавая им никакого значения»
· «человеческий разум контролируется мозговой деятельностью, и это биологический процесс, тогда как аппаратное обеспечение (hardware) не соотносится таким же образом с программным обеспечением (software) компьютера»
Но доказал ли Дж. Р. Серль невозможность создания сильного ИИ?
"Серль уделяет много внимания биологическому аспекту человека". Он уверен, что компьютеры не могут проявлять чувства, формирующие человеческое сознание. Однако робот-андроид ASIMO, представленный в 2005 г. корпорацией "Хонда", способен распознавать движущиеся объекты, различать звуки и узнавать до десяти человеческих лиц, умеет пользоваться Интернетом и локальными сетями.
Польский писатель и философ С. Лем представил изменения мысленного эксперимента. Пусть запрограммированный человек и компьютер собирают паззл: сойдутся ли их ментальные действия? Вдвоем они совершают одинаковые логические операции и приходят к одному интеллектуальному выводу.
Под сомнения ставится и "китайский язык". Если человек в комнате "оперирует символами языка, близкого его "родному", то станет очевидно, что вопросы во многом детерминируют ответы".
Наконец, философ предлагает закрыть самого Серля в "китайской комнате" и проверить, сможет ли тот пройти собственный тест и каковы будут его результаты.
Источники
1. Маковкин А. С. Этические проблемы применения искусственного интеллекта. // Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики. Тамбов: Грамота, 2015. № 2. Ч. 2. С. 130-132.
2. Искусственный интеллект: Учеб. пособие для вузов/ В.Н. Бондарев, Ф.Г. Аде. - Севастополь: Изд-во СевНТУ, 2002. – 615с.: ил.
3. Трушина Н.Ю. Отношение теоретических концепций и компьютерных моделей в исследованиях искусственного интеллекта: автореф. дис. ... канд. фил. наук: 09.00.08 / Трушина Наталья Юрьевна. - М., 2008. - 27 с.
4. Серль Дж.Р. Сознание, мозг и программы / Дж.Р. Серль // Аналитическая философия: Становление и развитие: Антология / Общ. ред. и сост. А.Ф. Грязнов. М., 1998.
5. Нечаев С.Ю. Китайская комната Дж. Р. Серля в контексте проблем философии искусственного интеллекта // Известия Саратовского университета. - 2010. - Т. 10. Сер. Философия. Психология. Педагогика, вып. 4. - С. 19-23
Comments