Многие считают, что, помимо когнитивных способностей, автономные роботы нуждаются в чем-то подобном для воздействия. Как и у людей, аффект, включая специфические эмоции, будет фильтровать опыт робота на основе набора целей, ценностей и интересов.
Аффект в организмах - это аспект эволюционировавших биологических систем, от налогов одноклеточных организмов до инстинктов, побуждений, чувств, настроений и эмоций, которые фокусируют человеческое поведение при посредничестве гормонов, феромонов, нейротрансмиттеров, автономной нервной системы и ключевых структур мозга.
Ученые-когнитивисты начали предполагать, что автономным роботам понадобится нечто похожее на эмоции, чтобы ставить цели и направлять поведение.
Свободно работающей машине понадобился бы способ фильтровать опыт и быстро фокусировать внутреннюю обработку для выработки своевременных и значимых решений и действий в быстро меняющемся мире, включающем множество и одновременных психических состояний. Эта проблема стимулировала развитие так называемого “электронного” искусственного интеллекта, основанного в первую очередь на моделировании познания в живых системы.
Используя простые организмы и сенсомоторную обратную связь в качестве моделей, воплощенных ИИ будет подходить к созданию роботов с нуля, начиная с рецепторов и датчиков, связанных с простыми схемами или модулями, запрограммированными на обработку информации - зависимости от специфических раздражителей.
Затем эти простые схемы можно было бы настроить друг на друга в процессе оценки размеров. Эта “настройка” порождала бы переходные, градуированные аффективные состояния, характеризующие объект или ситуацию как,например, более или менее приятные или неприятные (валентность) и более или менее заметные (уровень возбуждения), учитывая запрограммированную иерархию ценностей и соответствующие возможные варианты поведения, такие как приближение и уход.
Такой децентрализованный, интегрированный набор специализированных модулей, каждый из которых, следуя простой логике оценки и поведения, можно было бы приблизиться к организму, взаимодействующему с миром.
Воплощенный искусственный интеллект породил множество исследований динамики живых систем, и лаборатории робототехники разрабатывают и строят машины на основе этой динамики.
Работа Ди Паоло и других ученых дала важную информацию о создании автономных агентов, использующих естественные принципы, но исследователи, выходящие за рамки простой привычки к более высоким формам познания, столкнулись с трудностями, пытаясь приспособить эти способности к ситуационным и конкретным поведенческим контекстам.
Синтия Бризил и Родни Брукс, среди прочих, разрабатывали интерактивное программное обеспечение для социальных роботов, направленное на придание им человеческих характеристик, включая функциональные эмоции и иерархию запрограммированных диспозиций и критериев выбора среди поведенческих вариантов.
Эти программные модули “играют важную роль в сигнализировании о значимости, направляя внимание на то, что важно, и отвлекая от отвлекающих факторов, тем самым помогая эффективно расставлять приоритеты в проблемах”.
В ответ на критиков, которые говорят, что такие эмоции являются лишь поверхностными симуляциями, Бризил и Брукс говорят, что они не утверждают, что эмоции роботов были бы неотличимы от их аналогов у животных и людей, но что поэтому они не являются тривиальными или “фальшивыми”: “Они служат прагматической цели для робота, который отражает их естественные аналоги в живых существах, ”заставляя их“ функционировать лучше в сложной, непредсказуемой среде”.
Однако такие искусственные эмоции поверхностны и лишь отдаленно напоминают настоящие эмоции. Отчасти проблема проистекает из ограниченной биологической перспективы многих воплощенных подходов к познанию.
Разница заключается главным образом в интенсивно социальной природе аффективно-когнитивной динамики человека. Сообщество искусственного интеллекта, классического и воплощенного, однако, в основном исходит из предположения, что, независимо от эволюционных процессов, которые привели к появлению человеческих эмоциональных и когнитивных систем, сосредоточив внимание на функциях и целях аффекта, эмоций и поведенческих результатов, которые они делают возможными, мы можем создавать искусственные версии, способствующие эффективное социальное взаимодействие человека и робота и связанное с ним интеллектуальное принятие решений роботом.
Искусственные аффекты и эмоции возможны, но цели, интересы и ценности, которые они определяют и продвигают в автономных роботах, не похожи на цели, интересы и ценности биологических людей, несмотря на запутанную терминологию, используемую теоретиками роботов.
Они будут подчиняться нашим командам и предоставлять экспертные знания, но не войдут в наш интеллектуальный мир, не пройдут какой-либо значимый тест Тьюринга или не подадут заявку на получение юридического статуса в сообществе.
Машины могут не испытывать сексуального возбуждения или не любить свою бабушку- мать, но все же могут существовать функциональные аспекты аффекта и эмоций, которые могут обеспечить основу для разумного машинного поведения, которое можно назвать гуманоидным.
Особый интерес представляют искусственные эмоции у социальных роботов. Социальные роботы взаимодействуют с людьми и могут “считывать” когнитивный элемент эмоций вовлеченного человека как часть своего оценочного аппарата.
Робот мог бы находить “удовольствие” в продвижении значимой цели людей, такой как наблюдение, утешение или обучение ребенка. Робот мог бы участвовать в значимых взаимодействие как с родителем, так и с ребенком, обеспечивающее социальную связь. Воплощенный робот также может испытывать “разочарование”, “смущение” или “разочарование” в моменты, когда он не получает сигналов успеха, но может учиться на своем опыте и адаптировать поведение для улучшения своих навыков, решения проблем и достижения меняющихся целей в динамичной среде.
Приближает ли это нас к человеческому разуму? Несмотря на внешность, такие роботы и подобные взаимодействия не будут учитывать более широкие интересы, ценности и цели людей. Вместо этого они будут иметь дело с избранными, узкими подцелями , выбранными программистом.
Случился бы комбинаторный взрыв, когда орда детей с энтузиазмом атаковала местную игровую площадку. Управление такой сложной ситуацией, основанной на множественной и противоречивой эмоциональной динамике, ошеломило бы автономного робота, но было бы обычным делом для учителя или родителя.
Быть другом, учить детей и создавать произведения искусства связаны с мощными побуждениями, чувствами и эмоциями и являются частью динамики эмоциональных и когнитивных систем биологических людей и их семей, сообществ и культуры.
Эмпатия - это улица с двусторонним движением. Роботы не могут по-настоящему сопереживать людям, потому что у них нет биологического механизма, который определяет определенные эмоции. Если предположить, что человеческие эмоции построены на базовой логике удовольствия-боли/притяжения-отталкивания и включают общие неврологические цепи, скажем, в гипоталамусе или миндалине, все равно было бы трудно определить эмоцию как выраженную.
Люди могут сопереживать другим людям, потому что у нас есть общий набор развитых биологических аффективных систем. Мы даже можем сопереживать высшим млекопитающим, которые, как мы подозреваем, могут чувствовать боль. В то время как неврологические механизмы для эмпатия не была полностью изучена, некоторые считают, что зеркальные нейроны в коре головного мозга задействованы в качестве триггеров для аффективных реакций у социальных видов.
В некоторых обстоятельствах робот может “прочитать” мысленное представление человека, интерпретируя выражение лица, действие или общее поведение. При наличии оборудования при параллельных представлениях робот мог бы затем действовать соответствующим образом в свете предполагаемого представления. Такой подход, основанный на оценке, безусловно, мог бы привести робота к поведению, полезному для человека,
В своем плане разработки гуманоидного робота Kismet Брукс и Бризил выбрали группу искусственных эмоций, которые из-за их функциональной ценности могли бы служить роботу-эмпату. Это привело их к выделению из специфических человеческих эмоций того, что они считают функциональным ядром.
Например, эмоция отвращения к Kismet, без пищеварительной системы или отвращения к еде, была бы эмоцией только по названию, а любая запрограммированная оценка и реакция на “нежелательный стимул” были бы всего лишь простой когнитивной цепью без истинного аффективного компонента. Если бы Kismet испытывал “отвращение”, скажем, к отходам животного происхождения, он был бы склонен отступить. Однако, если запрограммированная цель Kismet состоит в том, чтобы собрать и удалить обломки, он должен быть “привлечен” к обломкам и мотивирован приблизиться к нему, поднять его и избавиться от него.
Это притяжение называется “интерес” к таксономии эмоций Kismet и, по-видимому, преодолел бы тенденцию к уходу, подобно тому, как родитель сигнализирует о своем отвращении и все же меняет подгузник ребенку.
Это сочетание аффекта, усиливающих ассоциаций и познания, имеет последствия для того, как мы думаем и выполняем основные функции выживания, такие как поиск пищи, хранение пищи, приготовление пищи, прием пищи и туалет. Они служат для формирования человеческой экономики и культуры во многих отношениях.
Без реальных биологических эмоций роботам не хватало бы необходимых соматических фильтров, и им пришлось бы подходить к ценности чистоты для выживания на чисто когнитивном уровне, следуя запрограммированным правилам утилизации отходов. Правила должны были бы быть довольно простым и приспособленным к человеческим потребностям.
Оторванные от биологических потребностей, роботы будут лишены истинного влияния и того типа принятия решений и поведения, которые могли бы стать основой для достижения положения в нашем сообществе или ответа на некоторые очень простые вопросы в тест Тьюринга, вопросы, на которые мать или ребенок могли бы легко ответить.
Люди - это физико-химические машины. Однако, если такие машины находятся вне биологии, как предполагает Рэй Курцвейл, они не будут заниматься ухаживанием, спариванием и воспитанием детей. У них не будет человеческого разума.
Sources:
Henry Moss, 2016 г., "Genes, Affect, and Reason: Why Autonomous Robot Intelligence Will Be Nothing Like Human Intelligence". Retrieved from https://www.pdcnet.org/techne/content/techne_2016_0020_0001_0001_0015
Comentarios