Многие считают, что, помимо когнитивных способностей, автономные роботы
нуждаются в чем-то подобном для воздействия. Как и у людей, аффект, включая специфические эмоции,
будет фильтровать опыт робота на основе набора целей, ценностей и интересов.
Однако добавить человекоподобный эффект к роботам непросто. Ученые-когнитивисты начали предполагать, что автономным роботам понадобится нечто похожее на эмоции, чтобы ставить цели и направлять поведение. Как выразился Стивен Пинкер, “Большинство исследователей искусственного интеллекта считают, что свободно ведущие себя роботы... должны быть запрограммированы на что-то вроде эмоций просто для того, чтобы они в каждый момент знали, что делать дальше”.
Эсекьель Ди Паоло, например, предполагает, что организмы развивают поведенческие привычки и предпочтения в качестве адаптации, способствующей выживанию и поддержанию гомеостаза. Однако такие привычки выходят за рамки простого физического выживания и определяют то, что он называет “специфическим образом жизни”.
Синтия Бризил и Родни Брукс, среди прочих, разрабатывали интерактивное программное обеспечение для социальных роботов, нацеленное на придание им характеристик, подобных человеческим, включая функциональные эмоции и иерархию запрограммированных диспозиций и критериев для выбора среди вариантов поведения.
Эти программные модули “играют важную роль в сигнализировании о значимости, направляя внимание на то, что важно, и отвлекая от ненужных факторов, тем самым помогая эффективно расставлять приоритеты в проблемах”.
В ответ критикам, которые говорят, что такие эмоции являются лишь поверхностным моделированием, Бризил и Брукс говорят, что они не утверждают, что эмоции роботов были бы неотличимы от эмоций у животных и людей, но поэтому они не являются тривиальными или “фальшивыми”: “Они служат прагматической цели для робота, который отражает их эмоции, естественные аналоги у живых существ ”заставляют их “лучше функционировать в сложной, непредсказуемой среде”.
У роботов не будет биологических движущих сил, присущих людям, и связанных с ними предполагаемых целей, таких как, например, ухаживание, секс и воспитание детей. Они могут быть возбуждены, но они не будут сексуально возбуждены. Они могут формировать привязанности, но не привязанности как у матери и ребенка. Вот почему интеллект робота будет отличаться от человеческого интеллекта.
Социальные роботы взаимодействуют с людьми и могут “считывать” когнитивный элемент эмоций вовлеченного человека как часть своего оценочного аппарата. Такие так называемые “эмпатические” роботы могли бы затем продвигать цели как людей, так и самих себя.
Майкл Арбиб отмечает, что в той мере, в какой биологическая эмоция человека строится на оценке, такой как вознаграждение и наказание, роботу потребуется основа для той же оценки, чтобы выразить сочувствие.
Например, компьютерное устройство, предназначенное для обучения, “может использовать модель эмоций учащегося, но само по себе может не подвергаться... вознаграждению и наказанию”.
Домашние животные мыслят не так, как люди, и не обладают человеческим интеллектом. Они не могут участвовать в социальном общении, которое обеспечило бы им равный статус в человеческом сообществе. То же самое будет справедливо и для автономных роботов. Оторванные от биологических потребностей, роботы будут лишены истинного влияния, принятия решений и поведения.
__________________________________________________________________________________
Источник
Techné: Research in Philosophy and Technology: Henry Moss 2016
https://philarchive.org/rec/MOSGAA
Comments