Ранний опыт государственного строительства большевиков и Конституция РСФСР 1918 года    7   23814  | Официальные извинения    970   99034  | Становление корпоративизма в современной России. Угрозы и возможности    238   80410 

Искусственный интеллект и социология морали

1

Развитие технологий стремительно: уже сложно представить жизнь без использования гаджетов. Все заметней достижения в области развития искусственного интеллекта, уже можно увидеть в домах «умных» голосовых помощников. Технологические компании соревнуются в том, чтобы стать первыми, кто сможет создать полноценный искусственный интеллект (ИИ), сопоставимый с человеческим. Все меньше сомнений в том, что когда-нибудь это будет возможным, - ведь то, что казалось нереальным 10 лет назад, уже воплотилось в жизнь.

Тем не менее, остается не решенным вопрос о том, сможет ли такой интеллект обладать способностью к моральным действиям, будет ли он поступать в соответствии с морально-этическими принципами, что в него нужно закладывать. В некоторых странах уже объявляют о разработке таких принципов, например, совсем недавно в Китае представили шесть пунктов [1]. Но пока это происходит лишь на уровне отдельной страны, в мировом сообществе нет согласованности. Поэтому И. Маск и другие эксперты в данной области подписали петицию, требующую приостановить разработку и обучение мощных нейронных сетей, пока не будут разработаны общие протоколы безопасности, в том числе,касающиеся моральных принципов в разработке ИИ [2].

Многие ученые пишут о необходимости контроля развития ИИ, особенно его морально-этической составляющей. Неясно, насколько актуально опираться в данном вопросе на законы робототехники, созданные А. Азимовым в 1942 году, так как они основаны на математических расчетах и вряд ли уже могут соответствовать современным реалиям: вероятно, их необходимо пересматривать и дорабатывать. Кроме того, не понятно, насколько можно доверить робототехникам решения, связанные с моралью [3].

Действительно, не всегда разработки специалистов действуют так, как задумывали разработчики, а математически рассчитанные действия современного ИИ сталкиваются с социальной реальностью, которую не всегда могут понимать те, кто занимается созданием роботов и развитием технологий. Поэтому в данном вопросе необходимо обращаться к социальным наукам, так как они изучают непосредственно социальную реальность и то, как она изменяется. И та сфера, в которую планируется внедрение ИИ, в первую очередь должна быть изучена социальными учеными для адаптации технологий к реалиям общества.

Дж. Вейнцбаум писал, что компьютерные вычисления ИИ не могут заменить морально-волевых усилий, которые совершает человек, а потому нельзя ждать от роботов сопереживания, рассудительности и склонности к моральным поступкам [9]. Но возможно ли заложить научно разработанные и обоснованные принципы, которые будут соответствовать тому, что в обществе принято называть моралью? Возможно ли подключить к разработке ИИ социальные науки?

В первую очередь, если речь идет о разработке морально-этических принципов, стоит обратиться к социологии морали и посмотреть, может ли она предложить теории, которые могли бы стать основой для морально-этических принципов, закладываемых в ИИ. Есть ли такие теории, которые могут стать универсальной моралью, и возможно ли говорить о ее существовании?

В первую очередь, необходимо проанализировать существующие теории, чтобы понять, могут ли они стать основой морально-этических принципов для ИИ и рассмотреть попытки изучить оценку моральности его действия.

 

2

Одной из попыток подойти к изучению вопроса моральности ИИ с точки зрения социальных наук, основанной на реальных собранных данных, можно считать онлайн-эксперимент Moral Machine. Он был основан на дилемме с тележкой, но в этом случае человеку предлагалось встать на место беспилотного автомобиля, который должен сделать выбор, кому нанести вред. В отличие от дилеммы с тележкой, в данном случае людям предлагалось большее число сценариев, которые позволяли оценить, кого чаще «жалеют» респонденты: стариков или молодежь, женщин или мужчин, детей или животных, пассажиров автомобиля или пешеходов. При этом, помимо сбора статистики выбора, который совершает респондент, в конце каждому участнику предлагалось описать принципы, на которых он основывался, принимая решения. Преимущество онлайн проведения эксперимента позволило его организаторам собрать данные из разных стран, чтобы посмотреть на то, отличаются ли основания в зависимости от культурных особенностей, демографии и т.д.

В исследовании было отмечено, что есть 3 принципа, которые проявились во всех странах и имеют минимальную разницу, связанную с культурными отличиями: предпочтение щадить людей, а не животных; сохранение большего числа жизней; сохранение жизни молодых. Сами исследователи отмечают, что это не обязательно считать основанием для включения данных принципов при разработке ИИ, но все же результаты стоит учесть [5]. Некоторые из этих принципов уже становились предметом дискуссий при обсуждении дилеммы тележки. Например, можем ли мы оценить полезность сохранения числа многих жизней, если не знаем ничего о том, кем являются данные люди, как выбирать между многими жизнями и одной, но выдающейся личностью. Тем не менее, эти принципы разделяются на международном уровне. Поэтому нельзя просто пренебречь ими.

Также авторы прибегают к критике 3-х законов робототехники А. Азимова, говоря о том, что они не были предусмотрены для решения подобных моральных дилемм [5: с. 59]. Они разрабатывались с целью обезопасить человека от вреда более интеллектуальных роботов, но не заставить их действовать в соответствии с моральными принципами общества. Поэтому нельзя основываться только на них при формировании закладываемых в машины основ.

Авторы исследования смогли выделить 3 кластера: Южный, Западный и Восточный. Внутри них есть свои наиболее выделяющиеся правила, в соответствии с которым люди принимают решения. Так, в Южном кластере меньше отдают предпочтение человеку перед животным [5]. Это говорит о культурных отличиях, которые нельзя игнорировать при формировании моральных основ ИИ, так как именно по этим решениям его действия будут оцениваться в обществе с определенным социокультурным контекстом. Это необходимо учесть и при рассмотрении теорий, на основании которых будет формироваться моральная основа ИИ.

 

3

Говоря о теоретических предпосылках моральных принципов, в первую очередь стоит обратиться к теории моральных оснований, разработанной под руководством Дж. Хайдта. Он выделил 5 моральных оснований: вред/забота, справедливость/взаимность, общность/лояльность, авторитет/уважение, чистота/святость [7]. Но можно ли говорить об их применимости к ИИ?

Нельзя не обратить внимание на то, что основание, связанное с причинением вреда и заботой, лежит в основе законов робототехники А. Азимова. Первый и третий законы связаны именно с ним, но с преимуществом человека перед роботом. Робот не должен причинять вред человеку (человечеству в нулевом законе позднее) и должен заботиться о себе, если это не противоречит 1 и 2 закону. Второй закон робототехники связан больше с 4 моральным основанием – подчинение человеку, признание авторитета человека. То есть законы робототехники А. Азимова укладываются в теорию моральных оснований, но насколько применимы другие основания?

Стоит задуматься о том, как оценивать честность и справедливость поступков машин, можно провозгласить наиболее универсальный принцип – не врать человеку, но сложно сформулировать то, как быть справедливым. С трудностями справедливости уже сталкиваются современные «умные» системы оплаты труда таксистов, которые при равных условиях начисляют плату одному из таксистов больше, чем другому. Поэтому недостаточно просто выделить этот принцип, важно дать ему четкую формулировку, которая может быть инструкцией в конкретных ситуациях.

Если основываться на описанной проблеме, то можно дать этому основанию формулировку – не врать человеку, оценивать труд человека исходя из затраченных им ресурсов. Тем не менее, такая формулировка так же может столкнуться с критикой.

Основание, связанное с лояльностью группе, возможно, одно из наиболее сложных для применения к ИИ. Потому что необходимо определить, какой группе должен быть лоялен робот, не будет ли это основанием для использования машины в интересах корыстных групп. Или же, возможно, лучше задать формулировку, которая будет поддерживать лояльность к человечеству, но тогда она будет близка к законам робототехники, сформулированных Азимовым, а также будет совпадать со следующим основанием, в котором авторитет человека, его приказы являются определяющими при том, что они не противоречат первым законам. То есть третье основание наиболее адекватно применимо к ИИ, только когда оно формулируется по отношению ко всему человечеству во избежание использования роботов различными социальными группами против друг друга.

Четвертое основание имеет применимую формулировку в законе робототехники, так как, как и с третьим основанием, возникает проблема применимости ИИ в интересах одного человека или группы в ущерб другим, если формулировка будет изменена. Последнее основание, связанное с чистотой и почитанием священных объектов, вероятно, может иметь формулировку, близкую к следующей: забота о культурных памятниках и ценностях человечества и их уважение. То есть это основание должно обеспечивать сохранение религиозных памятников и ценностей, не нанесение вреда достопримечательностям и другим культурным объектам человечества.

Таким образом, каждое из моральных оснований для возможности применения их к принципам морали ИИдолжно быть в первую очередь сформулировано в виде инструкций, чтобы не допускать неточностей и двойного смысла.

Но следует так же обратить внимание и на последующие исследования Грэхэма. В них показано, что данные основания, разбиваемые на индивидуально направленные и сплачивающие коллектив, имеют разную степень выраженности в зависимости от политических взглядов. Так, либерально настроенные люди имеют в большей степени индивидуалистические основания, а имеющие консервативные взгляды – более коллективистские [6]. И это так же необходимо учитывать при формировании моральных принципов ИИ. Нужно понимать, что не во всех обществах будет подтверждаться актуальность данных оснований, а потому нужно варьировать формулировки и наличие этих оснований в закладываемых в ИИ принципах.

Стоит также обратить внимание на критику методов науки о морали Г. Абендом: наука о морали основывается на лабораторных экспериментах, нейрофизиологии и психологии. Они отделяют мораль от социокультурного контекста, устраняя так называемые «толстые», или объемные концепции морали (жестокость, благородство, рыцарство, материализм и др.). Они не удобны для изучения подобными методами и потому игнорируются современной наукой о морали [4]. Эти концепции существуют в обществе, но их исследование затруднено, в том числе потому, что у «толстых» концепций описание неотделимо от оценки, то есть, описывая, что такое в понимании человека «жестокость», он непременно обратится к однокоренным словам.

Это следствие того, что существование «толстых» концепций в обществе обусловлено наличием в нем определенных социальных институтов, которые делают возможным функционирование той или иной концепции. То есть проявления благородства, жестокости или материализма невозможно без наличия определенных структур и институтов. Поэтому «толстые» моральные концепции функционируют по-разному в различных обществах, и наличие концепции в одном обществе не означает, что она будет существовать в другом, и на это влияет, в первую очередь, социокультурный контекст общества.

Но что это может дать для формирования принципов морали ИИ? Безусловно, при отборе того, что следует закладывать в основу, а что – нет, необходимо обращать внимание на то, к разряду каких концепций может принадлежать данное основание: «толстых» или «тонких». Ведь если общество хочет получить робота, сопоставимого по интеллекту с человеком, то у него должны быть морально-этические принципы, которые позволят его сравнивать с человеком. И закладывание универсальных общих принципов может не дать желаемого результата. А потому следует обратиться не только к «тонким» концепциям морали, но и к тем, которые были описаны Г. Абендом.

Однако одной из наиболее важных характеристик «толстых» концепций морали становится их культурная обусловленность, возможность существовать только в определенном контексте и при наличии определенных структур и институтов. То есть при формировании морально-этических принципов ИИ, в основании которых лежат «толстые» концепции морали, необходимо учитывать социокультурный контекст общества, в котором предполагается функционирование данной разработки. Так как только в этом случае ИИ будет нормально функционировать в социуме

 

4

Работа С.Хитлин и С.Вайси «Новая социология морали» обращает внимание на важное отличие социологии морали от работ по морали психологов. Если психологи больше обращают внимания на суждения индивидов и пытаются разработать универсальные моральные принципы, то социологи обращаются к культурным различиям в морали, исследуют группы, сообщества, организации, которые могут иметь отличия в производстве морали [8].

Данная работа не просто указывает на отличия в подходах социологии и психологии в понимании морали, но и отмечает, что эти отличия приводят к тому, что «новая социология морали – это множество социологий морали». То есть не существует единой теории или подхода в социологии морали, с которым бы согласились все. Есть множество различных теорий, концепций, которые описывают и обосновывают те различные структуры, процессы воспроизводства морали, те социальные механизмы, которые становятся причиной появления разных моральных суждений. Эти суждения могут существовать и активно функционировать в одном обществе и отсутствовать в другом, или же быть точно противоположными в третьем.

Поэтому нет возможности сформулировать общие моральные принципы, которые могли бы стать универсальными. Даже в теории моральных оснований мы сталкиваемся с тем, что некоторые основания ярко выражены в одних обществах и отсутствуют в других. Новая социология морали показывает культурную обусловленность некоторых принципов морали: поэтому существует так много различных концепций и теорий, которые обосновывают разные моральные принципы. И задача социологов сводится не к поиску универсальных моральных оснований, а изучению культурных различий между странами, внутри государств и отдельных социальных групп, где происходит производство «своей» морали.

Для создания морально-этических принципов ИИ это означает, что нельзя игнорировать существующие культурные отличия. Иначе можно столкнуться с той же проблемой, которую отметил Абенд в своей работе, описывая, как попытки психологии и нейронных наук найти универсальную теорию упираются в то, что условия, созданные в лаборатории, не соответствуют социальной реальности. В итоге в реальном мире такие «принципы» имеют узко ограниченное применение. То же можно будет сказать и об ИИ, морально-этические принципы которого будут основываться на универсальной теории. Столкнувшись с социальной реальностью, он может не суметь справиться с теми разнообразными проблемами, которые будут возникать в различных культурах, а также неадекватно реагировать, что вызовет негативную реакцию на него в обществе. То есть необходимо, чтобы моральные принципы ИИучитывали хотя бы минимальные отличия социокультурных контекстов, существующие в различных обществах.

 

Конечно, такое предложение будет встречать сопротивление разработчиков ИИ, так как оно подразумевает долгую и упорную работу над внедрением моральных принципов в соответствии с социокультурными особенностями различных стран для того, чтобы возможно было распространить технологию на каждую из них. Единые моральные основы требуют гораздо меньше затрат как материальных, так и умственных, поэтому от этой идеи будет сложно отказаться. Но если компании хотят добиться успеха в разработке ИИ, сопоставимого с человеком, то необходимо прислушаться к данному совету и не пытаться найти универсальные моральные принципы, так как их не существует.

Литература
1. Китай разработал этические принципы для регулирования искусственного интеллекта. Новостной портал «Афиша.ру». [Электронный ресурс]: [режим доступа]: https://daily.afisha.ru/news/55240-kitay-razrabotal-eticheskie-principy-dlya-regulirovaniya-iskusstvennogo-intellekta/ 
2. Маск призвал приостановить разработку и обучение нейросетей. Новостной портал РБК Life. [Электронный ресурс]: [режим доступа]: https://www.rbc.ru/life/news/6424457c9a7947ebee7f7534?ysclid=lk3ssqp1zo197084644 
3. Синица, А. С. Морально-этические аспекты теории искусственного интеллекта / А. С. Синица. — Текст : непосредственный // Молодой ученый. — 2015. — № 18 (98). — С. 419-423.
4. Abend G. Thick concepts and the moral brain // European j. of sociology. – Cambridge, 2011. – Vol. 52, N 1. – P. 143–172.
5. Awad, Edmond; Dsouza, Sohan; Kim, Richard; Schulz, Jonathan; Henrich, Joseph; Shariff, Azim; Bonnefon, Jean-François; Rahwan, Iyad (24 October 2018). "The Moral Machine experiment". Nature. 563 (7729): 59–64.
6. Graham, J., Haidt, J. & Nosek, B.A. (2009) Liberals and conservatives rely on different sets of moral foundations. Journal of Personality and Social Psychology. 96 (5). pp. 1029–1046.
7. Haidt J. Morality // Perspectives on Psychological Science. 2008. Vol. 3. P. 65-72.
8. Hitlin S. , Vaisey S. The new sociology of morality // Annual rev. of sociology. - Palo Alto (Ca), 2013. - Vol. 39, n 1. - p. 51-68.
9. Weizenbaum, J. Computer Power and Human Reason: From Judgement to Calculation. — New York: W. H. Freeman & Company, 1976. — 300 p.\

комментарии - 0

Мой комментарий
captcha