Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты

Проанализировано содержание резолюции Европейского парламента о возможности наделения искусственного интеллекта правовым статусом, изложены основные принципы и смысл ее существования. Вопрос наделения искусственного интеллекта правосубъектностью.

Рубрика Государство и право
Вид статья
Язык русский
Дата добавления 26.08.2021
Размер файла 45,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://allbest.ru

УГОЛОВНАЯ ОТВЕТСТВЕННОСТЬ И ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: ТЕОРЕТИЧЕСКИЕ И ПРИКЛАДНЫЕ АСПЕКТЫ

З.И. Хисамова1, И.Р. Бегишев2

1 Краснодарский университет Министерства внутренних дел Российской Федерации, г. Краснодар, Российская Федерация

2 Казанский инновационный университет им. В.Г. Тимирясова (ИЭУП), г. Казань, Российская Федерация

Аннотация

Человечество стоит на пороге эпохи, когда расширение горизонтов использования искусственного интеллекта развязывает новую промышленную революцию. Его применение неизбежно приводит к проблеме этического выбора, порождает правовые вопросы, требующие оперативного вмешательства. В статье подвержены анализу вопросы уголовно-правовой оценки поведения искусственного интеллекта. В первую очередь открытым остается вопрос, кто должен нести ответственность за действия искусственного интеллекта, обладающего способностью к самообучению, который принял решение о совершении действий/бездействия, квалифицируемых как преступление. Вследствие этого возникает потребность в формировании системы уголовно-правовых мер противодействия преступлениям, совершаемым с применением искусственного интеллекта. Показано, что в процессе применения искусственного интеллекта возможны четыре ситуации, требующие уголовно-правового регулирования. Подчеркнута необходимость четкого, строгого и эффективного определения этических рамок при разработке, проектировании, производстве, использовании и модификации искусственного интеллекта. Выдвинуты доводы о необходимости его признания источником повышенной опасности. Отдельно авторы указывают, что наличие в УК РФ норм, предусматривающих ответственность за совершение преступлений в сфере компьютерной информации, не исключает возможности привлечения за посягательства, совершенные с применением искусственного интеллекта, по общим нормам о наказаниях за различные преступления. Также авторам видится возможным установление системы стандартизации и сертификации деятельности по созданию и введению в эксплуатацию искусственного интеллекта. Между тем автономный, способный к самообучению искусственный интеллект существенно отличается от других явлений и объектов, ввиду чего гораздо сложнее обстоит дело с ответственностью искусственного интеллекта, принявшего решение о совершении деяний, квалифицируемых как преступление, самостоятельно. В работе проанализировано содержание резолюции Европейского парламента о возможности наделения искусственного интеллекта правовым статусом, изложены основные принципы и смысл ее существования. Особое внимание уделено вопросу наделения искусственного интеллекта правосубъектностью. Предложено использовать юридическую фикцию как прием, при котором специфическая правосубъектность искусственного интеллекта может восприниматься как нестандартное правовое положение, отличное от реальности. Предполагается, что такое решение способно снять ряд существующих сегодня правовых ограничений, препятствующих активному вовлечению ИИ в правовое пространство.

Ключевые слова Искусственный интеллект; технологическая сингулярность; правосубъектность; уголовная ответственность; юридическая фикция; резолюция Европейского парламента; источник повышенной опасности; ответственность искусственного интеллекта; преступления с применением искусственного интеллекта; преступления в сфере компьютерной информации

искусственный интеллект правовой статус правосубъектность

CRIMINAL LIABILITY AND ARTIFICIAL INTELLIGENCE: THEORETICAL AND APPLIED ASPECTS

Zarina I. Khisamova1, Ildar R. Begishev2

1 Krasnodar University of the Ministry of Internal Affairs of the Russian Federation, Krasnodar, the Russian Federation

2 Kazan Innovative University named after V.G. Timiryasov (IEML), Kazan, the Russian Federation

Abstract. The humanity is now at the threshold of a new era when a widening use of artificial intelligence (AI) will start a new industrial revolution. Its use inevitably leads to the problem of ethical choice, it gives rise to new legal issues that require urgent actions. The authors analyze the criminal law assessment of the actions of AI. Primarily, the still open issue of liability for the actions of AI that is capable of self-learning and makes a decision to act / not to act, which is qualified as a crime. As a result, there is a necessity to form a system of criminal law measures of counteracting crimes committed with the use of AI. It is shown that the application of AI could lead to four scenarios requiring criminal law regulation. It is stressed that there is a need for a clear, strict and effective definition of the ethical boundaries in the design, development, production, use and modification of AI. The authors argue that it should be recognized as a source of high risk. They specifically state that although the Criminal Code of the Russian Federation contains norms that determine liability for cybercrimes, it does not eliminate the possibility of prosecution for infringements committed with the use of AI under the general norms of punishment for various crimes. The authors also consider it possible to establish a system to standardize and certify the activities of designing AI and putting it into operation. Meanwhile, an autonomous AI that is capable of self-learning is considerably different from other phenomena and objects, and the situation with the liability of AI which independently decides to undertake an action qualified as a crime is much more complicated. The authors analyze the resolution of the European Parliament on the possibility of granting AI legal status and discuss its key principles and meaning. They pay special attention to the issue of recognizing AI as a legal personality. It is suggested that a legal fiction should be used as a technique, when a special legal personality of AI can be perceived as an unusual legal situation that is different from reality. It is believed that such a solution can eliminate a number of existing legal limitations which prevent active involvement of AI into the legal space.

Keywords: Artificial intelligence; technological singularity; legal personality; criminal liability; legal fiction; the European Parliament's resolution; a source of high risk; liability of artificial intelligence; crimes with the use of artificial intelligence; cyber-crimes

Темпы развития искусственного интеллекта (ИИ) с каждым днем набирают невиданные обороты. Аналитики по всему миру единогласно называют ИИ ключевым технологическим трендом 2018 г.Top 10 Strategic Technology Trends for 2018. URL: https://www.gartner.com/doc/3811368. По данным авторитетной международной компании PwC, специализирующейся в области консалтинга и аудита, в первом полугодии 2018 г. объем мировых венчурных инвестиций в сферу развития ИИ превысил 1,9 млрд дол. Рост по сравнению с аналогичным периодом 2017 г. составил 69 % Управление рисками для устойчивого роста в эпоху инноваций. URL: https://www.pwc.ru/ru/riskassurance/ publications/assets/pwc-2018-risk-in-review-russian.pdf.

1 Роботов поставили в ситуацию морального выбора. URL: https://lenta.ru/news/2014/09/15/robotsethic.

2 Artificial Intelligence. Statista report 2017. URL: https://www.statista.com/study/50485/artificial-intelli- gence.

. По прогнозам аналитиков, к 2020 г. рынок ИИ вырастет до 5 млрд дол. [1] за счет применения технологий машинного обучения и интеллектуального распознавания языкаAI in Fintech Market by Component (Solution, Service), Application Area (Virtual Assistant, Business Analytics & Reporting, Customer Behavioral Analytics), Deployment Mode (Cloud, On-Premises), and Region -- Global forecast to 2022. URL: https://www.marketsandmarkets.com/Mar- ket-Reports/ai-in-fintech-market-34074774.html.. В России по итогам 2017 г. объем рынка ИИ составил около 700 млн р., а к 2020 г. увеличится до 28 млрд р. Искусственный интеллект (рынок России). URL: http://www.tadviser.ru/index.php/Статья:Искусственный_ интеллект _(рынок_России). Ключевыми сферами активного внедрения ИИ в ближайшие десять лет станут Актуальные тенденции рынка искусственного интеллекта и машинного обучения.

Там же.:

1. Здравоохранение. Размер глобального рынка ИИ в здравоохранении к 2028 г. возрастет в 28 раз, и, по мнению экспертов, со временем ИИ заменит врачей в процессе диагностики и назначения лечения.

2. Транспорт. К 2025 г. объем поставок систем на основе ИИ для автономных автомобилей превысит 150 млн дол. Каршеринг позволит сократить издержки индивидуальных пользователей на покупку, обслуживание и страхование собственного автомобиля.

3. Финансовые услуги и технологии. Исследование сингапурской научно-исследовательской организации Eurekahedge показало, что хедж-фонды, использующие ИИ, демонстрируют намного лучшие результаты, чем те, что управляются людьми [2]. По данным аналитиков, финтех станет ключевой сферой внедрения ИИ, что неудивительно с учетом того, что самая крупная сделка о вливании инвестиций в ИИ была заключена на Уолл-стрит [3], а не в Силиконовой долине. Активы под управлением робосоветников в мире с 2018 по 2020 г. вырастут в 8 раз. Изменения также затронут секторы логистики, ретейла, промышленности и глобальный рынок распознавания речи [4].

Однако с ростом инвестиций в ИИ все большую озабоченность вызывает и ряд проблем, неразрывно с ним связанных, в первую очередь этического и юридического толка. Так, С. Хокинг, Б. Гейтс и И. Маск выдвигают на первый план проблему технологической сингулярности -- момента, когда компьютеры во всех своих проявлениях станут умнее людей. По мнению Р. Курцвейла, когда это произойдет, компьютеры будут иметь возможность расти в геометрической прогрессии в сравнении с самими собой и воспроизводить себя, а их интеллект будет в миллиарды раз быстрее, чем человеческий [5]. По мнению Н. Бострома из Оксфордского университета, через 60 лет ИИ станет серьезной угрозой человечеству. К 2022 г. сходство процессов мышления робота и человека будет равняться примерно 10 %, к 2040 г. -- 50 %, а в 2075 г. мыслительные процессы роботов уже нельзя будет отличить от человеческих, сходство достигнет 95 % [6]. Вместе с тем темпы технологического развития свидетельствуют о том, что указанный процесс произойдет гораздо быстрее. В новых исследованиях А. Сандберга и Н. Бострома указанные в прогнозе сроки были значительно скорректированы в сторону уменьшения [7; 8].

Проблема морали и морального выбора становится все более актуальной для ИИ. Профессор Р. Аркин, занимающийся разработкой роботов для военных нужд, отмечает, что его исследования имеют значительные этические риски, возможные при использовании его разработок в преступных целях. Применение ИИ во время войны может спасти тысячи жизней, но оружие, обладающее разумом и выступающее самостоятельно, представляет угрозу даже для своих создателей. Предвидя потенциальные риски своих разработок, Р. Аркин создал набор алгоритмов («этический руководитель»), который призван помочь роботам действовать на поле боя: в каких ситуациях прекращать огонь, в какой обстановке стремиться свести к минимуму количество жертв7.

Однако если потенциальные риски применения ИИ в военной сфере очевидны и ученые уже ведут работу по их минимизации, то в мирных сферах применения ИИ ситуация обстоит совсем иначе. В рамках закрытой экспертной дискуссии клуба «Валдай» «Юриспруденция: что ждет право в эпоху роботов и искусственного интеллекта?» в мае 2017 г. прошло обсуждение вопросов правового регулирования правосубъектности ИИ. В ходе дискуссии В. Шершульский обозначил вопросы, которые неизбежно выходят на первый план: «Вскоре информационные системы смогут принимать важные решения, касающиеся финансовых транзакций, управления автомобилями, медицинских процедур и применения оружия. Кто будет отвечать за последствия?» [9].

Применение ИИ неизбежно приведет к проблеме этического выбора. К примеру, ИИ, используемый в беспилотном автомобиле, в условиях непреодолимой силы должен сделать выбор, чью жизнь из участников дорожного движения сохранить. В Массачусетском технологическом университете в начале 2016 г. было запущено масштабное исследование Moral Machine («Этика для автомобиля»), в рамках которого был создан специальный сайт, где для пользователя беспилотного автомобиля моделировались ситуации с различными сценариями и предоставлялась возможность выбора на дороге при экстренной ситуации, например чьими жизнями пожертвовать в первую очередь при аварии, трагедия в которой уже неминуема. Анализ 2,3 млн ответов показал, что респонденты чаще всего предпочитают спасать людей, а не животных, молодых людей вместо стариков. Кроме того, как продемонстрировало исследование, существенную роль в выборе ответов играл пол потенциальной жертвы, а также религиозные предпочтения респондентов: мужчины реже оставляют в живых женщин, а религиозные люди наиболее часто отдают предпочтение спасению человека, а не животного Мнение миллионов людей: беспилотные авто должны давить стариков и спасать молодых. URL: http://www.cnews.ru/news/top/2018-10-26_mnenie_ millionov_chelovek_bespilotnye_avto_dolzhny.. Представители немецкой автомобильной компании Mercedes- Benz, в свою очередь, отметили, что их машины будут отдавать приоритет пассажирам, на что в Министерстве транспорта Германии сразу же был дан ответ, что делать такой выбор на основе ряда критериев будет неправомерно и в любом случае производитель понесет ответственность [10]. Таким образом, крайне важно подчеркнуть необходимость четкого, строгого и эффективного определения этических рамок при разработке, проектировании, производстве, использовании и модификации ИИ.

Не является исключением и сфера здравоохранения. Внедрение ИИ в процесс лечения и диагностики онкологических заболеваний повлекло неоднозначные последствия. Летом 2018 г. произошла утечка внутренних документов одного из крупнейших в мире производителей и поставщиков аппаратного и программного обеспечения -- компании IBM. В результате стало известно, что разработанный ею медицинский ИИ Watson Health, используемый в 230 больницах по всему миру для лечения 13 видов рака у 84тыс. пациентов, совершает врачебные ошибки, предлагая некорректные методы лечения, которые могут привести к смерти пациента [11]. Указанные обстоятельства предопределяют необходимость рассмотрения вопросов уголовноправового регулирования применения ИИ.

Таким образом, в процессе применения ИИ возможны четыре ситуации, требующие уголовно-правового регулирования:

- при создании системы ИИ была допущена ошибка, приведшая к совершению преступления;

- в систему ИИ был осуществлен неправомерный доступ, повлекший повреждение или модификацию его функций, вследствие чего было совершено преступление;

- ИИ, обладающий способностью к самообучению, принял решение о совершении действий/бездействия, квалифицируемых как преступление;

- ИИ был создан преступниками для совершения преступлений.

Дж. Кингстон в своем исследовании 2017 г. приводил гипотетическую ситуацию, когда автомобиль, управляемый ИИ, сбивает пешехода, и задавался вопросом уголовной ответственности [12]. К сожалению, ситуация стала реальной уже в начале 2018 г., когда беспилотный автомобиль американской международной компании, создавшей одноименное мобильное приложение -- Uber Technologies Inc., сбил женщину в американском штате Аризона из-за особенностей программы [13].

По мнению Р. Линеса и Ф. Люсиверо, ответственность за вред, причиненный ИИ, несет лицо, его программировавшее, либо лицо, ответственное за его эксплуатацию в установленных законом рамках [14]. Мы солидарны с мнением зарубежных исследователей, однако с отдельными оговорками. Указанный подход является приемлемым и в рамках отечественной правоприменительной практики в случае причинения вреда ИИ, который может быть признан источником повышенной опасности.

Так, в силу ст. 1079 Гражданского кодекса РФ9 юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих, обязаны возместить вред, причиненный источником повышенной опасности, независимо от наличия вины, если не докажут, что вред возник вследствие непреодолимой силы (п. 1 ст. 1079 ГК РФ) О некоторых вопросах применения законодательства о возмещении вреда, причиненного окружающей среде : постановление Пленума Верхов. Суда РФ от 30 нояб. 2017 г. № 49 // Российская газета. 2017. 11 дек.

9 Гражданский кодекс Российской Федерации.

Ч. 2 : федер. закон от 26 янв. 1996 г. № 14-ФЗ // Собрание законодательства РФ. 1996. № 5. Ст. 410.

13 По делу о проверке конституционности статьи 15, пункта 1 статьи 1064, статьи 1072 и пункта 1 статьи 1079 Гражданского кодекса Российской Федерации в связи с жалобами граждан А.С. Аринушенко, Г.С. Бересневой и других : постановление Конституц. Суда РФ от 10 марта 2017 г. № 6-П // Собрание законодательства РФ. 2017. № 12. Ст. 1780.

14 Уголовный кодекс Российской Федерации от 13 июня 1996 г. № 63-ФЗ // Там же. 1996. № 25. Ст. 2954.

. По смыслу нормы источником повышенной опасности признается любая деятельность, осуществление которой создает повышенную вероятность причинения вреда из-за невозможности полного контроля за ней со стороны человека, а также деятельность по использованию, транспортировке, хранению предметов, веществ и других объектов производственного, хозяйственного или иного назначения, обладающих такими же свойствамиО применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоровью гражданина : постановление Пленума Верхов. Суда РФ от 26 янв. 2010 г. № 1 // Там же. 2010. 5 февр..

В указанной норме содержится перечень видов деятельности, являющихся источником повышенной опасности: использование транспортных средств, механизмов, электрической энергии высокого напряжения, взрывчатых веществ и т.п., осуществление строительства и иной связанной с ним деятельности и др. Однако этот перечень носит открытый характер, и суд, принимая во внимание особые свойства предметов, веществ или иных объектов, используемых в процессе деятельности, вправе признать источником повышенной опасности также иную деятельность, не указанную в перечне О применении судами гражданского законодательства, регулирующего отношения по обязательствам вследствие причинения вреда жизни или здоро вью гражданина : постановление Пленума Верхов. Суда РФ от 26 янв. 2010 г. № 1.. Таким образом, учитывая потенциальные возможности ИИ, по решению суда он может быть признан источником повышенной опасности.

При этом, согласно разъяснениям Верховного Суда РФ, вред считается причиненным источником повышенной опасности, если он стал результатом его действия или проявления его вредоносных свойств. В противном случае вред возмещается на общих основаниях.

Деятельность(в том числе связанная с применением ИИ), создающая повышенную опасность для окружающих, обязывает осуществляющих ее лиц, как указал Конституционный Суд РФ в определении от 4 октября 2012 г. № 1833-О, «к особой осторожности и осмотрительности, поскольку многократно увеличивает риск причинения вреда третьим лицам, что обусловливает введение правил, возлагающих на владельцев источников повышенной опасности -- по сравнению с лицами, деятельность которых с повышенной опасностью не связана, -- повышенное бремя ответственности за наступление неблагоприятных последствий этой деятельности, в основе которой лежит риск случайного причинения вреда»13.

К уголовной ответственности, в свою очередь, могут быть привлечены исключительно физические лица, на которых может быть возложена обязанность по выполнению или соблюдению правил. С учетом того что в общем смысле ИИ на сегодняшний день представляет собой информационно-телекоммуникационную технологию, а в соответствии со ст. 274 Уголовного кодекса РФ14 уголовная ответственность наступает за нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации и информационно-телекоммуникационных сетей, указанная норма вполне применима и к ситуациям с использованием ИИ. Бланкетный характер нормы отсылает к конкретным инструкциям и правилам, устанавливающим порядок работы со средствами хранения, обработки или передачи охраняемой компьютерной информации, информационно-телекоммуникационными сетями и оконечным оборудованием в ведомстве или организации, нарушение которых повлекло уничтожение, блокирование, модификацию либо копирование компьютерной информации, причинившее крупный ущерб. Следует отметить и обязательную необходимость установления причинной связи между нарушением и наступившим существенным вредом, а также достоверности того, что последствия сбоя в функционировании ИИ являются результатом нарушения правил эксплуатации, а не программной ошибкой либо действиями, предусмотренными ст. 272 и 273 УК РФ.

В ч. 3 ст. 273 УК РФ предусмотрен квалифицирующий признак рассматриваемого состава преступления -- наступление тяжких последствий или создание угрозы их наступления. Следует учитывать, что в случае наступления тяжких последствий от применения ИИ данный квалифицированный состав преступления является материальным, т.е. деяние окончено с момента наступления общественно опасных последствий, а если создана угроза их наступления, то состав является усеченным Методические рекомендации по осуществлению прокурорского надзора за исполнением законов при расследовании преступлений в сфере компьютерной информации // Генеральная прокуратура Российской Федерации : офиц. сайт. URL: https://genproc.gov. ru/documents/nauka/execution/document-104550..

Наличие в УК РФ отдельных норм, предусматривающих ответственность за совершение преступлений в сфере компьютерной информации, не исключает возможности привлечения за посягательства, совершенные с применением ИИ, по общим нормам о наказаниях за преступления против личности (ст. 105, 109, 111, 112, 118 УК РФ), за преступления против конституционных прав и свобод человека и гражданина (ст. 143 УК РФ), за преступления против собственности (ст. 167, 168 УК РФ), за преступления против государственной власти, интересов государственной службы и службы в органах местного самоуправления (ст. 293 УК РФ) и т.д.

Аналогичным образом решается вопрос и в случае, если в систему ИИ был осуществлен неправомерный доступ, повлекший повреждение или модификацию его функций, вследствие чего было совершено преступление. Так, в ст. 272 УК РФ предусмотрена ответственность за неправомерный доступ к охраняемой законом компьютерной информации, если это деяние повлекло уничтожение, блокирование, модификацию либо копирование компьютерной информации, а в ч. 3 ст. 273 УК РФ -- за создание, использование и распространение вредоносных компьютерных программ, предназначенных для несанкционированного уничтожения, блокирования, модификации, копирования компьютерной информации или нейтрализации средств защиты компьютерной информации, если они повлекли тяжкие последствия или создали угрозу их наступления. В случае совершения неправомерного доступа с применением ИИ для неправомерного воздействия на критическую информационную инфраструктуру Российской Федерации лицо, предпринявшее такие действия, подлежит ответственности по ст. 274.1 УК РФ.

Таким образом, разработчик и (или) владелец ИИ несут ответственность за любой вред, причиненный созданным ими и (или) эксплуатируемым ИИ. В ситуации с беспилотным автомобилем Uber, принявшим решение сбить пешехода на проезжей части, ответственность за действия беспилотного автомобиля будут нести его разработчики.

Следует согласиться с мнением О.А. Радутного, что пока производитель (разработчик) и (или) владелец ИИ несут ответственность, трудностей с определением субъекта не возникает [15]. Однако системы ИИ обладают достаточно сложной архитектурой, состоящей из нескольких программно-аппаратных комплексов, либо могут быть созданы с использованием открытых исходных кодов. В указанных ситуациях определение разработчика и владельца ИИ становится довольно затруднительным. Для преодоления указанных сложностей в правоприменении видится возможным установление системы стандартизации и сертификации деятельности по созданию и введению в эксплуатацию ИИ.

Гораздо большее количество проблем и сложностей создает использование автономного ИИ с «самосознанием», способным к самосовершенствованию, самосохранению, творчеству. Как справедливо отмечает П.М. Морхат, «основная сложность связана с установлением причинно-следственной связи между действием (или бездействием) и его последствиями. В случае, когда использование подобных машин привело к совершению серьезной ошибки, возникает вопрос: что именно стало причиной случившегося: изначальная сложность оборудования или некорректное его программирование и обучение?» [16]. И кто должен нести ответственность за действия ИИ, обладающего способностью к самообучению, который принял решение о совершении действий/бездействия, квалифицируемых как преступление?

Как нами уже было отмечено ранее, в большинстве случаев вполне обоснованным представляется привлечение к ответственности разработчиков и (или) собственников ИИ. Все созданные человеком объекты воспринимаются как объекты собственности, предметы преступления, вещи, которые по умолчанию не обладают законными правами и интересами. Соответственно, они не могут нести ответственность за причиненный ущерб, не могут нести обязательств и т.д. [15]. Между тем автономный, способный к самообучению ИИ существенно отличается от других явлений и объектов, ввиду чего гораздо сложнее обстоит дело с ответственностью ИИ, принявшего решение о совершении деяний, квалифицируемых как преступление, самостоятельно.

Вопрос о привлечении ИИ к уголовной ответственности за совершение преступления неразрывно связан с наделением его правосубъектностью. Отметим, что в правовой науке в настоящее время по данному вопросу ведется активная дискуссия, катализатором которой стало предоставление подданства Королевства Саудовской Аравии человекоподобному роботу Софии, разработанному специалистом гонконгской компании Hanson Robotics Д. Хэнсоном Решение Саудовской Аравии дать гражданство роботу Софии вызвало критику // РИА Новости. 2017. нояб.и^:ІтЦрз://па.шМоі-И/20171101/1508025358. html..

Так, Н. Невьянс приходит к выводу о несостоятельности идеи наделения ИИ самостоятельной правосубъектностью, так как в указанном случае права человека экстраполируются на действия ИИ. В качестве аргумента в пользу своей точки зрения Н. Невьянс приводит пример с предложением наделить отдельных животных, «обладающих сознанием и способных иметь чувства», например дельфинов, правосубъектностью [17, р. 15].

Ф.В. Ужов, напротив, полагает, что ИИ, «наделенный способностью анализировать и составлять поведенческий алгоритм вне зависимости от программных предустановок, нуждается в правовом регулировании», и задается резонным вопросом: «Необходимо продумать -- какими правами он должен быть наделен? Как ограничить их список? С чего следует начать? Начать, безусловно, следует с создания нового субъекта права» [18, с. 358].

Стоит отметить, что в Европейском союзе после ряда трагических инцидентов с применением беспилотных автомобилей стали широко обсуждать возможность наделения роботов правовым статусом и, как следствие, возможностью привлечения электронного лица (электронной сущности) к ответственности. Так, резолюция Европарламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники от 16 февраля 2017 г. «Нормы гражданского права о робототехнике» [19, р. 10] направлена на регулирование правового статуса роботов в обществе людей посредством следующих действий: создание специального европейского агентства по робототехнике и ИИ; разработка нормативного определения разумного автономного робота, а также системы регистрации для всех версий роботов вместе с их классификационной системой; формулирование требований к разработчикам по обеспечению гарантии для предотвращения рисков; создание новой структуры отчетности для компаний, использующих роботов или нуждающихся в них, которая будет включать информацию о влиянии робототехники и ИИ на экономические результаты деятельности компании [15].

Примечательно, что в тексте упомянутой резолюции Европарламента отмечается непрекращающееся изменение роботов, предопределившее не только их способность выполнять отдельные виды деятельности, но и способность к самообучению и принятию автономных, независимых решений.

Учеными, в свою очередь, констатируется предопределяемая полиморфным характером таких систем сложность установления субъекта, ответственного за сбои в работе ИИ [20, р. 42; 21, р. 10]. Стоит согласиться с мнением П.М. Морхата о нецелесообразности и некорректности возложения ответственности на проектировщиков и разработчиков ИИ, представляющего собой комплекс сложного оборудования и устройств, разработанных в отдельности, где результат конечного решения ИИ во многом зависит от обстановки его применения и возлагаемых на него задач [16].

С целью предотвращения возможных рисков и негативных последствий принятия ИИ самостоятельных решений в проекте резолюции предлагается провести глубокий анализ таких последствий, на основе чего разработать действенные механизмы в сфере страхования ущерба от ИИ (по примеру беспилотных автомобилей), создания компенсационных страховых фондов на покрытие ущерба, обязательной регистрации вводимого в эксплуатацию ИИ [19]. Предполагается также возможность интеграции в механизм робота предохранительного выключателя, а также определенное программное обеспечение с целью немедленного отключения всех процессов в аварийных ситуациях [15].

В этой связи особый интерес представляет описанная в Резолюции Европарламента возможность наделения роботов правовым статусом. Однако необходимо отметить, что правовой статус электронного лица будет значительно отличаться от статуса физического лица. Можно выделить три ключевых подхода к вопросу правосубъектности ИИ:

- наделение ИИ правосубъектностью, соответствующей человеческой;

- наделение ИИ правосубъектностью, аналогичной правовому статусу юридического лица;

- наделение ИИ новой ограниченной правосубъектностью [22, р. 593; 23, р. 168].

Мы солидарны с мнением некоторых ученых о том, что правосубъектность ИИ не может быть приравнена к человеческой или к правовому статусу юридического лица. Человек, обладая правовым статусом, действует на основании мыслительных процессов, руководствуясь субъективными убеждениями. За действиями юридического лица также стоят физические лица, без которых деятельность юридического лица невозможна. ИИ, в свою очередь, действует самостоятельно, не обладая сознанием или чувствами [17, р. 15].

Вместе с тем рядом авторов отмечается, что ИИ может быть наделен отдельными правами, отличными от прав реального физического лица [24, р. 3; 25, р. 11]. В указанном случае уместно говорить о юридической фикции -- приеме, при котором специфическая правосубъектность ИИ может восприниматься как нестандартное правовое положение, отличное от реальности [26]. Как известно, существование правовых фикций обусловлено необходимостью преодоления правовых пробелов и устранения неопределенности в общественных отношениях [27]. Полагаем, что такое решение способно снять ряд существующих сегодня правовых ограничений, препятствующих активному вовлечению ИИ в правовое пространство.

Однако в рамках существующей правовой действительности не во всех отраслях права возможно наделение ИИ правосубъектностью, даже ограниченной.

Так, в рамках отечественного уголовного законодательства наделение ИИ набором прав и обязанностей и, как следствие, признание его субъектом права невозможно. В соответствии со ст. 19 УК РФ уголовной ответственности подлежит только физическое лицо -- человек.

Юридические лица не несут уголовную ответственность. Несмотря на бурную дискуссию, российский законодатель пока остается на традиционной позиции личной уголовной ответственности, придерживаясь антропоцентристского подхода. Указанная позиция во многом предопределяется ключевым признаком субъекта -- его вменяемостью, способностью осознавать фактический характер и общественную опасность своих действий (бездействия) и руководить ими.

Н.С. Таганцев отмечал, что «понятие преступного деяния включает в себя два момента: внешний -- воспрещенное законом посягательство и внутренний -- виновность или преступную волю» [28, с. 447]. Сегодня в доктрине уголовного права под субъективной стороной принято понимать внутреннюю психологическую совокупность факторов, имеющую место при совершении лицом общественно опасного деяния, т.е. психическую деятельность лица, непосредственно связанную с совершением преступления [29, с. 207]. В свою очередь, ИИ, лишенный психики и сознания, нельзя признать вменяемым и осознающим фактический характер своих действий, ввиду чего ключевой элемент состава преступления -- субъективная сторона -- применительно к ИИ отсутствует, и, как следствие, отсутствует состав преступления.

Многие зарубежные исследователи придерживаются аналогичной позиции. Так, Г. Халлеви, поднявшая вопрос уголовной ответственности ИИ одной из первых среди зарубежных ученых, отмечает, что обязательными элементами преступления являются преступное поведение -- actus reus и внутренний (ментальный) элемент -- mens rea. Применительно к ИИ установление ментального элемента невозможно, как результат, невозможно признание совершения ИИ преступления [30, р. 178]. Причем, как справедливо отмечают Г. Халлеви и Дж. Кингстон, в англосаксонской системе права существуют тяжкие посягательства, применительно к которым установление mens rea не является обязательным, и вполне оправданно, что при указанных обстоятельствах ИИ может быть признан субъектом посягательства [ibid., р. 191-192; 31, р. 276].

В российской уголовно-правовой доктрине такой подход невозможен из-за обязательности наличия четырех элементов признака состава преступления, в том числе субъективной стороны для всех без исключения преступлений.

Г. Халлеви справедливо задается вопросом применимости к ИИ, совершившему преступление, мер уголовной ответственности и, как следствие, достижения цели уголовного наказания [30, р. 195]. В российском уголовном праве целью уголовного наказания является восстановление социальной справедливости и исправление осужденного, а также предупреждение совершения новых преступлений (ст. 43 УК РФ). Возникают обоснованные сомнения относительно эффективности применения к ИИ традиционных видов уголовного наказания, таких как штраф или лишение свободы в целях перевоспитания «ИИ-преступника».

Однако некоторые западные ученые-юристы придерживаются мнения о необходимости привлечения роботов и ИИ к уголовной ответственности. С их точки зрения, для ИИ следует предусмотреть специальные виды наказания, такие как деактивация, перепрограммирование или наделение статусом преступника, которое будет служить предупреждением для всех участников правоотношений [32].

Аналогичного мнения придерживается и Ф.В. Ужов, который считает, что «перевоспитание» ИИ «может быть реализовано только путем его полного перепрограммирования, что можно в определенном смысле сравнить с ло- ботомией по отношению к человеку. То есть -- абсолютное и вероятно необратимое изменение свойств ИИ. Второй путь -- это утилизация машины. Вопрос о первостепенности и превалировании того или иного метода отдельный и должен обсуждаться в рамках оценки ценности машины, количества «ошибок», совершенных ею, возможности достаточно «безболезненно» убрать связанные с этими ошибками огрехи техническим путем и т.д.» [18, с. 360].

В свою очередь, мы солидарны с И.В. Понкиным и А.И. Редькиной в том, что «правовое обеспечение ИИ должно развиваться последовательно (хотя и интенсивно), с учетом предварительного исследования всех рисков, которые возможно предположить на современном этапе развития технологий, и специфики использования искусственного интеллекта в различных сферах жизни. При этом существенно важно, необходимо обеспечить баланс между интересами общества и отдельных индивидов, в том числе безопасность и необходимость развития инноваций в интересах общества» [33].

В ближайшей перспективе стремительное развитие ИИ «потребует пересмотра отраслей и институтов права (режим правовой ответственности, режим налогообложения, регулирование подконтрольности и подотчетности, регулирование прав интеллектуальной собственности, режим «электронной коммерции» (в части функционирования торговых ботов) и мн. др.)» [34].

Обобщая изложенное, следует заключить, что в ближайшей перспективе (ориентировочно 10-15 лет) темпы развития систем и устройств с ИИ вызовут потребность в тотальном пересмотре всех отраслей права. В частности, глубокой переработке подвергнутся институты интеллектуальной собственности, режим налогообложения и др., что в конечном счете приведет к необходимости разрешения концептуальной проблемы наделения автономного ИИ набором определенных прав и обязанностей. На наш взгляд, оптимальным видится наделение ИИ ограниченной правосубъектностью (посредством применения юридической фикции) в части наделения автономного ИИ обязанностью нести ответственность за причиняемый вред и негативные последствия. Указанный подход, несомненно, в перспективе будет нуждаться в переосмыслении ключевых постулатов и принципов уголовного права, в частности институтов субъекта и субъективной стороны преступления. При этом, на наш взгляд, системы с ИИ потребуют создания самостоятельного института уголовного права, уникального по своей сути и содержанию, отличного от традиционного антропоцентристского подхода. Такой правовой институт потребует совершенно нового подхода. В рамках указанного института целесообразно предусмотреть отличное от традиционного понимание субъекта, основанного на симбиозе технических и иных характеристик ИИ, а также альтернативные виды ответственности, такие как деактивация, перепрограммирование или наделение статусом преступника, что будет служить предупреждением для всех участников правоотношений. Полагаем, что такое решение в перспективе способно минимизировать криминологические риски применения ИИ [35].

СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ

1. Кузнецова Н. Инвестиции в искусственный интеллект бьют рекорды / Н. Кузнецова // Инвест-Форсайт. Деловой журнал. -- 2018. -- 29 мая. -- URL: https://www.if24.ru/investitsii-v-iskusstvennyj-inteNekt-byut-rekordy.

2. Reiff N. Artificial Intelligence Hedge Funds Outperforming Humans / N. Reiff // Investopedia. -- 2017. -- 30 Nov. -- URL: https://www.investopedia.eom/news/artificial-inteNigence-hedge-funds-outperforming-humans/#ixzz4YszizhN.

3. Гара А. Финансы будущего: искусственный интеллект навсегда изменит подход к инвестициям / А. Гара // Forbes. -- 2018. -- 31 марта. -- URL: http://www.forbes.ru/finansy-i-investicii/359437-finansy-budushchego-iskusstvennyy- intellekt-navsegda-izmenit-podhod-k.

4. Романович Р. Инвестиции в будущее: искусственный интеллект / Р. Романович // VC.Ru. -- 2018. -- 1 окт. -- URL: https://vc.ru/finance/46776-investicii-v-budushchee-iskusstvennyy-intellekt.

5. Kurzweil R. The Singularity Is Near: When Humans Transcend Biology / R. Kurzweil. -- New York : Duckworth, 2010. --1012 p.

6. Bostrom N. Superintelligence: Paths, Dangers, Strategies / N. Bostrom. -- Oxford : Oxford Univ. Press, 2014. -- 390 p.

7. Sandberg A. Space Races: Settling the Universe Fast. Technical Report-2018 / A. Sandberg. -- University of Oxford, 2018. -- URL: https://www.fhi.ox.ac.uk/wp-content/uploads/space-races-settling.pdf.

8. Bostrom N. Strategic Implications of Openness in AI Development / N. Bostrom // Global Police. -- 2017. -- Vol. 8, iss. 2. -- P. 135-148.

9. Шершульский В. Юриспруденция и искусственный интеллект: наступает эпоха беспрецедентных вызовов / В. Шер- шульский. -- URL: http://ru.valdaiclub.com/events/posts/articles/yurisprudentsiya-i-iskusstvennyyintellekt-nastupaet-epokha- bespretsedentnykh-vyzovov.

10. Карлюк М.В. Этические и правовые вопросы искусственного интеллекта / М.В. Карлюк. -- URL: http://russiancouncil. ru/analytics-and-comments/analytics/eticheskie-i-pravovye-voprosy-iskusstvennogo-intellekta.

11. Коленов С. ИИ-онколога IBM Watson уличили во врачебных ошибках / С. Коленов // Hightech.plus. -- 2018. -- 27 июля. -- URL: https://hightech.plus/2018/07/27/ii-onkologa-ibm-watson-ulichili-vo-vrachebnih-oshibkah-.

12. Kingston J.K. Artificial Intelligence and Legal Liability / J.K. Kingston // Research and Development in Intelligent Systems XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV : Conference Paper. -- Cambridge, 2016. -- P. 269-279.

13. Bergen M. Uber Halts Autonomous Car Tests After Fatal Crash in Arizona / M. Bergen, Е. Newcomer. -- URL: https:// www.bloomberg.com/news/articles/2018-03-19/uber-autonomous-car-involved-in-fatal-crash-in-arizona.

14. Leenes R. Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design / R. Leenes, F. Lu- civero // Law, Innovation and Technology. -- 2014. -- Vol. 6, iss. 2. -- P. 194-222.

15. Radutniy O.E. Criminal Liability of the Artificial Intelligence / O.E. Radutniy // Problems of Legality. -- 2017. -- Iss. 138. -- P. 132-141.

16. Морхат П.М. Искусственный интеллект: правовой взгляд / П.М. Морхат. -- Москва : Буки Веди, 2017. -- 257 с.

17. Nevejans N. European Civil Law Rules in Robotics: Study / N. Nevejans. -- European Union, 2016. -- 34 p. -- URL: http:// www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU%282016%29571379_EN.pdf.

18. Ужов Ф.В. Искусственный интеллект как субъект права / Ф.В. Ужов // Пробелы в российском законодательстве. -- 2017. -- № 3. -- С. 357-360.

19. Delvaux M. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics / M. Delvaux. -- European Parliament, 2016. -- 22 p. -- URL: http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-%2F%2FEP%2F%2FNONSGML%20 COMPARL%20PE-582.443%2001%20DOC%20PDF%20V0%2F%2FEN.

20. Prakken H. On How AI & Law Can Help Autonomous Systems obey the Law: a Position Paper / H. Prakken // Artificial Intelligence Workshop on Artificial Intelligence for Justice. -- Hague : Univ. Amsterdam, 2016. -- P. 42-46.

21. Del Castillo A.P. A Law on Robotics and Artificial Intelligence in the EU? / A.P. Del Castillo // The Foresight Brief. -- 2017. -- № 2. -- P. 1-12.

22. Robertson J. Human Rights vs. Robot Rights: Forecasts from Japan / J. Robertson // Critical Asian Studies. -- 2014. -- Vol. 46, iss. 4. -- P. 571-598.

23. Muzyka K. The Outline of Personhood Law Regarding Artificial Intelligences and Emulated Human Entities / K. Muzyka // Journal of Artificial General Intelligence. -- 2013. -- Vol. 4, iss. 3. -- P. 164-169.

24. Asaro P.M. Robots and Responsibility from a Legal Perspective / P.M. Asaro // Proceedings of the IEEE. -- 2007. -- Vol. 4, iss. 14. -- P. 20-24.

25. Hood K. Artificial Intelligence and the Legal Profession / K. Hood // Horizon Scanning. -- 2018. -- 20 p. -- URL: https:// www.lawsociety.org.uk/news/documents/horizon-scanning-artificial-intelligence-and-the-legal-profession.

26. Курсова О.А. Юридические фикции современного российского права: сущность, виды, проблемы действия / О.А. Курсова // Проблемы юридической техники : сб. ст. / под ред. В.М. Баранова. -- Нижний Новгород, 2000. -- С. 450-459.

27. Давыдова М.Л. Проблемы понятия и классификации правовых фикций / М.Л. Давыдова // Вестник Волгоградского государственного университета. Сер. 5, Юриспруденция. -- 2009. -- № 11. -- С. 17-23.

28. Таганцев Н.С. Русское уголовное право. Часть Общая. В 2 т. Т. 1 / Н.С. Таганцев. -- Тула : Автограф, 2001. -- 800 с.

29. Рарог А.И. Квалификация преступлений по субъективным признакам / А.И. Рарог. -- Санкт-Петербург : Юрид. центр Пресс, 2003. -- 304 с.

30. Hallevy G. The Criminal Liability of Artificial Intelligence Entities -- from Science Fiction to Legal Social Control / G. Hal- levy // Akron Intellectual Property Journal. -- 2010. -- Vol. 4, iss. 2. -- P. 171-201.

31. Kingston J.K.C. Artificial Intelligence and Legal Liability / J.K.C. Kingston // Research and Development in Intelligent Systems XXXIII: Incorporating Applications and Innovations in Intelligent Systems XXIV. -- Cham : Springer, 2016. -- P. 269-279.

32. Kopfstein J. Should Robots Be Punished For Committing Crimes? / J. Kopfstein. -- URL: https://www.vocativ.com/417732/ robots-punished-committing-crimes.

33. Понкин И.В. Искусственный интеллект с точки зрения права / И.В. Понкин, А.И. Редькина // Вестник РУДН. Сер.: Юридические науки. -- 2018. -- Т. 22, № 1. -- С. 91-109.

34. Морхат П.М. К вопросу о правосубъектности «электронного лица» / П.М. Морхат // Юридические исследования. -- 2018. -- № 4. -- С. 1-8.

35. Бегишев И.Р. Криминологические риски применения искусственного интеллекта / И.Р. Бегишев, З.И. Хисамова. -- DOI: 10.17150/2500-4255.2018.12(6).767-775 // Всероссийский криминологический журнал. -- 2018. -- Т. 12, № 6. -- С.767-775.

Размещено на Allbest.ru


Подобные документы

  • Институт местного самоуправления. Взаимодействие органов государственной власти и органов местного самоуправления. Наделение органов местного самоуправления отдельными государственными полномочиями. Сущность, формы и принципы наделения полномочиями.

    курсовая работа [29,7 K], добавлен 28.11.2010

  • Общая характеристика демографической ситуации в Республике Беларусь. Правовое регулирование производства искусственного прерывания беременности несовершеннолетними. Общая характеристика законодательства по вопросам искусственного прерывания беременности.

    курсовая работа [54,6 K], добавлен 20.05.2013

  • Понятие светского государства, конституционные принципы отделения религиозных объединений от государства. Государственные органы с особым правовым статусом в РФ: прокуратура, Центральный банк, Счетная палата, ЦИК, Уполномоченный по правам человека.

    контрольная работа [27,5 K], добавлен 16.07.2010

  • Знакомство с проблемами ответственности за незаконное проведение искусственного прерывания беременности в российской уголовно-правовой доктрине. Вина как психическое отношение лица к совершенному им общественно опасному деянию и его последствиям.

    курсовая работа [60,0 K], добавлен 15.12.2013

  • Уголовная ответственность, установленная законодательством России за незаконное проведение искусственного прерывания беременности. Общественная опасность рассматриваемого преступления. Объект и субъект преступления по производству незаконного аборта.

    реферат [15,9 K], добавлен 13.03.2017

  • Содержание уголовной ответственности при освобождении несовершеннолетних от наказания. Уголовная ответственность и основные формы её реализации, условия возникновения. Принудительные меры медицинского характера. Осуждение без назначения наказания.

    дипломная работа [92,7 K], добавлен 02.05.2014

  • Значение Европейского парламента в решении политических и социальных проблем. Роль Маастрихтского, Амстердамского и Ниццского договоров в установлении законодательной и бюджетной власти Европарламента и его контроля над институциями Европейского Союза.

    курсовая работа [21,6 K], добавлен 23.09.2011

  • Понятие, роль, полномочия и функции, внутренняя структура и порядок работы парламента. Выработка основных подходов к широкому кругу политических и экономических проблем. Нормативные правовые акты, отражающие и регулирующие статус Европейского парламента.

    курсовая работа [44,0 K], добавлен 04.06.2010

  • История уголовной ответственности несовершеннолетних в уголовном законодательстве России. Уголовная ответственность несовершеннолетних в российском законодательстве. Принудительные меры воспитательного значения, их содержание и применение.

    курсовая работа [24,5 K], добавлен 04.07.2004

  • Возраст, с которого наступает уголовная ответственность. Вменяемость и невменяемость. Уголовная ответственность лиц с психическими аномалиями, не исключающими вменяемости. Уголовная ответственность лиц, совершивших преступление в состоянии опьянения.

    курсовая работа [53,8 K], добавлен 01.10.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.