Новые технологии в области искусственного интеллекта бросают вызов основам гражданского права

Правовой статус "искусственного интеллекта". Основы гражданских прав человека. Необходимость регулирования вопросов робототехники на законодательном уровне. Новый вариант руководящих этических принципов благонадежности искусственного интеллекта.

Рубрика Государство и право
Вид статья
Язык русский
Дата добавления 18.09.2020
Размер файла 39,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http: //www. allbest. ru/

Новые технологии в области искусственного интеллекта бросают вызов основам гражданского права

Е.Н. Афанасьева

Аннотация

В апреле 2019 г. независимой экспертной группой Европейской комиссии по вопросам искусственного интеллекта был издан новый вариант руководящих этических принципов благонадежности искусственного интеллекта вместе с документом, содержащим детальное определение искусственного интеллекта. Данное определение ставит перед юристами массу серьезных вопросов, ответить на которые, используя сложившийся теоретический инструментарий, чрезвычайно сложно.

Ключевые слова: искусственный интеллект, новые технологии, программные системы, юридические факты, правовой статус.

Annotatіon

Afanasyeva Ekaterina N., Turin University; JALANNA FASHION GROUP (Turin, Italy)

NEW TECHNOLOGIES IN THE FIELD OF ARTIFICIAL INTELLIGENCE CHALLENGE THE FOUNDATIONS OF CIVIL LAW

Keywords: artificial intelligence, new technologies, software systems, legal facts, legal status.

The legal status of the "machine endowed with artificial intelligence" is still uncertain. Over the past decades, scientists from different countries have proposed different options: to give robots the status of a legal entity, to invent a novel concept - an electronic person, some even dared to compare them with a person. Others spoke about the danger of giving robots any legal status. In April last year, the independent European Commission High- Level Expert Group on Artificial Intelligence (AI HLEG) published a new version of the Ethics Guidelines for Trustworthy Artificial Intelligence, along with a document defining artificial intelligence. This definition raises a lot of serious questions for lawyers and it is extremely difficult to answer them even using the existing theoretical instrumentarium. The immediate task of enforcing the AI HLEG requirements falls on the shoulders of lawyers. Such a task is not an easy one, taking into account the lack of established practice and appropriate legislative framework. It has to be created and implemented under the existing norms. It is almost impossible to do this without having a clear understanding of artificial intelligence and its legal status.

The key point in the definition proposed by AI HLEG is that artificial intelligence "acts... by deciding...”. Such a wording jeopardizes the fundamental requirement for human governance and oversight. As we know from the theory of law, the life circumstances with which the law binds the emergence, change or termination of legal relations are called legal facts (events and actions). In the light of the above, there is a reasonable question about the place of actions taken at the discretion of artificial intelligence (i.e. based on the decisions it made) in the system of legal facts, until recently actions were the prerogative of people. Thus, we have "events" that do not objectively depend on the will and consciousness of people. Indeed, if even created and programmed by man the artificial intelligence system independently decides about its actions in each situation, then the will and consciousness of men have absolutely nothing to do with it. At this stage, we have to state that from a legal point of view, the independent actions of artificial intelligence systems formally fall under the signs of natural disasters.

Anyway, it has become obvious that in addition to the transformation of labor markets, modernization of education systems and retraining of citizens (the things the European Union much concerned with), lawyers around the world will have to adapt the foundations of the theory of law to this changing at the velocity of sound “mad, insane, crazy world". Unless artificial intelligence does it for them.

Основная часть

Техника со временем достигнет такого совершенства, что человек сможет обходиться и без самого себя. Ежи Лец

Тема искусственного интеллекта все чаще обсуждается учеными всего мира. Развитие в области робототехники идет стремительными темпами, которые, помимо азарта и восхищения, не могут не вызывать определенной паники. Как сказал Франсуа Вольтер, «прогресс - закон природы». Тем не менее современное человечество, создавая «сверхумные машины» по своему образу и подобию, ставит перед собой огромное количество нетривиальных вопросов, игнорировать которые не представляется возможным. Некоторые из этих вопросов предстоит решать и юристам.

Правовой статус «машины, наделенной искусственным интеллектом» (англ. - Artificial Intelligence; AI) по сей день является неопределенным. Учеными из разных стран на протяжении последних десятилетий предлагались различные варианты: придать роботам статус юридического лица, изобрести новое понятие - электронное лицо, некоторые даже осмеливались сравнивать их с человеком. Иные и вовсе высказывались об опасности наделения роботов каким-либо правовым статусом.

Прежде чем вступать в научную дискуссию по данному вопросу, необходимо обратиться к существующим на данный момент нормам права в данной области.

В число стран, более или менее основательно занимающихся вопросами робототехники на законодательном уровне, входят Соединенные Штаты Америки, Китай, Япония, Южная Корея, ОАЭ, Сингапур, Канада, Тайвань, Великобритания, Германия, Новая Зеландия, Нидерланды, Эстония, Франция, а также Европейский Союз. Данная работа не преследует цель дать исчерпывающий анализ всех существующих норм в интересующей нас области, поэтому обратимся к основным из них.

Одной из центральных юрисдикций, в которой вопросы регулирования робототехники и искусственного интеллекта проработаны наиболее подробно, является Европейский Союз. Проведен целый ряд правовых исследований по данной проблематике, разработаны концепции развития рассматриваемых отраслей, существуют проекты нормативных актов.

В апреле 2018 г. двадцатью пятью государствами - членами Европейского Союза подписана Декларация о сотрудничестве в области искусственного интеллекта - Declaration of cooperation on Artificial Intelligence [1]. Предполагается совместная деятельность по ряду направлений, среди которых: правовой искусственный интеллект этический

- повышение технологического и производственного потенциала Европы в области искусственного интеллекта;

- применение искусственного интеллекта и решение социально - экономических проблем, с этим связанных;

- преобразование рынков труда и модернизация систем образования и обучения в Европе, включая повышение квалификации и переквалификацию граждан ЕС;

- обеспечение надлежащих правовых и этических норм, в основе которых лежат основные права и ценности ЕС, включая неприкосновенность частной жизни и защиту персональных данных, а также такие принципы, как прозрачность и подотчетность и пр.

В июне 2018 г. в рамках стратегии по вопросам искусственного интеллекта, объявленной ранее в том же году, Европейской комиссией была создана экспертная группа - The High-Level Expert Group on Artificial Intelligence (AI HLEG).

В декабре 2018 г. AI HLEG представила первый проект Руководящих этических принципов надежного искусственного интеллекта - The Ethics Guidelines for Trustworthy Artificial Intelligence. В ходе последующих обсуждений с заинтересованными сторонами и встреч с представителями государств-членов руководящие принципы были пересмотрены и опубликованы в апреле 2019 г. [2].

Опираясь на основы права и этические принципы, в рассматриваемом документе перечислено семь ключевых требований, которым должны соответствовать системы искусственного интеллекта, чтобы быть надежными:

- человеческое управление и надзор (human agency and oversight);

- техническая надежность и безопасность (technical robustness and safety);

- конфиденциальность и управление данными (privacy and data governance);

- прозрачность (transparency);

- многообразие, недискриминация и справедливость (diversity, nondiscrimination and fairness);

- социальное и экологическое благополучие (social and environmental well-being);

- подотчетность (accountability).

По мнению экспертной группы, разрабатывавшей Руководящие этические принципы надежного искусственного интеллекта, все перечисленные требования имеют одинаковое значение, поддерживают друг друга и должны быть реализованы и оценены на протяжении всего жизненного цикла системы. Однако остановимся подробнее на первом требовании. Представляется, что последующие требования включают элементы, которые так или иначе уже отражены в действующем законодательстве и, по сути, являются производными от первого.

Итак, кто главнее: человек или машина? На практике нам об этом поведает время, а пока обратимся к теории, предлагаемой ЕС.

В соответствии с рассматриваемыми этическими принципами системы искусственного интеллекта должны поддерживать автономию человека и процесс принятия им решений, как это предписано принципом уважения автономии человека. Данное требование позволяет системам искусственного интеллекта выступать в качестве факторов, способствующих созданию демократического, процветающего и справедливого общества, оказывая поддержку пользователям и поощряя основные права, а также обеспечивая надзор со стороны человека. Как и многие технологии, системы искусственного интеллекта могут в равной степени обеспечивать и ограничивать основные права. Они могут приносить пользу людям, например помогая им отслеживать свои личные данные или увеличивая доступность образования, тем самым поддерживая их право на образование. Однако, учитывая охват и возможности рассматриваемых систем, они могут также негативно сказываться на основных правах. В ситуациях, когда риски существуют, по мнению экспертной группы AI HLEG, следует проводить оценку такого воздействия на фундаментальные права. Подобный анализ должен быть осуществлен до внедрения конкретной системы, включая и оценку того, могут ли эти риски быть уменьшены или оправданы в случае необходимости в демократическом обществе в целях уважения прав и свобод других. Кроме того, следует создать механизмы для получения внешней обратной связи в отношении систем искусственного интеллекта, которые потенциально грозят нарушением основных прав.

Обращаясь к вопросу о человеческом управлении, AI HLEG отмечает, что пользователи должны иметь возможность принимать обоснованные автономные решения относительно систем искусственного интеллекта. Людям следует предоставить знания и инструменты для удовлетворительного понимания и взаимодействия с такими системами и, где это возможно, позволить разумно самостоятельно оценить или оспорить действия системы. Задача искусственного интеллекта - поддерживать людей в принятии лучших, более информированных решений в соответствии с их целями. Системы искусственного интеллекта иногда могут быть использованы для влияния на поведение человека с помощью механизмов, которые трудно обнаружить, поскольку они могут использовать подсознательные процессы, включая различные формы несправедливых манипуляций, обмана, слежки и понуждения, способные угрожать индивидуальной автономии. Итоговый принцип автономии пользователей должен быть центральным для функциональности системы. Ключом к этому является право не подчиняться решению, основанному исключительно на автоматизированной обработке, когда это создает правовые последствия для пользователей или аналогичным образом существенно влияет на них. Последние два термина переведены мною не вполне точно по причине неблагозвучности. Если выражение «herding and conditioning», использованное в докладе независимой экспертной группы Европейской комиссии AI HLEG переводить дословно, то получается, что системы искусственного интеллекта могут осуществлять «выпас» (как в случае со скотом) и «воздействие на условные рефлексы» человека.

Концепция человеческого надзора, по заверениям AI HLEG, помогает гарантировать, что система не подорвет автономию человека или не вызовет других негативных последствий. Надзор может быть обеспечен с помощью таких механизмов управления, как human-in-the-loop (HITL), human-on-the-loop (HOTL) или human-in-command (HIC). HITL относится к способности человека вмешиваться в каждый цикл принятия решений системы, что во многих случаях невозможно и нежелательно. HOTL обеспечивает возможность вмешательства человека во время цикла проектирования системы и мониторинга ее работы. HIC означает способность контролировать общую деятельность системы искусственного интеллекта (включая ее более широкие экономические, социальные, правовые и этические последствия) и решать, когда и как использовать систему в любой конкретной ситуации. Это может включать в себя решение не использовать систему в конкретной ситуации, установить уровни дискреции человека во время использования системы или обеспечить возможность переопределения решения, принятого системой. Кроме того, необходимо обеспечить, чтобы государственные органы имели возможность осуществлять контроль в соответствии с их полномочиями. Механизмы надзора могут потребоваться в различной степени для поддержки других мер безопасности и контроля в зависимости от области применения системы и потенциального риска. При прочих равных условиях чем меньше контроля человек может осуществлять над системой искусственного интеллекта, тем более обширное тестирование и более строгое управление требуются.

На первый взгляд, принципы вполне разумные, однако их реализация на практике может оказаться весьма затруднительной. В целях решения данной проблемы в Руководящих принципах представлен оценочный перечень, содержащий руководящие указания по практическому осуществлению каждого требования. Этот оценочный список еще будет проходить доработку, в которой могут участвовать все заинтересованные стороны, с тем чтобы получить обратную связь для его улучшения (ведь документ вышел совсем недавно - 8 апреля 2019 г.). Под заинтересованными сторонами, участвующими в жизненном цикле систем искусственного интеллекта, AI HLEG понимает разработчиков (developers), администраторов размещения (deployers) и конечных пользователей (end-users), а также общество в целом. Под разработчиками экспертная группа Еврокомиссии подразумевает тех, кто занимается исследованиями, проектированием и / или разработкой систем искусственного интеллекта. Администраторы размещения - это государственные или частные организации, которые используют системы искусственного интеллекта в своих бизнес-процессах и предлагают продукты и услуги другим. Конечными пользователями являются те, кто прямо или косвенно взаимодействует с системой искусственного интеллекта. Каждая из перечисленных заинтересованных сторон играет свою роль в обеспечении соблюдения требований:

- разработчики должны внедрять и применять требования к процессам проектирования и разработки;

- администраторы размещения должны обеспечивать, чтобы используемые ими системы, а также предлагаемые ими продукты и услуги отвечали требованиям;

- конечные пользователи и общество в целом должны быть информированы об этих требованиях и иметь возможность требовать их соблюдения.

Непосредственно решение задачи по обеспечению соблюдения требований, обозначенных AI HLEG, ложится на плечи юристов и правоприменителей. Подобная задача представляется весьма непростой, учитывая отсутствие сложившейся практики и соответствующей законодательной базы. Фактически ее только предстоит создать и внедрить, причем в соответствии с уже существующими нормами. Сделать это, не имея четкого понимания, что есть искусственный интеллект и каков его правовой статус, практически невозможно.

Полагая начало выполнению данной задачи, параллельно с приведенными выше этическими принципами надежного искусственного интеллекта AI HLEG также подготовила пересмотренный документ, в котором подробно излагается определение искусственного интеллекта.

Вот как выглядит это определение:

“Artificial intelligence (AI) systems are software (and possibly also hardware) systems designed by humans that, given a complex goal, act in the physical or digital dimension by perceiving their environment through data acquisition, interpreting the collected structured or unstructured data, reasoning on the knowledge, or processing the information, derived from this data and deciding the best action(s) to take to achieve the given goal. AI systems can either use symbolic rules or learn a numeric model, and they can also adapt their behavior by analysing how the environment is affected by their previous actions...” [3].

«Системы искусственного интеллекта (AI) - это программные (и, возможно, также аппаратные) системы, разработанные людьми, которые, учитывая сложную цель, действуют в физическом или цифровом измерении, воспринимая свою среду посредством сбора данных, интерпретируя собранные структурированные или неструктурированные данные, рассуждая о знаниях или обрабатывая информацию, полученную из этих данных, и принимая решение о наилучших действиях для достижения данной цели. Системы AI могут либо использовать символические правила, либо изучать числовую модель, а также адаптировать свое поведение, анализируя, как на окружающую среду влияют их предыдущие действия...» (перевод мой. - Е.А.).

Данное определение, безусловно, достойно самого подробного изучения и анализа, который, вероятно будет осуществлен в последующих работах. Тем не менее ключевой момент, на который необходимо обратить пристальное внимание уже сейчас, - это то, что системы искусственного интеллекта «действуют... принимая решения...»

Подобная формулировка ставит под угрозу рассмотренное выше фундаментальное требование о человеческом управлении и надзоре. Безусловно, впоследствии данное определение обрастет бесчисленным количеством технических подробностей и формулировок, через которые «простому смертному юристу» будет крайне сложно добраться до сути. А суть, как видно из приведенного определения, над которым не один год работали далеко не случайные люди, в том, что искусственный интеллект наделяется волевыми признаками.

Как известно еще из теории права, жизненные обстоятельства, с которыми нормы права связывают возникновение, изменение или прекращение правоотношений, называются юридическими фактами, которые по волевому признаку принято делить на события и действия. События - это обстоятельства, которые объективно не зависят от воли и сознания людей (например, стихийные бедствия). Они могут быть уникальными и периодическими, моментальными и продолжительными, абсолютными (полностью независимыми от воли людей) и относительными (вызванными деятельностью людей, но в данном правоотношении независимыми от породивших их причин). Действия - это факты, которые зависят от воли людей, поскольку совершаются ими.

В свете сказанного выше встает резонный вопрос: какое место в системе юридических фактов следует отвести действиям, совершенным по воле искусственного интеллекта (т.е. на основе принятых им решений)? Ведь действия до недавнего времени были прерогативой людей. Даже если собака, кусая соседа, действовала по своему усмотрению, отвечать за последствия будет ее хозяин, поскольку с точки зрения права собака, какой бы дрессированной она ни была, считается вещью.

Остаются «события», которые объективно не зависят от воли и сознания людей. Действительно, если система искусственного интеллекта, пусть даже созданная и запрограммированная человеком, самостоятельно принимает решения о своих действиях в каждой конкретной ситуации, то воля и сознание человека здесь совершенно не причем. На данном этапе остается лишь констатировать, что с правовой точки зрения самостоятельные действия систем искусственного интеллекта формально подпадают под признаки стихийных бедствий.

Выводы

Так или иначе, становится очевидным, что помимо преобразования рынков труда, модернизации систем образования и переквалификации граждан, которыми так озабочен Евросоюз, юристам всего мира придется подстраивать основы теории права под этот меняющийся со скоростью звука «безумный, безумный, безумный, безумный мир». Если только искусственный интеллект не сделает это за них.

Литература

1. EU Member States sign up to cooperate on Artificial Intelligence // European Commission. (accessed: 22.04.2019).

2. Requirements of Trustworthy AI // European Commission.

3. Ethics Guidelines for Trustworthy AI // European Commission.

References

1. EU. (n.d.) EU Member States sign up to cooperate on Artificial Intelligence. [Online]

2. EU. (n.d.) Requirements of Trustworthy AI.

3. EU. (n.d.) Ethics Guidelines for Trustworthy AI. [Online]

Размещено на Allbest.ru


Подобные документы

  • Ознакомление законодательным регулированием вопросов репродуктивных прав человека на международном и внутригосударственном уровне. Выделение позитивных и негативных моментов искусственного оплодотворения и имплантации эмбриона с моральной точки зрения.

    курсовая работа [40,7 K], добавлен 05.07.2010

  • Общая характеристика демографической ситуации в Республике Беларусь. Правовое регулирование производства искусственного прерывания беременности несовершеннолетними. Общая характеристика законодательства по вопросам искусственного прерывания беременности.

    курсовая работа [54,6 K], добавлен 20.05.2013

  • Знакомство с проблемами ответственности за незаконное проведение искусственного прерывания беременности в российской уголовно-правовой доктрине. Вина как психическое отношение лица к совершенному им общественно опасному деянию и его последствиям.

    курсовая работа [60,0 K], добавлен 15.12.2013

  • Понятие и признаки принципов гражданского права, суть их классификации. Особенности принципов равенства участников гражданских правоотношений, диспозитивности и сохранения прав в случае отказа от этих прав. Современное нормативное закрепление принципов.

    курсовая работа [45,2 K], добавлен 30.09.2012

  • Понятие общих принципов в отрасли гражданского права. Принцип равенства участников гражданско-правовых отношений, неприкосновенности собственности, судебной защиты гражданских прав. Гражданское законодательство и пределы осуществления гражданских прав.

    контрольная работа [45,4 K], добавлен 22.04.2015

  • Влияние нравственно-правовых категорий на осуществление и защиту субъективного гражданского права; решение проблем, связанных с правовой природой категории разумности и добросовестности; классификация пределов и принципов осуществления гражданских прав.

    курсовая работа [506,6 K], добавлен 12.09.2012

  • Формы и особенности правового регулирования индивидуальной свободы и прав человека и гражданина на международном и конституционном уровне. Вопрос о соотношении гражданского (личного конституционного) права и обеспечиваемого им социального блага.

    курсовая работа [32,7 K], добавлен 27.03.2011

  • Под осуществлением субъективного гражданского права понимают реализацию его содержания для удовлетворения интереса управомоченного. Защита гражданских прав. Понятие защиты гражданских прав является общим для гражданского права и гражданского процесса.

    реферат [29,3 K], добавлен 30.06.2008

  • Правовой статус юридического лица как субъекта гражданского права. Порядок заключения договора залога и его государственная регистрация. Необходимость совершенствования правового регулирования залоговых отношений. Реализация прав залогодержателя.

    контрольная работа [26,8 K], добавлен 01.12.2013

  • Право человека на восстановление в правах национальными судами в случае нарушения его прав, предоставленных ему Конституцией. Общественные отношения, возникающие в сфере гражданского судопроизводства при решении вопросов подсудности гражданских дел.

    курсовая работа [49,8 K], добавлен 15.09.2016

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.