Алгоритмическая прозрачность и подотчетность: правовые подходы к разрешению проблемы "черного ящика"

Анализ правовых подходов Европы и США к законодательному регулированию использования компьютерных алгоритмов автоматизированного принятия юридически значимых решений. Состояние правового регулирования алгоритмической прозрачности и подотчетности в РФ.

Рубрика Государство и право
Вид статья
Язык русский
Дата добавления 08.12.2021
Размер файла 23,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Алгоритмическая прозрачность и подотчетность: правовые подходы к разрешению проблемы «черного ящика»

Кутейников Дмитрий Леонидович, Ижаев Осман Аликович, Зенин Сергей Сергеевич, Лебедев Валериан Алексеевич

Аннотация

правовой алгоритм автоматизированный решение

В статье изучены правовые подходы Европы и Соединенных Штатов Америки, на которых основывается законодательство, регулирующее использование компьютерных алгоритмов, т.е. систем автоматизированного принятия юридически значимых решений. Установлено, что в указанных юрисдикциях применяются существенно разные концепции.

Европейский подход предусматривает регулирование применения систем автоматизированного принятия решений посредством законодательства о персональных данных. Авторы приходят к выводу о том, что Общий регламент по защите данных не возлагает юридической обязанности на контролеров раскрывать техническую информацию, т.е. открывать «черный ящик», субъекту персональных данных, в отношении которого алгоритм принимает решение. Это может случиться в перспективе, когда законодательные органы конкретизируют положения названного Регламента, в соответствии с которыми контролер должен предоставлять субъекту персональных данных значимую информацию о логике принимаемых в его отношении решений.

В США вопросы прозрачности и подотчетности алгоритмов регламентируются при помощи различных антидискриминационных актов, регулирующих отдельные сферы жизнедеятельности человека. При этом они носят фрагментарный характер и их совокупность не представляет собой комплексную, связанную между собой систему нормативных правовых актов. На практике правовое регулирование осуществляется ad hoc со ссылкой на отдельные законодательные положения, запрещающие обработку чувствительных видов персональных данных.

В статье утверждается, что в России правовое регулирование алгоритмической прозрачности и подотчетности находится на этапе становления. Имеющееся законодательство о персональных данных позволяет предположить, что отечественный подход к разрешению проблемы «черного ящика» близок к европейскому. При разработке и принятии соответствующих нормативных правовых актов необходимо исходить из того, что субъект персональных данных должен обладать правом на получение информации, объясняющей в доступной форме логику принятого в его отношении решения.

Ключевые слова: алгоритмы; машинное обучение; искусственный интеллект; большие данные; алгоритмическая подотчетность; алгоритмическая прозрачность; «черный ящик»; персональные данные; приватность.

Abstract

Algorithmic Transparency and Accountability: Legal Approaches to Solving the "Black Box" Problem

Dmitriy L. Kuteynikov, Cand. Sci. (Law), Senior Lecturer of the Department of Constitutional and Municipal Law, Kutafin Moscow State Law University (MSAL)

Osman A. Izhaev, Cand. Sci. (Law), Consultant of the Legal Department of the Moscow City Election Commission

Sergey S. Zenin, Cand. Sci. (Law), Head of the Research Institute, Associate Professor of the Department of Constitutional and Municipal Law, Kutafin Moscow State Law University (MSAL), Leading Researcher of the Department of Theory of the State and Law, Constitutional and Administrative Law of the South Ural State University (National Research University)

Valerian A. Lebedev, Dr. Sci. (Law), Professor, Professor of the Department of Constitutional and Municipal Law, Kutafin Moscow State Law University (MSAL)

The paper examines the European and American legal approaches based on legislation regulating the use of computer algorithms, i.e. systems for automated decision-making of legally significant decisions. It is established that these jurisdictions apply essentially different concepts.

The European approach provides for regulating the use of automated decision-making systems through legislation on personal data. The authors conclude that the general data protection regulation does not impose a legal obligation on the controllers to disclose technical information, i.e. to open a "black box", to the subject of personal data, in respect of which the algorithm makes a decision. This may happen in the future, when the legislative authorities specify the provisions of this Regulation, according to which the controller must provide the subject of personal data with meaningful information about the logic of decisions taken in relation to it.

In the United States, issues of transparency and accountability of algorithms are regulated by various antidiscrimination acts that regulate certain areas of human activity. At the same time, they are fragmentary and their totality does not represent a complex, interconnected system of regulatory legal acts. In practice, legal regulation is carried out ad hoc with reference to certain legal provisions prohibiting the processing of sensitive types of personal data.

The paper states that the legal regulation of algorithmic transparency and accountability is in its infancy in Russia. The existing legislation on personal data suggests that the domestic approach to solving the "black box" problem is close to the European one. When developing and adopting relevant regulatory legal acts, it is necessary to proceed from the fact that the subject of personal data should have the right to receive information explaining the logic of the decision made in relation to itin an accessible form.

Keywords: algorithms; machine learning; artificial intelligence; big data; algorithmic accountability; algorithmic transparency; "black box"; personal data; privacy.

Введение

В современном мире наблюдается устойчивая тенденция развития и массового внедрения компьютерных алгоритмов. Они способны воспринимать окружающую среду, анализировать полученную из нее информацию и на этой основе принимать рациональные решения с разной степенью автономности. Особенностью данных алгоритмов является то, что в некоторых случаях невозможно с высокой степенью достоверности восстановить ход принятия им того или иного решения Burrell J. How the machine «thinks». Understanding opacity in machine learning algorithms // Big Data & Society. 2016. № 1-12 (January -- June).. Таким образом, функционирование алгоритмов является непрозрачным и неподотчетным, что в литературе принято называть проблемой «черного ящика».

Данная проблема приобретает особое для права значение в случае использования таких алгоритмов в общественной сфере. Принимаемые ими решения могут иметь юридическое значение или являться основой для принятия человеком решений, порождающих правовые последствия. При таких условиях субъекты соответствующих правоотношений не имеют возможности оценить обоснованность и справедливость принятых алгоритмом решений и тем самым де-факто лишаются права на их обжалование. Между тем за этой тайной принятия решений могут скрываться высокие риски нарушения прав личности.

К настоящему времени накоплен до - статочный опыт применения алгоритмов. В частности, широко известны случаи их отрицательного воздействия на гражданские, политические Известен печальный опыт компании Cambridge Analytica, которая при помощи алгоритма анализиро-, экономическиевала данные пользователей Facebook и на основании полученных результатов влияла через агрессив- и социальныеную таргетированную рекламу на политические предпочтения граждан, в частности в ходе избиратель- права и свободы человека. В мировой практике существуют различные правовые подходы, направленные на избежание негативных последствий массового использования алгоритмов. В связи с этим представляет научный и практический интерес исследование двух качественно отличающихся друг от друга концепций правового регулирования прозрачности и подотчетности алгоритмов.

I. Европейский подход к раскрытию информации о логике работы систем принятия автоматизированных решений

В Европейском Союзе функционирование алгоритмов регулирует Общий регламент по защите данных (далее -- Регламент). Требования Регламента, предъявляемые к контролерам, по раскрытию информации в целях объяснения субъектам данных логики принятого алгоритмом в их отношении решения исследованы в ряде научных работ9 Malgieri G., Comande G. Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation // International Data Privacy Law. 2017. Vol. 7, Iss. 4. Pp. 243--265 ; Selbst A. D., Powles J. Meaningful information and the right to explanation // International Data Privacy Law. 2017. Vol. 7, Iss. 4. Pp. 233--242 ; WachterS., Mittelstadt B., Floridi L. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation // International Data Privacy Law. 2017. Vol. 7, Iss. 2. Pp. 76--99 ; Isak M., Lee A. B. The Right Not to Be Subject to Automated Decisions Based on Profiling // EU Internet Law: Regulation and Enforcement / ed. T. Synodinou, P. Jougleux, C. Markou, T. Prastitou. Springer, 2017. Pp. 77--98 ; Tae Wan Kim, Routledge B. Algorithmic Transparency, a Right to Explanation, and Placing Trust // Carnegie Mellon University. URL: https://static1.squarespace.com/static/592ee286d482e908d35b8494/t/59 552415579fb30c014cd06c/1498752022120/Algorithmic+transparency%2C+a+right+to+explanation+and+tru st+%28TWK%26BR%29.pdf (дата обращения: 30.03.2020).. Непосредственно к вопросам прозрачности и подотчетности алгоритмов относятся положения Регламента, в соответствии с которыми контролер в случаях получения персональных данных от субъекта данных, а также от третьей стороны должен предоставлять, а субъект вправе получать информацию «о наличии системы автоматизированного принятия решения, включая профилирование, указанное в пунктах 1 и 4 статьи 22 Регламента, и по крайней мере в этих случаях полноценную информацию о логике работы этой системы, а также о значимости и предполагаемых последствиях такой обработки для субъекта данных» (ст. 13--15 Регламента). При этом пункт 1 ст. 22 Регламента устанавливает, что «субъект данных имеет право не быть субъектом такого решения, которое основано исключительно на автоматической обработке, в том числе профилировании, которое в отношении субъекта данных создает правовые последствия или которое подобным образом существенно воздействует на субъект данных».

Вышеизложенные нормативные положения ученые интерпретируют по-разному.

Одни утверждают, что из этих положений вытекает обязанность контролеров при использовании алгоритмов, принимающих юридически значимые решения, раскрывать субъекту данных полную информацию о логике принятия решения, в том числе техническую, что, по сути, означает раскрытие «черного ящика»10 Malgieri G., Comande G. Op. cit. ; Selbst A. D., Powles J. Op. cit.. Такой подход предполагает расширительное толкование норм Регламента.

Другие считают, что контролеры не обязаны предоставлять подробную информацию, а должны лишь уведомить субъекта персональных данных (не ex-post, а ex-ante) о том, как в общих чертах (абстрактно) алгоритм принимает решение11. Основание такого ограничительного толкования заключается в том, что Регламент не конкретизирует то, какую именно информацию необходимо предоставить субъекту персональных данных. Кроме того, важным аргументом здесь является то, что в ст. 22 Регламента имеется уточнение, что положения применяются в случаях, когда система приняла решение исключительно самостоятельно, т.е. без всякого вмешательства человека. На практике человек часто принимает формальное участие в принятии алгоритмом решения, что позволяет контролеру избегать соблюдения соответствующих положений Регламента.

С одной стороны, из практики имплементации в национальное законодательство данных положений странами -- членами Европейского Союза следует, что подавляющее их большинство не стали использовать расширительный подход, лишь небольшая часть стран приняла дополнительные акты, обязывающие предоставлять субъектам данных подробную информацию о функционировании алгоритмов Wachter S., Mittelstadt B., Floridi L. Op. cit. ; Isak M., Lee A. B. Op. cit. ; Tae Wan Kim, Routledge B. Op. cit. Malgieri G. Automated decision-making in the EU Member States: The right to explanation and other «suitable safeguards» in the national legislations // Computer law & security review. 2019. № 35. P. 6.. С другой стороны, есть также позиция Рабочей группы по защите прав человека в сфере обработки персональных данных, функционирующей под эгидой Европейской комиссии. В соответствии с ней из формулировки «решения, основанные исключительно на автоматизированной обработке», не следует, что в случае, если человек принимает формальное участие, контролер освобождается от обязанности предоставлять соответствующую информацию субъектам персональных данных Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679 (wp251rev.01) // European Commission. URL: https://ec.europa.eu/newsroom/article29/item-detail. cfm?item_id=612053 (дата обращения: 30.03.2020)..

Представляется, что из буквального прочтения положений Регламента действительно не вытекает наличие у контролеров обязанности раскрывать подробную информацию об алгоритме. Вместе с тем данный вопрос остается открытым и будет разрешен в дальнейшем правоприменительной практикой.

Несмотря на то что действующие на уровне Европейского Союза нормативные положения все еще не регулируют подробно данные вопросы, в научно-практической сфере наблюдается тенденция поиска сбалансированной правовой модели, которая будет содержать все необходимые юридические требования к контролерам и предоставлять достаточный перечень правовых средств защиты субъектам персональных данных, т.е. лицам, в отношении которых алгоритм будет принимать юридически значимые решения. В частности, об этом свидетельствует значительное количество научных исследований, осуществляемых под эгидой органов Европейского Союза и Совета Европы См., например: White Paper on Artificial Intelligence -- A European approach to excellence and trust (2020) // European Commission. URL: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial- intelligence-feb2020_en.pdf (дата обращения: 30.03.2020) ; A governance framework for algorithmic accountability and transparency (2019) // European Parliament. URL: https://www.europarl.europa.eu/ RegData/etudes/STUD/2019/624262/EPRS_STU(2019)624262_EN.pdf (дата обращения: 30.03.2020) ; Understanding algorithmic decision-making: Opportunities and challenges (2019) // European Parliament. URL: https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624261/EPRS_STU(2019)624261_ EN.pdf (дата обращения: 30.03.2020) ; Addressing the impacts of Algorithms on Human Rights (2018) // Council of Europe. URL: https://rm.coe.int/draft-recommendation-of-the-committee-of-ministers-to-states- on-the-hu/168095eecf (дата обращения: 30.03.2020) ; Discrimination, artificial intelligence, and algorithmic decision-making (2018) // Council of Europe. URL: https://rm.coe.int/discrimination-artificial-intelligence- and-algorithmic-decision-making/1680925d73 (дата обращения: 30.03.2020)..

В одном из таких исследований изучены социальные, технические и нормативные проблемы, связанные с алгоритмической прозрачностью и подотчетностью. В докладе, опубликованном по его результатам, отмечается, что целесообразно говорить о прозрачности в семи сферах машинного обучения:

1) данные (раскрытие источника данных, методов, с помощью которых они были проверены как непредвзятые и репрезентативные, информация о процессах самостоятельного обновления и обучения);

2) непосредственно алгоритм (раскрытие сведений о разработке программного обеспечения, кода и порядка его работы);

3) цели (прозрачность в отношении задач и приоритетов алгоритма);

4) результаты (требование от производителей или операторов открытости информации об эксплуатации алгоритмических систем и последствиях);

5) комплаенс (регулярная проверка алгоритма самими операторами и информирование о ее результатах);

6) влияние (сведения о наличии субъектов, в интересах которых используется алгоритм);

7) использование (информация о том, какие именно персональные данные и в каком объеме использует алгоритм).

При этом авторы утверждают, что транспарентность может иметь отношение либо в целом к системе, либо к принятию отдельных решений. Они приходят к выводу, что требовать открытости всего алгоритма нецелесообразно, поскольку это очень ресурсоемкий процесс и не ведет к значимому объяснению логики принятых решений. Авторы настаивают на том, что более разумным способом является установление мер, направленных на раскрытие сведений о логике принятия индивидуальных решений. В качестве таких мер предлагается анализ входных данных, статистическое объяснение, проверка конструкции/кода и статистический анализ, определение чувствительности отдельных данных (какие именно переменные предопределяют результат) A governance framework for algorithmic accountability and transparency (2019)..

Таким образом, для европейского подхода характерна нацеленность на раскрытие информации относительно функционирования алгоритма, с тем чтобы субъекты имели полноценную возможность получить исчерпывающее обоснование принятого в их отношении решения. Вместе с тем данный подход не обязательно ведет к раскрытию «черного ящика», он базируется на тезисе, что в случае реальной необходимости и целесообразности, в отсутствие альтернативных способов объяснения логики принятия решений возможно установление требований по раскрытию технических особенностей (кода) соответствующего алгоритма.

II. Алгоритмическая подотчетность и прозрачность в Соединенных Штатах Америки

В Соединенных Штатах Америки на данный момент на федеральном уровне отсутствует закон, который регламентировал бы вопросы, связанные с прозрачностью и подотчетностью алгоритмов. Это обусловлено многочисленными факторами, в том числе особенностями правовой системы США.

Европейский Регламент по защите данных является сквозным нормативным правовым актом и потому затрагивает вопросы алгоритмической прозрачности и подотчетности в разных сферах. В США, напротив, оборот персональных данных регламентируется концептуально иным образом. В Европе применяется известное правило «всё, что прямо не разрешено, то запрещено», в то время как в США руководствуются принципом «всё, что прямо не запрещено, разрешено». Отдельные нормативные правовые положения, применение которых становится возможным в спорах, касающихся использования систем автоматизированного принятия решений, содержатся в не связанных между собой различных анти- дискриминационных законах на уровне федерации и штатов.

К примеру, федеральный закон Fair Housing Act Pub L No 90-284, 82 Stat 81 (1968), codified as amended at 42 USC § 3601 et seq. требует от кредиторов в специальном уведомлении заявителя на получение кредита указывать факторы, ведущие к отказу в его выдаче и иным негативным последствиям. Equal Credit Opportunity Act Pub L No 94-239, 90 Stat 251 (1976), codified as amended at 15 USC § 1691 et seq. предписывает, что кредиторы обеспечивают «изложение причин» отрицательных решений. В соответствии с аналогичными актами запрещается учитывать при принятии решений характеристики, обработка которых находится под запретом (например, пол, раса). Вместе с тем данный подход разрабатывался для предотвращения дискриминации, вытекающей из решений, принимаемых человеком, и потому не предоставляет исчерпывающего набора средств правовой защиты от дискриминации со стороны систем автоматизированного принятия решений Єм., например: Talia B. G., Jann S. Big Data and Discrimination // University of Chicago Law Review. 2019. № 459. P. 462 ; Bruckner M. A. Promise and Perils of Algorithmic Lenders' Use of Big Data // Chicago-Kent Law Review. 2019. Vol. 93. Iss. 1. Pp. 56-57..

Одной из попыток урегулировать данный вопрос на федеральном уровне является внесение в 2019 г. в Конгресс США законопроекта «Об алгоритмической подотчетности» H.R.2231 -- Algorithmic Accountability Act of 2019 // Congress.gov. URL: https://www.congress.gov/ bill/116th-congress/house-bill/2231/text (дата обращения: 30.03.2020).. Этот акт предусматривает обязанность ряда лиц, использующих в своей деятельности системы автоматизированного принятия решений, проводить оценку их воздействия в ходе ее разработки и использования, в том числе данные проектирования и обучения, на соответствие требованиям точности, справедливости, непредвзятости, недискриминационности, конфиденциальности и безопасности. Кроме того, в надзорный орган необходимо предоставлять подробное описание системы автоматизированного принятия решений, ее конструкции, обучения, данных и ее назначения. В то же время неизвестно, что имеется в виду под подробным описанием. Результаты проведенной оценки публикуются по усмотрению оператора.

Сходный законопроект предлагается принять в штате Калифорния AB-2269 Personal rights: automated decision systems (2019--2020) // California Legislative Information. URL: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=201920200AB2269&search_ keywords=algorithm (дата обращения: 30.03.2020).. В законопроекте содержится понятие системы автоматизированного принятия решений, представляющей собой вычислительный процесс, в том числе процесс, основанный на машинном обучении, статистике или других методах обработки данных, техниках искусственного интеллекта, который способен принимать решения или облегчает принятие человеком решений, воздействующих на людей. Наряду с этим предлагается ввести термин «оценка воздействия автоматизированной системы принятия решений», что означает исследование, оценивающее систему автоматизированного принятия решений и процесс ее разработки, включая, но не ограничиваясь данными о дизайне и об обучении системы, на предмет влияния на точность, справедливость, предвзятость, недискриминационность, конфиденциальность и безопасность.

До 1 марта 2022 г. предлагается также создать консультативную целевую группу по системам автоматизированного принятия решений с целью рассмотрения и предоставления рекомендаций по их использованию в бизнесе, правительстве и других сферах.

В штатах Нью-Йорк Automated decision systems used by agencies // New York City Council. URL: https://legistar.council.nyc.gov/ LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0 (дата обращения: 30.03.2020). и Вашингтон Senate Bill 5527 // Lawfilesext. URL: http://lawfilesext.leg.wa.gov/biennium/2019-20/Pdf/Bills/Senate%20 Bills/5527.pdf?q=20200215114844 (дата обращения: 30.03.2020). разрабатывается законодательство в сфере применения систем автоматизированного принятия решений в государственном секторе (государственные решения и судопроизводство).

III. Проблема «черного ящика»: состояние правового регулирования в Российской Федерации

В ряде программных документов, посвященных развитию искусственного интеллекта в Российской Федерации, непрозрачность и неподотчет- ность алгоритмов упоминается в качестве проблемы, требующей своего нормативного правового разрешения Указ Президента РФ от 10.10.2019 № 490 «О развитии искусственного интеллекта в Российской Федера-ции» (вместе с Национальной стратегией развития искусственного интеллекта на период до 2030 года) // Президент России. URL: http://www.kremlin.ru/acts/bank/44731 (дата обращения: 02.04.2020) ; Концеп-ция регулирования технологий искусственного интеллекта и робототехники до 2023 года // Сколково. URL: https://sk.ru/foundation/legal/m/sklegal11/23859/download.aspx (дата обращения: 02.04.2020).. Вместе с тем действующее российское законодательство фактически не содержит нормативных положений, регулирующих в достаточной мере вопросы прозрачности и подотчетности алгоритмов. Это обстоятельство не позволяет говорить о сформировавшемся отечественном подходе к разрешению проблемы «черного ящика».

Однако некоторые нормы, имеющие отношение к системам автоматизированного принятия решений, установлены в законодательстве, регулирующем оборот персональных данных. Так, в соответствии со ст. 16 Федерального закона «О персональных данных» Федеральный закон от 27.07.2006 № 152-ФЗ (ред. от 31.12.2017) «О персональных данных» // Офици-альный интернет-портал правовой информации. URL: http://www.pravo.gov.ru. 31.12.2017. в Российской Федерации запрещается принимать решения, порождающие правовые последствия, на основании исключительно автоматизированной обработки персональных данных. Эта статья сформулирована таким образом, что, несмотря на общий запрет, разрешается принятие соответствующих решений, во-первых, при наличии согласия субъекта персональных данных, выраженного в письменной форме, во-вторых, в случаях, предусмотренных федеральными законами. Иными словами, законодательство о персональных данных не содержит исчерпывающего перечня случаев, при которых разрешается принимать решения на основании автоматизированной обработки персональных данных.

На наш взгляд, правовое регулирование использования алгоритмов должно оперировать термином, однозначно определяющим технологию принятия юридически значимых решений. В Федеральном законе «О персональных данных» таким понятием является «автоматизированная обработка персональных данных», что предполагает обработку персональных данных с помощью средств вычислительной техники. Этот термин, когда он используется применительно к принятию решений посредством вычислительных средств, имеет ряд недостатков. Во-первых, он определяет не саму технологию, а процесс, т.е. означает только определенную деятельность. Алгоритмы же представляют собой не процесс, а технологию, применение которой и требует правового регулирования. С этой точки зрения целесообразнее использовать термин, не только описывающий процесс, но и конкретизирующий саму технологию. Во- вторых, названный термин касается обработки только персональных данных, в то время как системы принятия решений анализируют в том числе и иные данные, не имеющие статуса персональных. В-третьих, сама по себе обработка данных не предполагает принятия конечного решения, такое понимание способно ввести в заблуждение, поскольку может показаться, что решение принимает сам человек.

Таким образом, понятие «автоматизированная обработка персональных данных» при его использовании в контексте принятия юридически значимых решений не является релевантным и не отражает степени проникновения в общественную жизнь алгоритмов. Представляется, что для создания правовых условий, обеспечивающих подотчетность и прозрачность алгоритмов в Российской Федерации, следует использовать термин «система автоматизированного принятия решений». Это понятие лишено вышеописанных недостатков, является достаточно объемным и в то же время однозначным. Кроме того, оно доказало свою эффективность в зарубежных юрисдикциях, рассмотренных в настоящей статье.

Относительно прозрачности алгоритмов в Федеральном законе «О персональных данных» указано, что оператор обязан разъяснить субъекту персональных данных порядок принятия решения на основании автоматизированной обработки персональных данных, возможные юридические последствия, а также предоставить возможность заявить возражение против такого решения.

Однако разъяснение субъекту персональных данных порядка принятия решения на основании автоматизированной обработки персональных данных не означает, что субъекту персональных данных должна быть предоставлена информация относительно логики принятого решения. Рассматриваемые положения касаются не того, как именно принято решение, к примеру что положено в его основу, а, скорее, процедуры его принятия. Из указанного следует, что субъект персональных данных, несмотря на то что наделен правом подать возражение на решение, фактически им воспользоваться не сможет, поскольку не будет знать, как именно было принято решение. В то же время основополагающей задачей правового регулирования должно являться создание условий, при которых человек имеет право на получение исчерпывающей информации относительно логики принятого в его отношении решения. Достижение указанной цели не обязательно ведет к раскрытию «черного ящика», речь идет о реализации мер, направленных на объяснение человеку причинно-следственной связи соответствующего решения.

Таким образом, можно утверждать, что в настоящее время законодательство, разрешающее проблему «черного ящика», фактически отсутствует. Вместе с тем в Российской Федерации существует законодательство о персональных данных, имеющее сквозной характер и распространяющееся на все сферы общественных отношений. С этой точки зрения для нашего государства, по нашему мнению, будет более целесообразно применять рассмотренный в настоящей статье европейский подход.

Заключение

На уровне Европейского Союза нормативные требования к алгоритмической прозрачности и подотчетности инкорпорированы в законодательство, регулирующее оборот персональных данных. На контролеров возлагается обязанность предоставлять субъекту персональных данных определенный объем информации, связанной с процессом принятия алгоритмом в его отношении решения.

Европейский правовой подход основывается на примате прав человека над интересами субъектов, получающих экономическую и иную выгоду от использования алгоритмов. Вместе с тем такой подход еще не реализован в полной мере, поскольку отсутствует конкретизация положений Регламента по защите данных, касающихся работы алгоритмов. Так, из буквального понимания действующих положений Регламента следует, что они не возлагают на контролеров юридическую обязанность раскрывать техническую информацию (по сути, открывать «черный ящик») о работе алгоритма субъекту персональных данных.

Ключевой особенностью правового подхода Соединенных Штатов Америки является то, что у них отсутствует сквозной нормативный правовой акт, устанавливающий какие-либо требования к алгоритмической прозрачности и подотчетности. На практике правовое регулирование осуществляется ad hoc со ссылкой на отдельные положения различных антидискриминационных актов, запрещающих обработку чувствительных видов персональных данных.

В то же время в США на уровне федерации и штатов парламентарии выступают с законодательными инициативами, в которых предлагается установление «обязательной оценки воздействия системы автоматизированного принятия решений», которая ведет к раскрытию определенного перечня сведений относительно работы алгоритма, а также регламентируются права и обязанности субъектов соответствующих правоотношений.

Относительно состояния правового регулирования в Российской Федерации вопросов алгоритмической прозрачности и подотчетности следует сказать, что оно находится на этапе становления. Имеющееся законодательство о персональных данных позволяет предположить, что отечественный подход близок к европейскому, которому присуще разрешение проблемы «черного ящика» через регулирование оборота персональных данных. В центре такого подхода находится право субъекта персональных данных на получение информации относительно логики принятого в его отношении решения. Разработка соответствующей нормативной правовой базы, которая обеспечит гарантии реализации этого права, является актуальной и необходимой задачей нашего государства. В противном случае существенно возрастут риски нарушения прав и свобод человека в эпоху массового внедрения в общественную практику технологий четвертой промышленной революции.

Библиография

1. Bruckner M. A. Promise and Perils of Algorithmic Lenders' Use of Big Data // Chicago-Kent Law Abstract. -- 2019. -- Vol. 93. -- Iss. 1.

2. Burrell J. How the machine «thinks». Understanding opacity in machine learning algorithms // Big Data & Society. -- 2016. -- № 1-12 (January -- June).

3. Isak M., Lee A. B. The Right Not to Be Subject to Automated Decisions Based on Profiling // EU Internet Law: Regulation and Enforcement / ed. T. Synodinou, P. Jougleux, C. Markou, T. Prastitou. -- Springer, 2017.

4. Malgieri G. Automated decision-making in the EU Member States: The right to explanation and other «suitable safeguards» in the national legislations // Computer law & security review. -- 2019. -- № 35.

5. Malgieri G., Comande G. Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation // International Data Privacy Law. -- 2017. -- Vol. 7, Iss. 4.

6. Selbst A. D., Powles J. Meaningful information and the right to explanation // International Data Privacy Law. -- 2017. -- Vol. 7, Iss. 4.

7. Talia B. G., Jann S. Big Data and Discrimination // University of Chicago Law Abstract. -- 2019. -- № 459.

8. WachterS., Mittelstadt B., Floridi L. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation // International Data Privacy Law. -- 2017. -- Vol. 7, Iss. 2.

REFERENCES

1. Bruckner MA. Promise and Perils of Algorithmic Lenders' Use of Big Data. Chicago-Kent Law Abstract. 2019;93(1). (In Eng.)

2. Burrell J. How the machine «thinks». Understanding opacity in machine learning algorithms. Big Data & Society. 2016;1-12. (In Eng.)

3. Isak M, Lee AB. The Right Not to Be Subject to Automated Decisions Based on Profiling. In: Synodinou T, Jougleux P, Markou C, Prastitou T, editors. EU Internet Law: Regulation and Enforcement. Springer; 2017. (In Eng.)

4. Malgieri G. Automated decision-making in the EU Member States: The right to explanation and other «suitable safeguards» in the national legislations. Computer law & security review. 2019;35. (In Eng.)

5. Malgieri G, Comande G. Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation. International Data Privacy Law. 2017;7(4). (In Eng.)

6. Selbst AD, Powles J. Meaningful information and the right to explanation. International Data Privacy Law. 2017;7(4). (In Eng.)

7. Talia BG, Jann S. Big Data and Discrimination. University of Chicago Law Abstract. 2019;459. (In Eng.)

8. Wachter S, Mittelstadt B, Luciano Floridi L. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation. International Data Privacy Law. 2017;7(2). (In Eng.)

Размещено на Allbest.ru


Подобные документы

  • Подходы в понимании механизма правового регулирования, предмет, типы и средства реализации, управление. Главные цели и средства в механизме правового регулирования, проблемы его практической эффективности и разработка мероприятий по их разрешению.

    курсовая работа [35,8 K], добавлен 28.01.2015

  • Анализ правовых актов, действующих в Российской Федерации как источников правового регулирования договора аренды. Основные проблемы применения правовых норм, регулирующих договор аренды, пути и направления разработок и мероприятий по их разрешению.

    курсовая работа [45,6 K], добавлен 29.04.2011

  • Сущность механизма правового регулирования общественных отношений, его элементы и содержание. Правовые методы, способы, типы и режимы правового регулирования. Общие признаки реализации правовых стимулов и ограничений. Акты официального толкования.

    курсовая работа [38,6 K], добавлен 21.10.2015

  • Анализ существующих в юриспруденции подходов к определению правового регулирования. Изучение соотношения понятия правового регулирования с понятиями регулирования права, действия права и правового воздействия. Классификация норм административного права.

    контрольная работа [30,9 K], добавлен 15.08.2012

  • Понятие и юридическое значение административно-правовых актов. Виды административно-правовых актов, процедура их принятия, действие и условия эффективности. Классификация актов по юридическим свойствам. Место актов в механизме правового регулирования.

    курсовая работа [49,2 K], добавлен 01.05.2016

  • Понятие, содержание, методы правового регулирования. Система правовых норм. Изучение правовых явлений. История правовой жизни общества. Структура механизма и критерии эффективности правового регулирования. Нормативно-правовой акт, акты реализации права.

    курсовая работа [24,0 K], добавлен 06.09.2008

  • Категория состояния и ее роль в механизме семейно-правового регулирования. Понятие брака в российском семейном законодательстве. Особенности правового регулирования прекращения брака и признания недействительным в плане сравнения правовых последствий.

    дипломная работа [93,0 K], добавлен 15.07.2015

  • Становление и развитие правового регулирования наследственных отношений. Время и место вступления в наследство. Порядок признания завещания недействительным и его правовые последствия. Некоторые правовые проблемы института наследственного права в России.

    курсовая работа [35,3 K], добавлен 12.10.2014

  • Рассмотрение разных подходов к определению предмета и метода гражданского права. Изучение сферы гражданско-правового регулирования. Анализ различий между корпоративными и обязательственными правоотношениями. Исследование природы корпоративных отношений.

    реферат [26,7 K], добавлен 15.08.2015

  • Правовые субъекты Российской Федерации, особенности их правового статуса. Система нормативно-правовых актов субъектов Российской Федерации. Муниципальный правовой акт. Актуальные проблемы правового регулирования по принятию и регистрации уставов.

    курсовая работа [64,9 K], добавлен 16.06.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.