До питання систематизації ризиків, спричинених обробленням персональних даних із використанням технологій штучного інтелекту

Систематизація ризиків, які можуть бути викликані обробленням персональних даних із використанням технологій штучного інтелекту, за критерієм стадій оброблення персональних даних і норм законодавства, які можуть бути порушені внаслідок настання ризику.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык украинский
Дата добавления 28.09.2022
Размер файла 74,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Київський національний університет імені Тараса Шевченка

ДО ПИТАННЯ СИСТЕМАТИЗАЦІЇ РИЗИКІВ, СПРИЧИНЕНИХ ОБРОБЛЕННЯМ ПЕРСОНАЛЬНИХ ДАНИХ ІЗ ВИКОРИСТАННЯМ ТЕХНОЛОГІЙ ШТУЧНОГО ІНТЕЛЕКТУ

В.Р. Некрутенко, асп.

Київ

Анотація

ризик персональний штучний інтелект

Метою дослідження є систематизація ризиків, які можуть бути викликані обробленням персональних даних із використанням технологій штучного інтелекту, за критерієм стадій оброблення персональних даних і норм законодавства, які можуть бути порушені внаслідок настання ризику.

На основі систематизації ризиків за мету було також поставлено проаналізувати засоби запобігання та мінімізації ризиків, викликаних використанням технологій штучного інтелекту.

Для досягнення мети цієї роботи використано загальнонаукові структурно-функціональний, системний, порівняльно-правовий методи, а також метод аналізу.

Серед спеціальнонаукових методів можна виокремити методи системного та динамічного тлумачення норм законодавства у сфері захисту персональних даних.

У ході дослідження отримано такі результати:

надано, проаналізовано за нормами законодавства України та систематизовано правові ризики, викликані обробленням персональних даних із використанням технологій штучного інтелекту;

• установлено фактори й інтереси, з якими необхідно балансувати мінімізацію правових ризиків;

• запропоновано складові комплексної регуляторної системи, спрямованої на мінімізацію ризиків і забезпечення балансу між інтересами фізичних осіб та організаціями, які здійснюють збір та оброблення персональних даних.

Отримані результати дозволили дійти таких висновків:

1. Використання алгоритмів штучного інтелекту у разі взаємодії з людиною дає беззаперечні переваги та соціальну вигоду.

2. Нерегульоване використання технології спричиняє значні ризики порушення права людини на повагу до приватного життя та право на захист персональних даних. Основними аспектами таких ризиків є незаконне використання зібраних персональних даних для машинного навчання, непрозорість і втрата контролю над логікою прийняття рішень і використанням алгоритмів, а також ризики порушення безпеки персональних даних.

3. Для мінімізації ризиків і забезпечення балансу між приватним і публічним інтересом необхідно знайти комплексний підхід, який передбачає залучення всіх зацікавлених сторін. Наявність комплексного підходу передбачає використання обов'язкових правил поведінки та норм так званого м'якого права.

Ключові слова: захист персональних даних; персональні дані; штучний інтелект; інноваційні технології; приватність; машинне навчання; дискримінація.

Annotation

V. Nekrutenko, PhD Student Taras Shevchenko National University of Kyiv, Kyiv, Ukraine

ON THE SYSTEMATISATION OF RISKS CAUSED BY THE PROCESSING OF PERSONAL DATA USING ARTIFICIAL INTELLIGENCE TECHNOLOGIES

The purpose of the study in this article is to systematise the risks that may be caused by the processing of personal data using artificial intelligence technologies, according to the criteria of stages of personal data processing and legislation that may be violated due to those risks. Based on the systematisation of risks, the aim was also to analyse the means of preventing and minimising the risks caused by the use of artificial intelligence technologies.

To achieve the purpose of this work, the following methods were used: structural, functional, systemic, comparative, as well as the method of analysis. Among the special scientific methods are methods of systematic and dynamic interpretation of legislation in the field of personal data protection.

The study analysed in accordance with the legislation of Ukraine and systematised legal risks caused by the processing of personal data using artificial intelligence technologies; identified factors and interests with which it is necessary to balance the minimisation of legal risks; proposed components of a comprehensive regulatory system aimed at minimising risks and ensuring a balance between the interests of individuals and organisations that collect and process personal data. The obtained results allowed to come to the following conclusions: 1) The use of artificial intelligence algorithms in human interaction gives undeniable advantages and social benefits; 2) Unregulated use of this technology poses significant risks of violation of the human right for respect for private life and the right to protection of personal data. The main aspects of such risks are the illegal use of collected personal data for machine learning, opacity and loss of control over the logic of decision-making, as well as the risks of breach of personal data security; 3) In order to minimise risks and ensure a balance between private and public interest, it is necessary to find a comprehensive approach that involves all stakeholders. An integrated approach involves the application of mandatory rules of conduct and the rules of so-called soft law.

Keywords: personal data protection; personal data; Artificial Intelligence; innovative technologies; privacy; machine learning; discrimination.

Вступ

За даними дослідницького центру "Gartner" [1], станом на 2019 р. приблизно 37 % організацій по всьому світу використовують технологію штучного інтелекту для виконання певних завдань, що є втричі більшим показником порівняно з 2015 р. Технології машинного навчання та штучного інтелекту починають застосовувати у практично будь-якій сфері життя: починаючи від автоматичної генерації та редагування текстів до допомоги суддям у винесенні рішень і до вирішення питань щодо схвалення або відмови у розгляді кредитних заявок у фінансових установах.

Штучний інтелект допомагає автоматизувати й оптимізувати процеси, мінімізуючи людський фактор і надаючи вигоду його користувачам. У той же час, зі збільшенням ролі алгоритмів у прийнятті рішень, які раніше покладалися на людину, зокрема і рішень, які мають юридичні наслідки, ціна помилки та міра відповідальності за надійну та правомірну роботу алгоритмів стає все вищою.

Ця стаття дає огляд викликів і ризиків, пов'язаних з обробленням персональних даних із використанням технологій штучного інтелекту.

Об'єктом дослідження є суспільні відносини, що виникають у зв'язку з використанням технологій штучного інтелекту для оброблення персональних даних. Предметом дослідження є правове регулювання захисту персональних даних в умовах використання технологій штучного інтелекту.

Мета статті - актуалізувати проблемні питання використання штучного інтелекту для оброблення персональних даних і надати огляд шляхів їхнього можливого вирішення.

Теоретичною основою цієї статті є роботи таких науковців, як О. А. Заярний, Сандра Вахтер, Брент Міттельштадт, Майкл Вель, Мішель Фінк та ін. Окрім цього, вплив технологій штучного інтелекту проаналізовано у розрізі законодавства України та міжнародних стандартів із захисту персональних даних, стратегії Європейського Союзу щодо штучного інтелекту, а також роз'яснень європейських наглядових органів із захисту персональних даних.

Основні результати дослідження

Ризики використання технологій штучного інтелекту. Оскільки важливою складовою цього дослідження є технологія штучного інтелекту, варто розпочати з визначення цій технології. Для цілей статті термін "штучний інтелект" застосовується у найбільш широкому значенні. А саме, для визначення штучного інтелекту взято визначення, надане в Енциклопедії Британіка [2]: здатність цифрового комп'ютера або керованого комп'ютером робота виконувати завдання, які зазвичай виконуються розумними істотами.

Особливий інтерес для вказаного дослідження складають алгоритми штучного інтелекту на основі машинного навчання, що означає створення алгоритмів шляхом пошуку закономірностей серед широкого обсягу даних на певну тему. Такі алгоритми, зазвичай, успадковують логіку поведінки та прийняття рішень людей, які є суб'єктами прийняття рішень у наборах тренувальних даних для машинного навчання.

Актуальність використання технологій штучного інтелекту для оброблення персональних даних спостерігається у приватному і публічному секторах. Унікальність цього явища полягає у тому, що штучний інтелект, за умови наявності необхідних технічних можливостей, може у перспективі застосовуватися у будь-якій сфері діяльності людини. Такі технології, як машинне навчання, дають можливість адаптувати логіку прийняття рішень алгоритму на основі попередніх рішень, виконаних людиною у тій чи іншій площині. Більше того, використання алгоритмів дозволяє мінімізувати вірогідність помилки, яка є високою у разі залучення у процес людини.

Для приватного сектора головним інтересом у використанні штучного інтелекту є збільшення економічної вигоди шляхом створення та подальшого використання наборів великих даних, що дозволять робити точніші й ефективніші економічні прогнози. Це, як приклад, дозволяє надавати більш якісні послуги, рекламувати та продавати товари або послуги ефективніше.

Використання технологій штучного інтелекту в публічному секторі допомагає забезпечити публічний порядок і підвищити якість публічних послуг. Окрім цього, це дозволяє мінімізувати людський фактор, який може призвести до дискримінації людини або корупційних правопорушень.

Ефективна робота алгоритмів, особливо тих, створення яких засновується на технологіях машинного навчання, передбачає постійне збільшення об'єму інформації про людину. Неконтрольоване прагнення збільшити обсяг даних, що збирають, спокушає до практик, за яких за життям людини встановлюється постійне спостереження.

Сучасна система взаємодії людини з мережею інтернет дозволяє збирати дані відвідувань вебсайтів користувачем, а технології так званого інтернету речей (ІоТ) дають можливість аналізувати інформацію про людину у місцях, які раніше залишалася поза зоною доступу до мережі інтернет. Наприклад, дані користування побутовими пристроями, як дані користування холодильником, кавовою машиною, або навіть дзеркалом.

Подібну практику можна спостерігати і в публічному секторі. Системи, які сьогодні забезпечують порядок і запобігають вчиненню правопорушень у публічних місцях, передбачають розміщення великої кількості засобів спостереження, зокрема і через камери відеоспостереження або відслідковування місцеперебування особи.

Усе більшої популярності набувають технології автоматизованого передбачення вчинення правопорушень людиною та розпізнавання через камеру відеоспостереження обличчя підозрюваного, який перебуває у публічному місці.

Збирання й оброблення персональних даних для створення, роботи або оптимізації алгоритмів штучного інтелекту, з одного боку, та подальше використання таких алгоритмів для прийняття рішення щодо людини, з іншого боку, спричиняє ризики. Відсутність контролю за алгоритмами може призвести до порушення прав, свобод та інтересів людини і, як наслідок, вимог відповідного законодавства України.

Для цілей цієї статті, під терміном "ризик" розуміють гіпотетичний сценарій настання події, що призведе до порушення права людини на приватність та/або на захист персональних даних. Ризики, у свою чергу, спричиняються певними внутрішніми або зовнішніми факторами (загрозами), які дозволять небажаній події статися.

Особливо ризиковим для людини вбачається використання автоматизованого прийняття рішень, яке має юридичні або подібні наслідки для людини. Як зазначено у керівних принципах Європейського наглядового органу WP29 відносно профілювання від 2017 р., до цієї сфери належать як юридично значимі рішення - винесення судового рішення, передбачення вірогідності вчинення людиною проступку тощо - так і рішення, які мають значний соціальний або економічний ефект [3, с. 21].

Прикладами останнього можуть слугувати автоматизоване прийняття рішень щодо працевлаштування кандидата на посаду, видачі кредиту або навіть персоналізована реклама товарів і послуг, яка впливає на визначення ціни запропонованих товарів або послуг.

За характером операцій з оброблення персональних даних можна виокремити два види ризиків:

Ризики, пов'язані з використанням персональних даних для розроблення (тренування) алгоритмів штучного інтелекту. Цей вид ризиків найчастіше характеризується вторинним характером оброблення персональних даних. Організація спочатку зібрала персональні дані для задоволення таких цілей, як надання послуг або проведення аналізу поведінки певної групи людей, після чого використовує зібрану інформацію для процесу генерування комп'ютерних алгоритмів через пошук закономірностей і спільних ознак у наборі даних (технологія так званого машинного навчання). Для цього етапу характерні такі ризики:

• непоінформованість людини про намір використання її персональних даних для машинного навчання. Позбавлення людини інформації про використання її даних призводить до неможливості здійснювати контроль над обробленням;

• позбавлення вибору (згоди) людини щодо того, чи можна використовувати її персональні дані для машинного навчання. Як наслідок, людина втрачає можливість вибору та контролю над власними персональними даними;

• ризик порушення захисту даних та їхнього подальшого витоку у зв'язку з незабезпеченням безпеки процесу машинного навчання [4, с. 5]. У цьому розрізі на особливу увагу заслуговує невжиття додаткових організаційно-технічних заходів, як попереднє знеособлення даних, що може призвести до порушення конфіденційності та викриття особистості людини;

• упереджені (biased), статистично неправильні та помилкові висновки алгоритмів. Остання проблематика є особливо актуальною, оскільки відомості, на основі яких тренується алгоритм штучного інтелекту (наприклад, судові рішення), можуть носити дискримінаційний або нерепрезентативний характер. Як наслідок порушення методології проведення машинного навчання, штучний інтелект сприймає такі відомості за модель правильної поведінки, що призводить до ризику автоматизації порушення прав, свобод та інтересів людини.

Ризики, пов'язані з використанням алгоритмів штучного інтелекту для генерування певних висновків або прийняття рішення щодо конкретної людини. На цьому етапі організація аналізує "ввідні" персональні дані про людину (input data) за допомогою вже натренованої моделі штучного інтелекту для того, щоб отримати певні висновки або прогнози поведінки такої людини та, у певних випадках, прийняти рішення щодо неї (output data). Як приклад, сьогодні на основі ввідних даних про перегляди вебсторінок та інші дії людини в мережі інтернет алгоритм оцінює, яку саме рекламу показати та яку ціну сформувати під конкретного глядача такої реклами. Для другого виду характерні такі ризики:

• нездатність пояснити, чому саме було прийнято рішення щодо людини, що не дає можливості зробити висновки про законність рішення. Це може призвести до зміни поведінки людини у разі взаємодії зі штучним інтелектом, зниження довіри до алгоритмів, а також підвищення ризику зловживань зі сторони володільця персональних даних;

• порушення прав або економічних інтересів людини внаслідок помилкового рішення та нездатність отримати перегляд такого рішення.

У розрізі захисту права людини на повагу до приватного життя та права на захист персональних даних ключовий набір правил для оброблення встановлюється Законом України "Про захист персональних даних" [5] (далі - ЗУ).

Розглянемо детальніше, до порушення яких вимог законодавства України може призвести оброблення персональних даних із використанням технологій штучного інтелекту:

Неправомірне вторинне використання персональних даних без відома та згоди людини для машинного навчання порушує вимоги щодо чітко встановленої мети оброблення персональних даних (ч. 1 ст. 6 ЗУ), а також наявності необхідних правових підстав для цього (ст. 11 ЗУ).

Вказана проблема, зокрема, була актуалізована раніше вченим C. М. Брайчевським в огляді оброблення персональних даних із використанням технологій штучного інтелекту та інтернету речей. Як зазначає дослідник, для створення детального профілю людини можуть застосовуватися вже існуючі набори персональних даних, про використання яких людина може не мати уявлення. Такі дані можуть бути пізніше використані у неправомірних цілях володільцем персональних даних або третіми особами [25].

Нездатність пояснити логіку роботи алгоритмів призводить до порушення принципу прозорості оброблення персональних даних (ч. 1 ст. 6 ЗУ), а також принципу точності та достовірності персональних даних, отриманих унаслідок такого оброблення (ч. 2 ст. 6 ЗУ). Одним із найбільших ризиків аналізу великих даних та автоматизованого прийняття рішень є втрата контролю над сприйняттям алгоритмами людей і передбачуваність чи інтуїтивний зв'язок між діями та сприйняттям інших [6, с. 97]. Ця проблема проявляється у кількох аспектах:

• неточність ввідних даних людини або побудованого алгоритму може призвести до помилкових висновків і негативних наслідків для людини. Як приклад, у кінці 2020 р. людина у Сполучених Штатах Америки помилково отримала 10 діб ув'язнення внаслідок, як зазначає її адвокат, використання технології для автоматизованого пошуку та розпізнавання правопорушників через камери відеоспостереження [7];

• відсутність належного контролю процесу машинного навчання може також призвести до того, що алгоритм перейняв упередженість людини, на рішеннях якої здійснювалось машинне навчання (algorithmic bias / discrimination);

• у випадку, коли людина не розуміє логіки прийняття рішень/висновків, це може призвести до зміни поведінки людини та стримування у прийнятті рішень. Унаслідок некоректно обраного методу натреновані нейронні мережі можуть мати проблему 'black box', яка означає, що організація-оператор мережі нездатна пояснити, яким чином алгоритм приймає рішення.

Нерозуміння механізму та наслідків взаємодії з алгоритмами може призводити до зміни лінії поведінки людини та самоцензури. [8, с. 14] Особливо актуальною проблема непрозорості алгоритмів є для сфер із підвищеним публічним інтересом - наприклад, судова система, де обґрунтування рішення має бути прозорим і відповідати високим стандартам.

Неправомірне використання систем штучного інтелекту порушує вимоги щодо наявності законної підстави для оброблення персональних даних (ст. 7, 8 та 11 ЗУ). До цієї групи ризиків належать:

• неправомірне отримання та розголошення даних, оброблення яких становить особливий ризик для прав, свобод та інтересів людини (ст. 8). Наприклад, визначення стану здоров'я людини через запис її голосу побутовим IoT-приладом голосової допомоги [9];

• таргетована цензура інформації, що отримує людина в медіа, та створення ефекту інформаційної бульбашки. Такі алгоритмічні обмеження здійснюються часто без відома та згоди людини, що порушує не тільки право на захист персональних даних (ст. 11 ЗУ), але і право на доступ до інформації людини, призводить до дискримінації у доступі до товарів і послуг [10, с. 6] тощо.

Недостатній рівень інформаційної безпеки систем із використанням технологій штучного інтелекту порушує вимоги щодо забезпечення захисту персональних даних (ст. 24 ЗУ). Дослідження безпеки алгоритмів машинного навчання показують, що використання такої технології несе як загальні безпекові ризики, характерні для всіх інформаційних систем, так і створює нові. Зокрема, певні види атак (Membership inference, Model inversion attack [4, с. 8]) дозволяють отримати доступ до персональних даних, які використовувалися для машинного навчання, маючи попередньо доступ до певного обсягу інформації про людину.

Варто згадати, що питанню дотримання вимог законодавства із захисту персональних даних було приділено увагу на рівні української правової доктрини. Зокрема, канд. юрид. наук. Т. Г. Каткова у статті "Штучний інтелект в Україні: правові аспекти" наголошує на дотриманні таких аспектів захисту персональних даних, як забезпечення конфіденційності даних, отримання згоди від людини, а також безпека персональних даних [26].

Утім, авторкою не було чітко розмежовано, про що саме йдеться у понятті конфіденційність даних. Це поняття пізніше за текстом ототожнюється із "забезпеченням захисту персональних даних". Із цього приводу доцільно зазначити, що конфіденційність і захист персональних даних або приватності не тотожні між собою: конфіденційність є лише одним з аспектів забезпечення приватності та полягає у нерозголошенні персональних даних у такий спосіб, який не був дозволений людиною або порушує вимогу законодавства.

Неприпустимою також вбачається пропозиція вченої щодо регуляторного вибору між "інформованою" та "диференційованою" згодою на оброблення персональних даних при написанні стратегії регулювання підстав для оброблення персональних даних за допомогою технологій штучного інтелекту [26]. На нашу думку, згода на оброблення персональних даних може бути законною лише у тому випадку, якщо вона відповідає обом стандартам, а також є вільно наданою та недвозначною. Підтримку подібної позиції можна віднайти в законодавстві із захисту персональних даних Європейського Союзу, яке встановлює вимоги до згоди як підстави для оброблення персональних даних (ст. 7 Регламенту 2016/680) [13].

Необхідність забезпечення балансу інтересів

Як підсумок описаної вище проблематики, подальше розроблення та імплементація технологій штучного інтелекту для оброблення персональних даних надає і безспірні переваги, і спричиняє виникнення значних ризиків для прав, свобод та інтересів людини.

У подібних ситуаціях розвиток сфери має супроводжуватися дотриманням балансу інтересів та послідовним управлінням ризиками. Як приклад, Європейська комісія у стратегії щодо штучного інтелекту [11, с. 1] визначає дві ключові цілі Союзу:

1. Підтримка та подальше заохочення розробок і розвитку технології штучного інтелекту. Сфера розробки технологій штучного інтелекту є висококонкурентною - одними з найсильніших гравців у цій сфері є Сполучені Штати Америки та Китайська народна республіка. Європейський Союз ставить за ціль мати змогу конкурувати з лідерами у сфері розробки штучного інтелекту;

2. Дотримання основоположних прав людини та цінностей Європейського Союзу. Для розуміння того, про які саме цінності йдеться варто звернутися до Хартії ЄС про основоположні права (ст. 7 та 8) [12] та пов'язані з нею інші акти ЄС - наприклад, Загальний регламент про захист даних ЄС 2016/680 [13]. У першу чергу, мова йде про недискримінацію людини, повагу до права на приватність, захист персональних даних, гідність тощо.

Складові комплексної регуляторної системи

З огляду на складність систем із використанням штучного інтелекту та наявність великої кількості ролей, задіяних у їхньому функціонуванні, адресувати всі названі ризики лише одним інструментом не вбачається можливим.

О.А. Заярний пропонує таку класифікацію напрямів удосконалення способів захисту інформаційних прав: юридичний напрям та етичний (морально-психологічний) напрям [14, с. 96]. Учений зазначає, що кожен із напрямів має проявлятися як у нормативному і правозастосовному розширенні існуючої в нормах законодавства України системи способів захисту, так і в закріпленні нових способів впливу на порушників, безпосередньо пов'язаних зі сферою застосування технологій штучного інтелекту. У розрізі теми цієї статті цікавими, у першу чергу, є правові й етичні стандарти захисту права на повагу до приватного життя та права на захист персональних даних.

Дійсно, мінімізація ризиків, викликаних використанням штучного інтелекту, можлива лише за умови системного підходу до проблематики. Як приклад, наглядовий орган із захисту інформації Великої Британії вважає, що крім вимог і керівних принципів, яким має відповідати штучний інтелект, доцільно розробляти комплексні регуляторні системи (frameworks) з аудиту систем зі штучним інтелектом, які допоможуть знайти та забезпечити необхідний баланс між інтересами сторін відносин [15].

Розглянемо деякі з прикладів складових регуляторної системи, які покликані допомогти знайти необхідний баланс між економічної вигодою та захистом права на повагу до приватного життя у процесі обробляння персональних даних із використанням штучного інтелекту.

Міжнародні правові й етичні принципи та стандарти, яким має відповідати оброблення персональних даних із використанням штучного інтелекту. Цінність цього інструменту полягає в першу чергу, у можливості створити між країнами спільний підхід до регулювання, який позитивно сприятиме інтеграційним процесам і глобалізації економіки. Як приклади можна навести Азіломарські принципи штучного інтелекту [16], які визначають керівні засади та цілі, у яких мають проводитися подальші дослідження у сфері штучного інтелекту. Серед основних таких принципів закріплені повага до приватного життя, захист персональних даних і забезпечення контролю людини за рішеннями штучного інтелекту.

Закріплення захисту персональних даних і захисту права на приватність як складової політики держави у сфері штучного інтелекту. Подібні заходи дозволяють ієрархічно зробити акцент на захисті персональних даних, що пізніше відобразиться у кроках, спрямованих на реалізацію політики. У цьому розрізі варто звернути увагу на Розпорядження Кабінету Міністрів України від 2 грудня 2020 р. № 1556-р "Про схвалення Концепції розвитку штучного інтелекту в Україні". Недостатній рівень захисту персональних даних визнається в постанові як одна з першочергових проблем, а тому належний захист персональних даних закріплюється одним із принципів розвитку та використання технологій штучного інтелекту [17].

Спеціальні законодавчі норми. З огляду на високий рівень ризиковості використання штучного інтелекту у випадку взаємодії з людиною, доцільним вбачається закріплення спеціальних правил, що заповнюють прогалини в законодавстві із захисту персональних даних. Такими спеціальними правилами можуть бути:

1) норми, що стосуються певного сектора оброблення персональних даних (наприклад, правоохоронна діяльність [18]);

2) норми, що деталізують існуючі права та свободи людини. Зокрема, вбачається необхідність у доповненні права людини бути поінформованою щодо того, яким чином приймає рішення система з використанням штучного інтелекту [13, ст. 13]. Деякі з країн, зокрема Словенія, деталізує також і підхід до оцінювання ризиків у разі використання штучного інтелекту, вимагаючи додаткового проведення "оцінки впливу алгоритмів" (algorithmic impact assessment) на оброблення персональних даних [19, с. 7];

3) норми, що закріплюють специфічні права, пов'язані із застосуванням технології штучного інтелекту. 2016 р. Європейський Союз значно деталізував права людини, пов'язані з автоматизованим прийняттям рішень, що мають юридичні або подібні наслідки. Було закріплено значне обмеження сфер застосування таких рішень, а також право на втручання людини у процес прийняття рішення й оспорювати рішення, прийняте повністю автоматизовано [12, ст. 22]. У той же час, як зазначає український вчений І. М. Городиський, Європейський Парламент наполягає на необхідності додаткового врегулювання окремих аспектів захисту персональних даних у цій сфері [27]. Як приклад, наводиться питання використання камер і сенсорів у робототехніці. На сьогодні в Європі також триває наукова дискусія щодо закріплення нового права людини на обґрунтовані висновки, зроблені штучним інтелектом [6, с. 81].

Варто зазначити, що ЗУ "Про захист персональних даних" (п. 13 ч. 2 ст. 8) також закріплює право людини "на захист від автоматизованого рішення, яке має для неї правові наслідки". Об'єктом регулювання цієї статті є, у тому числі, прийняття автоматизованих рішень за допомогою алгоритмів штучного інтелекту. У той же час, ця норма потребує деталізації у таких аспектах: чи відноситься це право лише до повністю автоматизованих рішень, чи також таких, що приймаються із залученням людського фактора; а також, що розуміти під "правом на захист" та яким чином його можна реалізувати.

Роз'яснення, керівні принципи та публічні консультації наглядових органів. Більшість норм із захисту персональних даних розробляються "технологічнонейтральними", тобто такими, що не мають прив'язки до конкретної технології та застосовуються до широкого кола суспільних відносин. Це, у свою чергу, обумовлює високий ступінь абстрактності та загальності правил, що викликає необхідність у подальшому тлумаченні норм. Допомогти у цьому можуть роз'яснення компетентних органів (норми так званого м'якого права), спрямовані на деталізацію правил поведінки у конкретних сценаріях з оброблення. За приклад можна поставити роз'яснення щодо захисту персональних даних у штучному інтелекті одразу двох країн: США [20] і Великої Британії [21].

Розроблення сертифікацій, кодексів поведінки та стандартизації у сфері штучного інтелекту. Розроблення стандартів і найкращих практик дозволяє, з одного боку, виробити уніфіковану модель поведінки, якої можуть дотримуватися учасники ринку для правомірного використання технології. З іншого боку, прийнявши зобов'язання дотримуватися певного стандарту, організація може тим самим продемонструвати відповідність вимогам і належний рівень захисту персональних даних перед іншими сторонами. Як приклад стандартизації у публічній площині можна навести кодекс належної поведінки Національної системи охорони здоров'я, який застосовується до використання штучного інтелекту у процесі взаємодії з пацієнтами [22]. Іншим прикладом можуть послугувати такі ініціативи представників індустрії, як "Open Ethics", ціллю яких є стандартизація форми надання повідомлення про оброблення персональних даних із використанням технологій штучного інтелекту [23].

Створення регуляторних "пісочниць" (sandboxes). У межах цієї ініціативи компетентний регуляторний орган запрошує до співпраці проєкти з використанням штучного інтелекту, які отримують фінансову, правову й організаційну допомогу від експертів і наглядових органів у сфері захисту персональних даних. На окрему увагу у цьому розрізі заслуговують ініціативи Норвезького наглядового органу із захисту персональних даних, який створив спеціальну "пісочницю" під проєкти, які розробляють технології штучного інтелекту. Метою цієї ініціативи є сприяння розробленню інноваційних рішень зі штучного інтелекту, які з погляду захисту даних є етичними та відповідальними [24].

Висновки

Аналіз поточної ситуації з використання технологій штучного інтелекту для оброблення персональних даних дозволяє дійти кількох висновків.

Використання алгоритмів штучного інтелекту у процесі взаємодії з людиною дає беззаперечні переваги й соціальну вигоду, дозволяючи підвищити ефективність прийняття рішень і знизити ризик помилки з огляду на людський фактор. Переваги використання штучного інтелекту є актуальними як для публічного, так і для приватного сектора з огляду на універсальність алгоритмізації та здатності точного налаштування рішень на основі попередніх даних про логіку прийняття рішень у тому чи іншому секторі.

Водночас нерегульоване використання технології спричиняє значні ризики порушення прав, свобод та інтересів людини, зокрема і право на повагу до приватного життя та право на захист персональних даних. Основними аспектами ризиків є незаконне використання зібраних персональних даних для машинного навчання, непрозорість і втрата контролю над логікою прийняття рішень і використанням алгоритмів, а також ризики порушення безпеки персональних даних.

Для мінімізації ризиків і забезпечення балансу між приватним і публічним інтересами, пов'язаними з використанням технології, необхідно знайти комплексний підхід, який передбачає залучення всіх зацікавлених сторін. Для забезпечення такого балансу необхідно використовувати і загальнообов'язкові правила поведінки, і норми м'якого права, стандартизацію, закріплення принципів, на яких має будуватися штучний інтелект на міжнародному та найвищому національних рівнях, і створення сприятливого регуляторного середовища, як регуляторні "sandboxes".

Список використаних джерел

1. STAMFORD, Conn.: Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form // Gartner. January 21, 2019. URL: https://www.gartner.com/en/newsroom/press-releases/2019-0121-gartner-survey-shows-37-percent-of-organizations-have (дата звернення: 20.02.2021).

2. Copeland, B.J.. "Artificial intelligence". Encyclopedia Britannica, URL: https://www.britannica.com/technology/artificial-intelligence. Accessed 29 March 2021.

3. Working Party 29: Guidelines on Automated individual decisionmaking and Profiling for the purposes of Regulation 2016/679 (wp251rev.01). October 3, 2017. URL: https://ec.europa.eu/newsroom/ article29/item-detail.cfm?item_id=612053 (дата звернення: 01.03.2021).

4. Veale Michael, Binns Reuben and Edwards Lilian: Algorithms that remember: model inversion attacks and data protection law. 2018. Phil. Trans. R. Soc. A.3762018008320180083. URL: http://doi.org/10.1098/ rsta.2018.0083 (дата звернення: 01.03.2021).

5. Про захист персональних даних: Закон України від 1 червня 2010 року № 2297-VI. URL: https://zakon.rada.gov.ua/laws/main/2297-17 (дата звернення: 04.03.2021).

6. Wachter, Sandra and Mittelstadt, Brent, A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI (October 5, 2018). Columbia Business Law Review, 2019(2). URL: https://ssrn.com/abstract=3248829 (дата звернення: 04.03.2021).


Подобные документы

  • Поняття штучного інтелекту, його порівняння з природним. Коротка характеристика особливостей використання штучного інтелекту в медицині, військовій справі та комп'ютерних іграх. Проблема взаємодії носіїв універсального штучного інтелекту та суспільства.

    контрольная работа [29,6 K], добавлен 07.01.2014

  • Побудова інформаційної системи, що буде слугувати для автоматизації процесу захисту персональних даних клієнтів банку. Вибір методу проектування архітектури та моделі функціонування системи. Перелік масивів, використовуваних під час розв’язання задачі.

    дипломная работа [1,8 M], добавлен 02.06.2017

  • Логічний, структурний, еволюційний та імітаційний підходи до побудови системи штучного інтелекту. Використання формально-логічних структур, що обумовлено їх алгоритмічним характером. Методи реалізації системи штучного інтелекту, інтелектуальні програми.

    реферат [34,5 K], добавлен 14.04.2014

  • Інтуїтивне розуміння поняття "інтелект". Основні проблемні середовища штучного інтелекту. Проблема неточних і неповних знань. Тест Тьюринга і фатичний діалог. Метод комп’ютерної реалізації фатичного діалогу. Принцип віртуальної семантичної сітки.

    курсовая работа [560,0 K], добавлен 27.12.2007

  • Використання засобів обчислювальної техніки в автоматичних або автоматизованих інформаційних системах. Сутність централізованих систем управління файлами. Історія виникнення персональних комп'ютерів. Перспективи розвитку систем управління базами даних.

    реферат [26,8 K], добавлен 23.10.2009

  • Комбінація методів ринкового регулювання, заснованих на зворотних зв'язках. Аналіз методологій розробки програмного забезпечення. Порівняльний аналіз програмних технологій. Вибір технології доступу до даних. Компонент взаємодії адмінчастини з базою даних.

    дипломная работа [3,0 M], добавлен 02.02.2013

  • Поняття та властивості інформаційних технологій. Поява персональних комп’ютерів - принципова модернізація ідеї автоматизованого управління. Технічна база і компоненти інформаційних технологій. Завдання сучасних інформаційних технологій, їх класифікація.

    реферат [39,1 K], добавлен 16.08.2010

  • Cтвopення веб-дoдатку для визначення pівня інтелекту людини (кoефіцієнта інтелекту) на мові пpoгpамування PHP з викopиcтанням JаvаScrіpt та cиcтеми кеpування базами даних MySQL. Функціoнальні частини програми: клієнтcька чаcтина і заcoби адміністрування.

    дипломная работа [614,8 K], добавлен 08.10.2010

  • Створення вжитків зі сторони сервера баз даних. Оголошення обмежень цілісності в таблиці визначень або з використанням механізму тригерів баз даних. Описання мови команд SQL*Plus як інтерактивної системи, невід'ємної для бази даних Oracle і вжитків.

    реферат [17,3 K], добавлен 09.08.2011

  • Оцифровування карти за допомогою програмного продукту ArcGis. Порівняння методів інтерполяції за допомогою програмних продуктів Surfer та ArcGis. Згладжування отриманих сіткових даних за допомогою сплайнів і фільтрації. Застосування сіткових чисел.

    курсовая работа [2,1 M], добавлен 31.01.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.