Правове регулювання технологій штучного інтелекту: теоретико-прикладні та етичні засади

Вивчення економічних, правових, політичних і соціальних аспектів застосування технологій штучного інтелекту. Форми регулювання, що сприяють прозорості та дотримання етичних принципів, правових парадигм та освітніх дій, особливо щодо новітніх технологій.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 17.08.2022
Размер файла 30,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

ПРАВОВЕ РЕГУЛЮВАННЯ ТЕХНОЛОГІЙ ШТУЧНОГО ІНТЕЛЕКТУ: ТЕОРЕТИКО-ПРИКЛАДНІ ТА ЕТИЧНІ ЗАСАДИ

Онищук Ігор Ігорович,

доктор юридичних наук, доцент,

завідувач кафедри теорії та історії держави і права Університету Короля Данила, академік (дійсний член) Міжнародної академії інформатизації

Анотація

Мета статті полягає в здійсненні аналізу правового регулювання суспільних відносин, що виникають у зв'язку з розвитком технологій штучного інтелекту.

Наукова новизна. У статті висвітлюються теоретико-правові та етичні засади правового регулювання технологій штучного інтелекту. Поставлені питання правового погляду на штучний інтелект, зокрема його співвідношення з правами людини та правом інтелектуальної власності.

Висновки. Технології штучного інтелекту дуже швидко розвиваються, єдині підходи до оцінки ризиків, пов'язаних з їх використанням, відсутні. Необхідно сформувати міждисциплінарний підхід до вивчення економічних, правових, політичних і соціальних аспектів застосування технологій штучного інтелекту.

Питання, пов'язані з появою штучного інтелекту, мають не стільки правовий, скільки філософський характер: як сконструювати цей інтелект таким чином, щоб жодна група людей не зуміла отримати з його допомогою переваги над іншими людьми, і щоб штучний інтелект не спрямував свою силу проти людства, а навпаки - використовувався на його благо.

На даному етапі правове регулювання в сфері використання технологій і юнітів штучного інтелекту знаходиться на стадії становлення та початкового розвитку. Ще зарано говорити про досягнення в практичній реалізації конкретних комплексних заходів, спрямованих на забезпечення поваги прав людини. Зараз подібного роду заходи приймаються, в основному, в сфері захисту конфіденційності особистих даних.

Необхідно заохочувати нові форми регулювання, щоб сприяти прозорості та дотриманню етичних принципів, правових парадигм та освітніх дій, особливо щодо новітніх технологій, які потенційно можуть порушувати права людини.

Ключові слова: штучний інтелект, правове регулювання, права людини, етика, свобода й недоторканність приватного життя, захист персональних даних.

Abstract

Onyshchuk Ihor I., Doctor of Legal Sciences, Associate Professor, Head of the Department of Theory and History of State and Law , King Danylo University, Academician of the International Informatization Academy

LEGAL REGULATION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES: THEORETICAL, PRACTICAL AND ETHICAL BASIS

The purpose of the article is to analyze the legal regulation of social relations arising in connection with the development of artificial intelligence technologies.

Scientific novelty. The article highlights the theoretical, legal and ethical principles of legal regulation of artificial intelligence technologies. The issues of the legal view of artificial intelligence, in particular its relationship with human rights and intellectual property rights, are raised.

Conclusions. Artificial intelligence technologies are evolving very rapidly, and there are no common approaches to assessing the risks associated with their use. It is necessary to form an interdisciplinary approach to the study of economic, legal, political and social aspects of the application of artificial intelligence technologies.

Issues related to the emergence of artificial intelligence are not so much legal as philosophical: how to construct this intelligence so that no group of people can gain an advantage over other people, and that artificial intelligence does not direct its power against humanity, and vice versa - was used for its benefit.

At this stage, legal regulation in the field of technology and units of artificial intelligence is at the stage of formation and initial development. It is too early to talk about the achievements in the practical implementation of specific comprehensive measures aimed at ensuring respect for human rights. At present, such measures are taken mainly in the field of personal data protection.

New forms of regulation should be encouraged to promote transparency and adherence to ethical principles, legal paradigms and educational practices, especially with regard to new technologies that have the potential to violate human rights.

Key words: artificial intellect, legal regulation, human rights, ethics, freedom and privacy, protection of personal data.

Постановка проблеми

Сучасні комп'ютерно-програмні технології, нейротехнології, біотехнології, технології робототехніки продовжують інтенсивно розвиватися.

Однією з найбільш перспективних і, водночас, найбільш неоднозначною технологією є штучний інтелект комп'ютерних або кіберфізичнх систем із «людиноподібним інтелектом». Штучний інтелект ще називають «машинним інтелектом», «машинним розумом» або «розумною машиною». Цифрові технології зачіпають всі аспекти особистого й суспільного життя, впливаючи на наш спосіб сприйняття світу й себе самих, а також на прийняття рішень у сфері медицини, економіки та соціуму.

Існує точка зору, що штучний інтелект може призвести до нової «форми варварства», де закон найсильніших переважає над загальним благом. Аморальний технологічний прогрес може стати причиною занепаду соціуму. Варто акцентувати увагу на загрозах використання штучного інтелекту для поширення інформації та тенденційних помилкових даних, які можуть маніпулювати думками великої кількості людей.

Нові технології змінюють наше повсякденне буття і ставлять етичні питання, яких раніше не існувало. Зміни в житті людей, які приносить штучний інтелект, важко порівняти з тим, що з'являлося раніше. Людство може позбутися більшості відомих професій, також існує можливість створення нової форми життя.

Аналіз останніх досліджень і публікацій

Питання теорії та практики захисту прав людини в умовах застосування технологій штучного інтелекту висвітлювалися у публікаціях М. Бурова [10], Е. Войникані- са [11], С.Вочтера [13], П.Красномовця [4], Б.Міттульстадта [13], П.Морхата [6], Е.Семенова [11], М. Таддео [13], Г. Тюляєва [11] та ін. Питання співвідношення прав людини та штучного інтелекту актуалізував Папа Франциск, ініціювавши проведення 29 лютого 2020 року у Ватикані форуму на тему гуманності новітніх технологій.

28 лютого 2020 року на конференції «Добрий алгоритм. Штучний інтелект: етика, закон, здоров'я», організованій Папською академією життя, представили «Римський етичний заклик» («Rome Call for AI Ethic»), в якому задекларовано етичні принципи для використання штучного інтелекту. Один із етичних закликів - нейромережі повинні поважати недоторканність приватного життя, працювати надійно, прозоро і без упереджень, передусім з огляду на права людини.

Недостатньо дослідженими на сьогодні залишаються питання правового погляду на штучний інтелект, зокрема його співвідношення з правами людини та правом інтелектуальної власності. Відбувається чимало дискусій з даного приводу, втім однозначних відповідей ні в доктринальних джерелах, ні в законодавстві ще немає.

Мета статті полягає в здійсненні аналізу правового регулювання суспільних відносин, що виникають у зв'язку з розвитком технологій штучного інтелекту.

Виклад основного матеріалу дослідження

На сьогодні відбувається багато дискусій на тему правосуб'єктності системи штучного інтелекту. Одні вважають, що машини зі штучним інтелектом треба наділити правосуб'єктністю нарівні з фізичними особами. Інші стверджують, що таким машинам слід надавати статус, подібний до юридичних осіб. На даному етапі не існує юрисдикцій, які б визнавали систему штучного інтелекту суб'єктом права.

Існує небезпека використання штучного інтелекту для отримання даних в комерційних або політичних цілях, найчастіше без відома окремих осіб. При розробці передових технологічних рішень необхідно керуватися моральними принципами. В іншому випадку технології штучного інтелекту можуть призвести до поширення тенденційних думок і неправдивої інформації, що врешті унеможливить суспільні дебати і дозволить маніпулювати думками мільйонів людей. Така нерівність, - коли хтось знає про нас ледь не все, а ми про них не знаємо нічого, - унеможливлює критичне мислення і гальмує свідоме здійснення свободи. Непомірно посилюється нерівність, а знання і багатства накопичуються в декількох руках, що може призвести до серйозних ризиків для демократичного суспільства [1].

Технологічні гіганти, на кшталт Alphabet (Google), Amazon, Facebook, IBM і Microsoft, а також такі особистості як Стівен Хокінг та Ілон Маск вірять, що зараз відповідний час для обговорення майже безмежного ландшафту штучного інтелекту. У багатьох випадках, це такий же новий рубіж для етики та оцінки ризиків, як і для нових технологій [2].

28 лютого 2020 року у Ватикані відбувся форум на тему «Гуманоцентричний штучний інтелект», організований Папською Академією «За життя» на завершення семінару, присвяченого питанням штучного інтелекту з точки зору етики, права та охорони здоров'я. У форумі взяли участь Голова Європейського парламенту Давід Сассолі, Генеральний Директор ФАО Чю Донью, а також фахівці сфери інформаційних технологій. У зачитаній Папській промові відзначалося, що штучний інтелект перебуває в центрі епохальних перемін, які тепер переживає людство [3].

IBM і Microsoft відмовилися від деяких проектів після того, як їм стали відомі цілі, для яких клієнти хотіли використовувати технологію штучного інтелекту. Ці компанії стануть першими, хто підтримає етичний кодекс. Які інші компанії підпишуться під «Rome Call for AI Ethic», і як будуть реалізовані ці принципи, наразі невідомо.

Використовуючи штучний інтелект, компанії можуть значно скоротити залежність від людської робочої сили, а значить, доходи отримуватиме менша кількість людей. В результаті, особи, які володіють компаніями, де роботу виконує штучний інтелект, отримуватимуть весь прибуток.

Як тільки ми почнемо розглядати машини як сутності, які можуть сприймати, відчувати та діяти, нам потрібно буде задуматися над зміною їхнього юридичного статусу. Чи повинні ми ставитися до них як до тварин з порівняним інтелектом? Чи будемо ми брати до уваги страждання, які «відчуває» машина? [4].

Одними із релевантних джерел легальних дефініцій досліджуваного поняття «штучний інтелект» є зарубіжні законодавчі акти та офіційні документи, що представляють в загальному обсязі особливий інтерес для правознавця-дослідника. Багато таких прикладів знайти сьогодні не вдається.

Так, згідно з пунктом 2 ст. 2 Базового закону Японії від 14.12.2016 № 103 «Про поліпшення використання даних публічного та приватного секторів» термін «технологія, пов'язана зі штучним інтелектом» означає технологію для реалізації таких інтелектуальних функцій, як навчання, умовивід і судження, що втілюються за допомогою штучних засобів і використання відповідних функцій, які реалізуються за допомогою штучних засобів [5; 6, с. 169].

У Канаді прийнято Монреальську декларацію про відповідальний розвиток штучного інтелекту, яка містить етичні вказівки щодо розвитку штучного інтелекту та є кульмінацією досліджень і консультацій з громадськістю, експертами й політиками. Наголошено на тому, що розвиток та використання систем штучного інтелекту повинні сприяти створенню справедливого суспільства, та не повинні сприяти зменшенню відповідальності людей за прийняття рішень [7].

Згідно з твердженням Комісії з цивільно-правового регулювання в сфері робототехніки Європейського Парламенту зараз людство знаходиться на порозі ери, коли все складнішими стають роботи, андроїди та інші прояви штучного інтелекту, які, схоже, готові розв'язати нову індустріальну революцію. Ризики, пов'язані з цими новими взаємодіями, мають бути вирішені в терміновому порядку. Необхідно забезпечити, щоб набір основних фундаментальних цінностей був переведений на кожен етап контактів між роботами, штучним інтелектом і людьми. У цьому процесі особливу увагу слід приділяти безпеці людини, недоторканності приватного життя, цілісності, гідності та автономності» [8].

Як зазначено в пп. 1, 2 Рекомендацій Парламентської Асамблеї Ради Європи №2102 (2017) від 28.04.2017 р. «Злиття з технологіями, штучний інтелект і права людини» зближення між нанотехнологіями, біотехнологіями, інформаційними технологіями та когнітивними науками, швидкості, з якими нові технології виходять на ринок - все це має суттєві наслідки не тільки для прав людини та способів їх здійснення, а й для фундаментальної концепції про те, що характеризує людину. Прониклива здатність нових технологій і їх додатків розмиває кордони між людиною і машиною, між інтерактивними й автономними діями, між фізичним і віртуальним світом, між природним і штучним, а також між реальністю і віртуальністю [9].

У Резолюції 2015/2103 (INL) Європейського парламенту від 16 лютого 2017 р. з рекомендаціями Європейської комісії щодо цивільно-правового регулювання робототехніки (далі - Резолюція 2015/2103 (INL)) наголошено на неможливості притягнення штучного інтелекту до відповідальності за дії, що спричинили шкоду третім сторонам. Так, відповідно до Резолюції 2015/2103 (INL) відповідальність за завдання шкоди може бути покладено на одного з так званих агентів (англійською - human agent), а саме: на виробника, оператора, власника або користувача штучного інтелекту. При цьому під час установлення обсягу відповідальності з боку «агента» одним із головних аспектів визначено факт доведення можливості передбачення негативних наслідків і запобігання їм.

Безперечно, Резолюція 2015/2103 (INL) не є загальнообов'язковим актом і має лише рекомендаційний характер. Водночас, зважаючи на обраний Україною євроінтеграційний курс, з великою ймовірністю можна розраховувати, що подальше вдосконалення національного законодавства щодо правового регулювання штучного інтелекту разом із процедурою визначення відповідальності за помилки, що призвели до негативних наслідків, ґрунтуватиметься саме на вже сформованих стандартах Європейського Союзу [8].

Потенціал розширення прав і можливостей за допомогою використання робототехніки пов'язаний із комплексом ризиків, і через це повинен бути серйозно оцінений з точки зору захищеності, здоров'я і безпеки людини, гарантованості та забезпеченості свободи й недоторканності приватного життя, сумлінності та гідності, самовизначення та недискримінації, а також захисту персональних даних [8].

Загальні перспективи реформування правового регулювання щодо використання штучного інтелекту та його відповідальності за діяння можна згуртувати навколо трьох основних положень: позиціювання роботів із штучним інтелектом лише як об'єкта суспільних відносин; позиціювання роботів із штучним інтелектом лише як окремих суб'єктів правовідносин. За такого підходу роботи зі штучним інтелектом сприймаються лише як окремі самостійні суб'єкти суспільних відносин із можливістю відносно самостійно та в достатньому обсязі усвідомлювати й оцінювати значення своїх дій і дій інших осіб; позиціювання роботів із штучним інтелектом як окремих суб'єктів правовідносин, так і можливих об'єктів суспільних відносин [10].

Слід звернутися до складного питання, пов'язаного з розвитком технологій і юнітів штучного інтелекту: наскільки далеко ми можемо і готові зайти в делегуванні повноважень щодо прийняття важливих рішень юнітам штучного інтелекту, не створюючи при цьому критичних загроз людству та середовищу нашого проживання, зокрема не ризикуючи зменшенням обсягу прав людини та посяганням на них [6, с. 169-170].

Сучасні дослідження ризиків застосування штучного інтелекту можуть бути класифіковані на такі види: галузеві дослідження, що показують можливості та ризики імплементації штучного інтелекту в наявні галузі права - при цьому наслідки використання штучного інтелекту оцінюються з позицій окремих правових інститутів (відповідальність, персональні дані, кібербезпека тощо); інструментальні дослідження, спрямовані на пошук оптимального технологічного, економічного і правового ландшафту для використання наявних технологій штучного інтелекту; комплексний підхід до розробки спеціалізованого «права роботів» з урахуванням вимог кібернетичної етики та наявних програмних правил, імплементовані в машинні алгоритми за замовчуванням [11, с. 138-139].

Ще однією проблемою, яка виникає на етапі навчання алгоритму, є питання про те, хто є правовласником програми штучного інтелекту. Річ у тім, що штучний інтелект, як уже було відзначено вище, навчається на великих масивах даних. У ході навчання відбувається налаштування параметрів алгоритму під навчальну вибірку (тобто під великий масив даних), і ці підібрані параметри і є результатом процесу навчання (ключовий компонент для успішної експлуатації штучного інтелекту). Тому виникає питання, чи є створений алгоритм штучного інтелекту похідним твором від бази даних, на якій він навчався. Відповідь на це питання не є очевидною, якщо алгоритм штучного інтелекту вважати похідним твором від бази даних, розробнику важливо отримувати ліцензію на базу даних, яка допускає створення похідних творів.

На етапі експлуатації правові ризики застосування штучного інтелекту проявляються в інших аспектах. Розглянемо дані ризики на прикладі таких правових інститутів, як відповідальність за делікти, картельні змови і право інтелектуальної власності. Заподіяння шкоди життю або здоров'ю в процесі експлуатації систем штучного інтелекту не є рідкістю. Тепер дискусії про відповідальність за делікти, засновані раніше на суто теоретичних прикладах, ґрунтуються на фактах. Так, в 2018р безпілотна машина Uber збила пішохода, який переходив вулицю по пішохідному переходу. Широко обговорюються як в доктрині, так і на рівні державних органів питання, хто є відповідальним за заподіяння шкоди життю або здоров'ю при експлуатації штучного інтелекту [12].

Якщо говорити про потенційні напрями розвитку правового регулювання в цій сфері, то відзначимо, що розвиток законодавства в галузі регулювання розробки та застосування технологій і юнітів штучного інтелекту в цілому має здійснюватися відповідно до основних принципів права, в тому числі - принципу захисту прав людини, а також з урахуванням нових проблем, які обумовлюються штучним інтелектом.

Удосконалення законодавства в зазначеній сфері має носити комплексний характер. Хоча використання технологій і юнітів штучного інтелекту може призводити до порушення прав людини вже сьогодні, як правило, вважається, що такі проблеми є лише в певних сферах діяльності. Такий підхід є некоректним, оскільки створює помилкове відчуття безпеки у взаємодії людини зі штучним інтелектом, і ця проблема є багаторівневою та глибокою, вимагаючи, відповідно, прийняття пропорційних заходів для її вирішення [6, с. 187].

Крім того, необхідно враховувати, що нові інтелектуальні технології повинні слугувати людині, а не навпаки [13, с. 21].

На рівні міжнародних організацій, як міжурядових, так і неурядових, приділяється належна увага удосконаленню правового регулювання в даній сфері. У пункті 8 Рекомендації Парламентської Асамблеї Ради Європи №2102 (2017) від 28.04.2017 «Злиття з технологіями, штучний інтелект і права людини» ПАРЄ закликає Комітет Міністрів доручити відповідним органам Ради Європи розглянути питання про те, як інтелектуальні предмети і в цілому злиття з технологіями і пов'язані з цим соціальні та морально етичні наслідки в сфері генетики та геноміки, неврології і великих даних кидають виклик різним аспектам прав людини [9].

На особистому рівні цифрова епоха спричиняє зміну сприйняття простору, часу й власного тіла: у людини, з одного боку, складається враження відсутності будь-яких меж, а з іншого - ототожнення з іншими. В цьому контексті дедалі важче визнавати й шанувати відмінності. А на соціально-економічному рівні, користувачів цифрових технологій часто зводять до «споживачів», підпорядкованих приватним інтересам небагатьох. Зі слідів, залишених користувачами в інтернеті, алгоритми вилучають дані, що дозволяють спостерігати за їхніми звичками, використовуючи їх, без їхнього відома, для комерційних чи політичних цілей. Така несправедливість є перешкодою для критичного мислення та свідомого використання свободи. З іншого боку, ці небезпеки не повинні закривати перед нами потенційні можливості, які пропонують нові технології. Вони є ресурсом, що може принести плоди добра.

Як зазначав Папа Франциск, важливим є сприяння створенню нової сфери етики нашого часу - так званої «алгоретики» (італ. algor-etica) - термін, який він вперше вжив у своїй промові до учасників міжнародної зустрічі на тему «Сприяти гідності дитини в цифровому просторі» в листопаді 2019 року. Вагомий внесок у цю сферу може зробити Соціальна доктрина Церкви, основними принципами якої є людська гідність, справедливість, субсидіарність й солідарність. «Алгоретика», за його словами, може стати мостом, аби ці принципи знайшли конкретне втілення в цифрових технологіях завдяки якісному міждисциплінарному діалогові [3].

Висновки

правовий технологія інтелект штучний

Технології штучного інтелекту дуже швидко розвиваються, єдині підходи до оцінки ризиків, пов'язаних з їх використанням, відсутні. Необхідно сформувати міждисциплінарний підхід до вивчення економічних, правових, політичних і соціальних аспектів застосування технологій штучного інтелекту.

Питання, пов'язані з появою штучного інтелекту, мають не стільки правовий, скільки філософський характер: як сконструювати цей інтелект таким чином, щоб жодна група людей не зуміла отримати з його допомогою переваги над іншими людьми, і щоб штучний інтелект не спрямував свою силу проти людства, а навпаки - використовувався на його благо.

На даному етапі правове регулювання в сфері використання технологій і юнітів штучного інтелекту знаходиться на стадії становлення та початкового розвитку. Ще зарано говорити про досягнення в практичній реалізації конкретних комплексних заходів, спрямованих на забезпечення поваги прав людини. Зараз подібного роду заходи приймаються, в основному, в сфері захисту конфіденційності особистих даних.

Необхідно заохочувати нові форми регулювання, щоб сприяти прозорості та дотриманню етичних принципів, правових парадигм та освітніх дій, особливо щодо новітніх технологій, які потенційно можуть порушувати права людини.

Список використаних джерел

1. Academy for life. Rome Call for AI Ethics Rome, February 28th, 2020. (Дата звернення: 10.03.2020).

2. Ватикан разом із технологічними компаніями Microsoft та IMB розробив звід етичних принципів для розвитку штучного інтелекту. (Дата звернення: 10.03.2020).

3. Папа Франциск: Дебати про людяність новітніх технологій 29 лютого 2020. (Дата звернення: 10.03.2020).

4. Красномовец П. Девять главных этических проблем искусственного интеллекта. (Дата звернення: 10.03.2020).

5. Prime Minister of Japan. Basic Act on the Advancement of Public and Private Sector Data Utilization. Act No. 103 of December 14, 2016. (Дата звернення: 10.03.2020).

6. МорхатП.М. Искусственный интеллект: правовой вигляд: Научная монография / РОО «Институт государственно-конфессиональных отношений и права». М. : Буки Веди, 2017. 257 с.

7. University of Montreal's Technosocial Innovation Centre The Montreal Declaration for a Responsible Development of Articial Intelligence. (2017). (Дата звернення: 10.03.2020).

8. The European Parliament. Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)), 27.01.2017. (Дата звернення: 10.03.2020).

9. Parliamentary Assembly. Technological convergence, artificial intelligence and human rights. Recommendation 2102. (2017). (Дата звернення: 10.03.2020).

10. БуровМ. Хто несе відповідальність за помилки штучного інтелекту? (Дата звернення: 10.03.2020).

11. ВойниканисЕ.А., СеменоваЕ.В., Тюляев Г. С. Искусственный интеллект и право: вызовы и возможности самообучающихся алгоритмов. Вестник ВГУ Серия: Право. 2018. № 4. С. 137-148.

12. European Commission. Workshop on liability in the area of autonomous systems and advanced robots and Internet of Things systems. 2017. (Дата звернення: 10.03.2020).

13. CathC., WachterS., MittelstadtB., Taddeo M., Floridi L. Artificial Intelligence and the «Good Society»: The US, EU, and UK Approach. P. 21. (Дата звернення: 10.03.2020).

References

1. Academy for life. (2020). Rome Call for AI Ethics Rome, February 28th, 2020. (Last accessed: 10.03.2020).

2. The Vatican, together with technology companies Microsoft and IMB, has developed a set of ethical principles for the development of artificial intelligence. (2020). (Last accessed: 10.03.2020) [in Ukrainian].

3. Pope Francis. (2020). Debate on the humanity of the latest technology. (Last accessed: 10.03.2020) [in Ukrainian].

4. Krasnomovets, P. Nine main ethical problems of artificial intelligence. (Last accessed: 10.03.2020) [in Russian].

5. Prime Minister of Japan. Basic Act on the Advancement of Public and Private Sector Data Utilization. Act No. 103 of December 14, 2016. (Last accessed: 10.03.2020).

6. Morchat,P. M. (2017). Artificial Intelligence: Legal View / Institute of State Confessional Relations and Law. Moscow: Buki Veda [in Russian].

7. University of Montreal's Technosocial Innovation Centre. (2017). The Montreal Declaration for a Responsible Development of Articial Intelligence. (Last accessed: 10.03.2020).

8. The European Parliament. Committee on Legal Affairs. (2017). Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)). (Last accessed: 10.03.2020).

9. Parliamentary Assembly. (2017). Technological convergence, artificial intelligence and human rights. Recommendation 2102. (Last accessed: 10.03.2020).

10. Burov,M. (2019). Who is responsible for artificial intelligence errors? (Last accessed: 10.03.2020) [in Ukrainian].

11. Voinikanis,E.A., Semenova,E.V. & Tyulyaev,G. S. (2018). Artificial intelligence and law: challenges and capabilities of self-learning algorithms. Bulletin of the Voronezh State University. Series: Law, 4, 137-148 [in Russian].

12. European Commission. (2017). Workshop on liability in the area of autonomous systems and advanced robots and Internet of Things systems. (Last accessed: 10.03.2020).

13. Cath,C., Wachter,S., Mittelstadt,B., Taddeo,M. & Floridi,L. (2017). Artificial Intelligence and the «Good Society»: The US, EU, and UK Approach, 24. (Last accessed: 10.03.2020).

Размещено на Allbest.ru


Подобные документы

  • Цивільне правове регулювання суспільних відносин. Сторони цивільно-правових відносин. Спори між учасниками цивільних відносин. Цивільне правове регулювання суспільних відносин відбувається не стихійно, а з допомогою певних способів та заходів.

    доклад [9,6 K], добавлен 15.11.2002

  • Аналіз господарсько-правового регулювання страхової діяльності. Аналіз судової практики, що витікає із страхової діяльності. Особливості господарської правоздатності і дієздатності, господарсько-правовий статус страховиків як суб’єктів правових відносин.

    курсовая работа [50,2 K], добавлен 30.06.2019

  • Вивчення природи правових застережень. Закономірності раціональної юридичної діяльності зі створення, тлумачення та реалізації права в Україні. Розгляд характерних особливостей природи правових застережень. Функція індивідуалізації регулювання права.

    статья [27,0 K], добавлен 11.09.2017

  • Сутність і функції правового регулювання економічних відносин, місце у ньому галузей права. Співвідношення державного регулювання і саморегулювання ринкових економічних відносин. Визначення економічного законодавства України та напрями його удосконалення.

    дипломная работа [183,2 K], добавлен 10.06.2011

  • Регулювання відносин у сфері діяльності транспорту як пріоритетний напрямок внутрішньої політики держави. Комплексне дослідження правових проблем державного регулювання транспортної системи. Пропозиції щодо вдосконалення транспортного законодавства.

    автореферат [70,1 K], добавлен 16.03.2012

  • Аналіз чинних актів соціального партнерства, що регулюють трудові правовідносини працівників прокуратури, та чинних нормативно-правових актів локального характеру. Досвід США і Канади у правовому регулюванні трудових відносин працівників прокуратури.

    статья [46,2 K], добавлен 05.10.2017

  • Розвиток правової роботи на підприємстві. Нормативно-правове регулювання реєстрації правових актів. Поняття і види доказів. Мета і форми правової допомоги підпорядкованим органам і підрозділам. Форми захисту прав і інтересів господарюючих суб’єктів.

    контрольная работа [29,4 K], добавлен 21.07.2011

  • Правове регулювання інформаційно-правових відносин щодо пошуку та рятування на морі. Особливості правоустановчих актів Міжнародної супутникової системи зв’язку на морі. Організаційно-правові засади ідентифікації суден в системі безпеки мореплавства.

    автореферат [36,3 K], добавлен 11.04.2009

  • Визначення поняття, вивчення принципів і характеристика правової основи здійснення спортивної діяльності. Дослідження механізму державного регулювання спортивної діяльності. Оцінка майнової бази і укладення договорів при здійсненні спортивної діяльності.

    курсовая работа [28,4 K], добавлен 13.06.2012

  • Характеристика та аналіз формування органів місцевої міліції в Україні. Зміст адміністративно-правових відносин та механізм регулювання органами місцевої міліції. Встановлення статусу керівника органу місцевої міліції, його роль в управлінні персоналом.

    автореферат [22,7 K], добавлен 11.04.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.