Актуальні питання правового регулювання автономних систем зброї зі штучним інтелектом

Сутність і значення штучного інтелекту та перспектив розвитку його регулювання у військовій сфері. Способи запровадження правового механізму розроблення та прийняття міжнародної угоди у сфері використання автономних систем зброї зі штучним інтелектом.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 08.03.2021
Размер файла 58,7 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Центр воєнно-стратегічних досліджень Національного університету оборони України імені Івана Черняховського

АКТУАЛЬНІ ПИТАННЯ ПРАВОВОГО РЕГУЛЮВАННЯ АВТОНОМНИХ СИСТЕМ ЗБРОЇ ЗІ ШТУЧНИМ ІНТЕЛЕКТОМ

Топольніцький В.В., кандидат юридичних наук,

підполковник юстиції, провідний науковий

співробітник науково-дослідного відділу

проблем військового законодавства

Анотація

Стаття присвячена окремим питанням правового регулювання автономних систем зброї із штучним інтелектом, визначено сутність і значення штучного інтелекту та перспективи розвитку його регулювання у військовій сфері.

Зазначено, що, незважаючи на відсутність єдиної дефініції терміну «штучного інтелекту» у світі, усвідомлюється збільшення ступеня його впливу на робототехніку та людське життя й необхідність установлення правил його створення та використання. У процесі аналізу використання штучного інтелекту зроблено висновки про необхідність визначення його класифікації за рівнями автономності у процесі створення систем зброї та розробки міжнародної угоди, яка врегулювала б усі пов'язані із цим питання. Надано визначення класифікації поняття «автономних систем зброї зі штучним інтелектом» за рівнем автономності через призму розмаїття дефініцій «штучного інтелекту» та порівнянь основних підходів перспектив розвитку його регулювання державами-членами ООН.

Доведено, що ототожнивши автономну систему зброї зі штучним інтелектом із новим видом зброї, під час розгляду справи в Міжнародному суді ООН не можливо буде доказати вину особи, яка при її вивченні, розробці, придбанні чи прийнятті на озброєння не змогла визначити, чи підпадатиме її застосування під заборони норм Додаткового протоколу І до Женевських конвенцій від 12 серпня 1949 року. Це стане ймовірним через здатність штучного інтелекту до самонавчання та вміння за певних обставин приймати самостійні рішення без втручання та контролю людини (розробника, командира, оператора) на ліквідацію сил і засобів противника (людини, бойової техніки, споруд та будівель).

У висновках також наголошено, що відсутність чітких правових норм у Женевських конвенціях про захист жертв війни від 12 серпня 1949 року щодо заборони розробки, виробництва та використання автономних систем зброї зі штучним інтелектом, яка здатна приймати рішення без втручання людини, передбачає розроблення міжнародної угоди в цій сфері. Запропоновано дієві способи запровадження правового механізму розроблення та прийняття зазначеної угоди у зв'язку із блокуванням цієї процедури окремими постійними державами-членами ООН.

Ключові слова: автономні системи зброї із штучним інтелектом, електронна особа, правове регулювання, робототехніка, штучний інтелект.

Annotation

правовий штучний інтелект зброя

ACTUAL ISSUES OF LEGAL REGULATION OF AUTONOMOUS SYSTEM OF WEAPONS WITH ARTIFICIAL INTELLIGENCE

The article focuses on some problematic issues of legal regulation of autonomous systems of weapons with artificial intelligence, defined the essence and importance of artificial intelligence, as well as the prospects of development of its regulation in the military area.

Indicated that, despite the lack of define of a single definition of the term “artificial intelligence” in the world, realized an increase of the degree of its impact on robotics labs and human life and the necessity to establish rules for its creation and use. In the analysis of the use of artificial intelligence, it was concluded that it is necessary to determine its classification by levels of autonomy in the creation of weapons systems and the development of an international agreement that would regulate all related issues. Provided a definition of the classification of the concept of "autonomous systems of weapons with artificial intelligence" according to the levels of autonomy, through the lens of a variety of indications of definitions of artificial intelligence and comparisons of the basic approaches of the prospects of its regulation by the member states of the UN.

Informed that by identifying a autonomous system of weapons with artificial intelligence with some new kind of weapon, it will not be possible to prove the guilt in the UN International Court of Justice in its study, development, acquisition or admission of weapons that could not determine or fall its using under bans Additional Protocol I to the Geneva Conventions of 12 August 1949, due to its ability of artificial intelligence to self-study and in certain circumstances to make an independent decision without human intervention (developer, commander, operator) to destroy enemy (man), combat (military) equipment and buildings and structures opponent.

It is also emphasized in the conclusions that the lack of clear legal provisions of the Geneva Conventions for the Protection of Victims of War of 12 August 1949 provides for the development and adoption of an international treaty banning the development, production and use of artificial intelligence weapons capable of deciding without human intervention. Effective ways of introducing a legal mechanism for drafting and adopting the said agreement are proposed, in connection with the blocking of this procedure by some permanent UN member states.

Key words: autonomous weapons systems with artificial intelligence, electronic person, legal regulation, robotics, labs artificial intelligence.

Постановка проблеми

Сьогодні людство опинилось в умовах надзвичайних перетворень в епоху масштабного проникнення в життя суспільства новітніх цифрових технологій, левову частку яких займатиме штучний інтелект, нанотехнології та робототехніка. Зазначені технології певною мірою варто віднести до інтелектуального інструментарію, за допомогою якого відбуватиметься значний вплив на світову економіку та суспільний уклад. Провідними вченими в основу розвитку новітніх технологій покладено штучний інтелект, який спричинив створення ринку та започаткував нову промислову революцію, в якій будуть задіяні майже всі країни світу.

Використання штучного інтелекту активно проводиться в багатьох важливих сферах діяльності людини, серед яких: транспортна індустрія, сучасна медицина із застосуванням передових технологій, сфера оборонних науково-дослідних розробок тощо.

Основні світові гравці - Сполучені Штати Америки, Китайська Народна Республіка (далі - Китай) - та інші країни вважають, що штучний інтелект здатний забезпечити технологічне, та, як наслідок, економічне, політичне й воєнне лідерство в цілому світі, або, принаймні, в окремих його регіонах [1].

Не стоїть осторонь зазначених перетворень, а також намагань заволодіти сегментом ринку в цій сфері, й розвиток світових технологій автономних систем зброї зі штучним інтелектом. На сьогодні у світі є 2 основних підходи до перспективи розвитку регулювання відносин у цій сфері. В основу першого покладено людину, яка буде відігравати ключову роль при використані автономних систем зброї зі збереженням контролю над їх дією, другий підхід надає їй повну автономію.

Водночас, міжнародна спільнота занепокоєна швидким науковим проривом у впровадженні в життєдіяльність людини та суспільства штучного інтелекту. У цьому вбачається не тільки користь, але й потенційна загроза через відсутність міжнародно-правових норм, які регулюватимуть розвиток сучасних технологій штучного інтелекту, а також створення й використання автономних систем зброї зі штучним інтелектом.

Аналіз дослідження проблеми

У сучасному науковому світі на сьогодні визначена проблематика не містить комплексних розробок. Першим спробам, у яких досліджуються саме проблеми штучного інтелекту, присвячено праці багатьох зарубіжних (С. Хокінг, А. Н'юел, Г. Саймон, Д. Маккарті, І. Маск, Н. Бостром, Д. Говард, Тюрінг, Р. Курцвейл, К. Шваб) та українських (В. Глушков, М. Амосов, О. Івахненко, Л. Калужнін, О. Кухтенко, Скурихін, А. Шевченко) учених. Водночас, комплексний характер цієї проблематики, динамічність змін цієї сфери потребує подальших науково-технічних та правових досліджень розвитку їх технологій, а відсутність правового регулювання відносин у сфері автономних систем зброї та відповідальності за їх використання потребують розробки законодавства на міжнародному рівні.

Метою статті є визначення сутності автономних систем зброї зі штучним інтелектом та наведення їх класифікацій за рівнем автономності. Здійснити порівняння підходів до перспектив розвитку правового регулювання відносин у сфері автономних систем зброї в зарубіжних країнах, а також розробити способи для запровадження правового механізму прийняття міжнародної угоди, яка врегулює відносини у сфері штучного інтелекту для військових потреб.

Виклад основного матеріалу

Протягом останніх років у розвинутих країнах світу діють масштабні програми, які направлені на заволодіння лідируючих позицій у глобальній конкуренції у сфері штучного інтелекту. Саме такий шлях обирають країни, які вкладають чималі кошти в інноваційний розвиток зазначеної сфери, зокрема США, Китай, Японія та Республіка Корея.

На сьогодні сучасні роботи та безпілотний транспорт ще далекі від того, щоб самостійно приймати рішення, та діють лише відповідно до алгоритмів та інструкцій, які в них закладені людиною. Але вже в найближчому майбутньому людство спостерігатиме появу «суперінтелекту», який зможе самовдосконалюватись, приймати різні форми, самостійно пересуватись, мислити високорозвиненими алгоритмами. І врешті-решт у нього можуть з'явитися власні «не мирні» потреби [2, с. 128].

За повідомленням видання Technology Review вже через 60 років штучний інтелект стане значною загрозою для людства. До 2022 року він буде мислити приблизно на 10% як людина, до 2040 року - на 50 %, до 2075 року - процеси мислення неможливо буде відрізнити від людських. До таких висновків прийшов шведський учений, професор Оксфордського університету Нік Бостром, який пропонує бути більш обережними, оскільки вважає штучний інтелект занадто загрозливим для людства (проблемою контролю над штучним інтелектом займаються у світі приблизно 6 дослідників, питаннями його створення - десятки і сотні тисяч) [3]. Такої самої думки дотримується й Ілон Маск [4] - співзасновник компанії з виробництва електромобілів Tesla й засновник ракетобудівної компанії SpaceX. Неконтрольований штучний інтелект «потенційно більш небезпечний, ніж ядерна зброя та не буде зайвим введення певних регулюючих норм на національному й міжнародному рівнях, які не дозволять наробити дурощів». Раніше І. Маск заявляв, що люди просто не розуміють, наскільки швидко прогресує штучний інтелект і яку загрозу він може зберігати в собі [5].

Насамперед, для якісної міжнародної регламентації відносин у зазначеній сфері необхідно надати визначення терміну - штучного інтелекту, оскільки навіть в експертному середовищі відсутнє єдине його значення. На нашу думку, не слід зволікати з регулюванням технологій створення, виробництва та застосування штучного інтелекту, поки фахівці не прийдуть до єдиного його визначення та відповідної класифікації.

Водночас, у світлі потужного росту індустрії інтелектуальної робототехніки правові норми, які регламентують розробку, виробництво та застосування штучного інтелекту, а зокрема і в автономних системах зброї, майже відсутні. Аналізуючи різні царини суспільного життя, є очевидним, що майже завжди спроби здійснити правову регламентацію в тій чи іншій сфері життя починаються лише тоді, коли в суспільстві трапляється якась трагедія, а люди починають шукати певні ідентифікатори, щоб пояснити ситуацію. У випадку зі штучним інтелектом, таке може трапитись один раз - та назавжди.

Насправді вітчизняний закон, який має врегулювати суспільні відносини у сфері штучного інтелекту, не зможе охопити повною мірою окреслену проблематику, а тому в державі необхідно розробити програму з упровадження низки послідовних та ефективних заходів, що потребує окремого дослідження.

Отже, зупинимось на визначенні штучного інтелекту, які надають йому окремі науковці. Поняття штучного інтелекту було надано вченим Люгером Джорджем Ф., який вважає, що це є сфера комп'ютерної науки, яка займається автоматизацією розумної поведінки [6, с. 27]. У сучасному розумінні термін «штучний інтелект» - це науковий напрям, у межах якого ставляться й розв'язуються завдання апаратного і програмного моделювання тих видів людської діяльності, які традиційно вважаються інтелектуальними, тобто потребують певних розумових зусиль [7, с. 12]. Також поняття штучного інтелекту визначено в Державному Стандарті України ДСТУ 2938-94 як «здатність систем оброблення даних виконувати функції, які асоціюються з інтелектом людини - логічне мислення, навчання та самовдосконалення» [8]. Отже, досліджуючи наукові роботи, можна прийти до висновку, що єдиного визначення «штучного інтелекту» немає, оскільки це дуже молода сфера досліджень [9, с. 17].

Усе ж таки, незважаючи на відсутність єдиної дефініції штучного інтелекту у світі, усвідомлюється збільшення ступеня його впливу на робототехніку та людське життя й необхідність установлення правил його створення та використання.

Між іншим, найбільш помітних успіхів у розробці нормативного регулювання співіснування людини й розумного робота досягнуто європейською спільнотою. Так, під час проведення саміту ЄС, який відбувся в жовтні 2017 року, було прийнято рішення про формування у 2018 році європейської концепції правового та етичного регулювання робототехніки та штучного інтелекту, що зумовило прийняття Європарламентом 16.02.2017 року Резолюції із пропозиціями до Європейської комісії щодо норм цивільного права про робототехніку (2015/2013(ІМЬ)) (далі - Резолюція) [10].

У Резолюції згадуються закони робототехніки (обов'язкові правила поведінки для роботів за А. Азімовим), зокрема: робот не може заподіяти шкоду людині або своєю бездіяльністю дозволити, щоб людині була заподіяна шкода; робот повинен підкорятися наказам людини, за винятком тих, котрі суперечать першому закону; робот повинен захищати самого себе, якщо тільки його дії не суперечать першому і другому законам; робот не може завдати шкоду людству або своєю бездіяльністю допустити, аби людству була завдана шкода.

Характерно, що ці закони Резолюцією переадресовуються насамперед розробникам, виробникам та операторам роботів, здатних до самонавчання та автономного функціонування, оскільки відповідні закони не можуть бути переведені в машинний код. Таким чином, слід погодитись з автором дослідження, що відповідальність за втілення та дотримання цих основоположних етичних принципів функціонування роботів перенесено на стадії їх винайдення, виробництва та використання [11, с. 118].

Безперечно, що започатковані Резолюцією підходи правового регулювання штучного інтелекту для цивільних потреб уперше у 2017 році було трансформовано у прогресивний для європейського суспільства документ, який фактично є калькою для запровадження у вітчизняне законодавство.

Далі з'ясуємо, чи зазначені підходи повною мірою є прийнятними для розробок військової робототехніки (автономних систем зброї зі штучним інтелектом), оскільки ситуація у цій сфері виглядає зовсім по-іншому.

Аналіз використання штучного інтелекту для цивільних потреб показав, що основою алгоритмів є безвідмовність дій, але немає внутрішніх переконань та мотивів, особистих цінностей. Якщо розглядати використання автономних систем зброї зі штучним інтелектом у збройних конфліктах, то очікувати гуманного їх ставлення до людей (враховувати життя людини й людської гідності) немає ніякої надії. Формалізувати в коді це неможливо, що робить взаємодію з «автономними системами» ще складнішою.

Маємо підкреслити, що 28 країн світу закликали до обов'язкової заборони автономної зброї, а найвідоміші підприємці - Ілон Маск, Біл Гейтс - та співробітники різних корпорацій, зокрема Google, розпочавши кампанію «За заборону роботів-убивць», вважають «автономну зброю» прямою загрозою людства. Більше 230 організацій, 21 Нобелівський лауреат та 3400 осіб, серед яких провідні дослідники світу та бізнесмени сектору штучного інтелекту, підписали петицію проти автономної зброї, ініційовану Американським інститутом майбутнього життя (American Future of Life Institute). Вони зобов'язались не підтримувати розробку смертельних автономних систем зброї та закликають до «жорстких міжнародних норм та законів» щодо їх заборони. Зокрема, було зазначено, що рішення про вбивство людини ніколи не можна передавати машині. Також корпорація Google відмовилась продовжувати контракт на розробки в галузі штучного інтелекту для Пентагону. Приводом стали масові протести співробітників IT-гіганта, а з 02.06.2018 року компанія припинила участь у проєкті Пентагону, відомого як Maven. У його межах проводились дослідження щодо використання штучного інтелекту для аналізу відео із дронів. Співробітники Google вважають, що такі дослідження можуть призвести до створення розумних дронів-убивць, які зможуть без контролю людини знищувати живі цілі [12].

Дослідження в цій сфері показало, що протягом кількох років, 88 країн-членів ООН намагаються домовитись про створення нового VI-го Протоколу до Конвенції про заборону або обмеження застосування конкретних видів звичайної зброї, які можуть вважатись такими, які завдають надмірних ушкоджень або мають невибіркову дію від 10 жовтня 1980 року (далі - Конвенція від 10 жовтня 1980 року), до якої 15.06.2004 року приєдналась Україна [13]. У ньому має бути передбачена повна заборона застосування автономної летальної системи озброєння, котра прийматиме рішення про вбивство людини без участі оператора, нарівні з V, уже наявними, Протоколами, які забороняють застосування мін, мін-пасток та інших пристроїв, засліплюючу лазерну зброю та інших засобів.

Необхідність створення міжнародної угоди найкраще проілюструє приклад, де автономна система без участі людини зможе застосувати зброю під час бойових дій, що спричинить випадкову загибель людини (цивільного населення). У цій ситуації виникає питання, чи варто притягнути до відповідальності таких людей: розробника системи; оператора системи (командира, який здійснює керування системою); особу, що прийняла систему на озброєння чи алгоритм системи.

Міжнародне гуманітарне право та національне законодавство держав світу на сьогодні щодо цього не дають змоги кваліфікувати дії автономних систем зброї зі штучним інтелектом. Також неможливо поняття «автономна система» ототожнити з «електронною особою», притягнувши її в суді до юридичної відповідальності, через відсутність таких норм. Позиціювати автономну систему в цьому разі варто як об'єкта суспільних відносин, а суб'єктами є фізичні та юридичні особи.

Між іншим, до цієї проблеми звертались учені, зауважуючи, що цілком реальною є перспектива застосування до штучного інтелекту заходів кримінально-правового характеру, передбачивши в Особливій частині Кримінального кодексу України розділу під умовною назвою XIV2 «Заходи кримінально-правового характеру щодо електронних осіб». А самі роздуми щодо відповідальності штучного інтелекту будуть мати сенс тільки тоді, якщо людство збереже контроль над останнім [2, с. 131].

Очевидно, що автономна система зброї зі штучним інтелектом - це алгоритм, закладений людиною, яка взяла на озброєння цю систему, а тому саме людина повинна нести за свої дії відповідальність. Проте в Женевських конвенціях про захист жертв війни від 12 серпня 1949 року (далі - Женевські конвенції від 12 серпня 1949 року), а також у Додаткових протоколах до неї відсутні норми щодо відповідальності людини за створення, виробництво, управління та застосування автономних систем зброї зі штучним інтелектом.

Зокрема, у статті 36 Додаткового протоколу до Женевських конвенцій від 12 серпня 1949 року, яка стосується захисту жертв міжнародних збройних конфліктів від 8 червня 1977 року (далі - Протокол І) зазначено, що у процесі вивчення, розробки, придбання чи прийняття на озброєння нових видів зброї, засобів або методів ведення війни Висока Договірна Сторона повинна визначити, чи підпадає їх застосування, за деяких або за всіх обставин, під заборони, що містяться в цьому Протоколі або в якихнебудь інших нормах міжнародного права, застосовуваних до Високої Договірної Сторони [14].

Отже, навіть ототожнивши автономну систему зброї зі штучним інтелектом із новим видом зброї, під час розгляду справи в Міжнародному суді ООН не можливо буде довести вину людей, які при її вивченні, розробці, придбанні чи прийнятті на озброєння не змогли визначити, чи підпадатиме її застосування під заборони норм Протоколу І. Це стане ймовірним через здатність штучного інтелекту до самонавчання та вміння за певних обставин приймати самостійне рішення без втручання та контролю людини (розробника, командира, оператора) на ліквідацію сил і засобів противника (людини, бойової техніки, споруд та будівель).

Результати здійсненого аналізу дозволяють зробити висновок про те, що людина знаходиться поза межами правового поля та позбавлена можливості визначити, чи підпадає застосування автономних системи зброї за будь-яких обставин під заборони Протоколу І та міжнародного права, через відсутність приписів і недосконалість норм міжнародного гуманітарного права, що потребує подальших наукових розробок у цій сфері.

Необхідно зазначити, що, починаючи із 2010 року, на майданчику ООН проводяться обговорення допустимих меж використання автономних систем зброї зі штучним інтелектом з дотриманням міжнародних норм у сфері прав людини й норм гуманітарного права. Автономній системі було надано визначення «бойова роботизована система зброї», яка після приведення її в дію здатна вибирати та вражати цілі без послідуючого втручання людини. У 2016 році утворено групу урядових експертів, які узагальнили позиції країн ООН. Унаслідок цього у 2018 році було визначено 3 основні підходи перспектив розвитку правового регулювання відносин у сфері автономних систем зброї зі штучним інтелектом (бойової роботизованої системи зброї), у зв'язку зі створенням її, введенням в експлуатацію, використанням, а також самостійним функціонуванням, зокрема:


Подобные документы

  • Поняття та мета правового регулювання, його предмет та методи, засоби та типи. Співвідношення правового регулювання та правового впливу. Складові елементи механізму правового регулювання і стадії його реалізації, ефективність в сфері суспільних відносин.

    курсовая работа [29,3 K], добавлен 28.10.2010

  • Сучасний зміст і значення елементів та механізму правового регулювання, його сфери та межі. Характеристика методів і типів правового регулювання в Україні, можливості та необхідність їх вдосконалення. Основні ознаки ефективного правового регулювання.

    курсовая работа [61,6 K], добавлен 07.07.2009

  • Поняття та сутність іноземних інвестицій в Україні, як об’єкту правовідносин в сфері інвестування. Механізм правового регулювання та основні категорії в сфері іноземного інвестування. Перспективи розвитку правового регулювання інвестицій в Україні.

    дипломная работа [117,8 K], добавлен 14.02.2007

  • Сфера правового регулювання. Управління та право як фундаментальні суспільні явища. Загальні вимоги до форм правового регулювання. Способи правового регулювання управління. Варіанти покращення правового регулювання державного управління в Україні.

    реферат [23,0 K], добавлен 28.05.2014

  • Особливості законодавчого регулювання надання послуг у сфері освіти країн Європейського Союзу та інших країн Центральної Європи. Система законодавства про освіту країн СНД. Практика застосування правового регулювання сфери освіти у США та країн Азії.

    дипломная работа [258,1 K], добавлен 08.08.2015

  • Поняття завдання правового регулювання в сфері інформаційних відносин. Поняття правового регулювання і комп'ютерної програми. Законодавство про інформаційні відносини у сфері авторського права. Проблеми в законодавчій регламентації інформаційних відносин.

    презентация [70,6 K], добавлен 19.02.2015

  • Поняття, предмет і юридична природа правового регулювання. Соціальна суть і основні ознаки правової поведінки. Засоби, способи і механізм правого регулювання. Характеристика елементів системи правого регулювання і його значення в правовому суспільстві.

    курсовая работа [46,6 K], добавлен 14.11.2014

  • Інститут інтелектуальної власності. Економіко-правовий зміст та структура інтелектуальної власності. Аналіз правотворення у сфері інтелектуального розвитку країни. Пріоритетні напрями оптимізації правового регулювання сфери інтелектуальної діяльності.

    реферат [44,3 K], добавлен 27.09.2014

  • Юридичний зміст категорії "функція". Напрямки дії права на суспільні відносини. Особливості функцій правового регулювання. Розмежування функцій єдиного процесу правового регулювання. Зовнішні, внутрішні функції правового регулювання та іх значення.

    лекция [18,2 K], добавлен 15.03.2010

  • Різні точки зору вчених на поняття, роль й місце державних управлінських послуг у механізмі адміністративно-правового регулювання суспільних відносин. Міжнародний досвід та нормативно-правове регулювання адміністративних послуг, їх класифікація.

    курсовая работа [52,1 K], добавлен 30.07.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.