Як і чому змінюється юридичний дискурс щодо штучного інтелекту
Юридична дискусія щодо штучного інтелекту в якій предметом залишилося питання соціалізації штучного інтелекту, поміщення технологій у соціальний контекст, мінімізація негативних наслідків їх використання та забезпечення максимально можливих переваг.
Рубрика | Государство и право |
Вид | статья |
Язык | украинский |
Дата добавления | 23.05.2024 |
Размер файла | 21,0 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Як і чому змінюється юридичний дискурс щодо штучного інтелекту
Карчевський М.В.
доктор юридичних наук, професор, професор кафедри кримінального права і кримінології Львівського державного університету внутрішніх справ, головний науковий співробітник відділу дослідження проблем кримінального права Науково- дослідного інституту вивчення проблем злочинності імені академіка В.В. Сташиса НАПрН України
Як змінилася юридична дискусія щодо штучного інтелекту. Предметом залишилося питання соціалізації штучного інтелекту, поміщення технологій у соціальний контекст, мінімізація негативних наслідків їх використання та забезпечення максимально можливих переваг. Водночас, зміст обговорюваних проблем змінився від доцільності заборони чи регулювання та визнання штучного інтелекту суб'єктом права до класифікації сфер використання штучного інтелекту, визначення та оцінки ризиків використання, формулювання юридичних запобіжників цих ризиків.
Чому так змінився юридичний дискурс. Відповідь полягає у значному розширенні сфери фактичного застосування технологій штучного інтелекту. За останні двадцять років штучний інтелект пройшов шлях від наукової абстракції та концептуальних моделей до практичних задач та повсякденного використання. Системи штучного інтелекту використовуються практично в усіх сферах діяльності людини. юридичний інтелект технологія
Початок юридичних рефлексій щодо штучного інтелекту нами був досліджений раніше [8]. Відправною позицією сучасного юридичного дискурсу щодо штучного інтелекту є поділ технологій на "сильний" та "слабкий" штучний інтелект. Сильний являє собою гіпотетичний пристрій, який має здатність мислити, усвідомлювати оточуючий світ та себе як особистість, виконувати всі завдання, як і людина, або навіть перевищувати її інтелектуальні здібності. Слабкий штучний інтелект - фактично існуючі технології, орієнтовані на автоматизацію певних видів діяльності людини або кількох завдань, які виконує людина. Наприклад, керування транспортним засобом, гра в шахи, розпізнавання обличчя, голосу, рукописного тексту тощо.
Експерти визначають чотири загальні групи ризиків [1] використання технологій, що фактично існують, "слабкого" штучного інтелекту.
Нова якість порушення таємниці приватного життя. Автоматизована обробка даних про людину створює новий рівень загроз для людини. Аналіз уподобань у соціальних мережах [3], історії покупок [4], інтернет з'єднань [5] з використанням технологій штучного інтелекту здатен більш ніж істотно порушити таємницю приватного життя конкретної людини.
Маніпулювання поведінкою. Технології "слабкого" штучного інтелекту вже сьогодні чинять істотний вплив на поведінку споживачів шляхом таргетованої реклами, індивідуалізованих рекомендацій пошукових сервісів, персоналізованих стрічок новин тощо. Значною є небезпека маніпуляцій з використанням штучного інтелекту у політичній діяльності [6; 7]. Існує навіть спеціальний термін - "астротурфінг", яким позначають імітацію громадської підтримки ініціатив[1].
Дискримінація. Через особливості машинного навчання, технології яка лежить в основі "слабкого" штучного інтелекту, недостатня якість даних, використаних в процесі розробки системи може призвести до системних порушень її функціонування. Прикладом означеної проблеми може слугувати упередженість автоматизованих систем відбору персоналу. "Навчальний" набір даних для таких систем як правило представляє собою відомості щодо успішних рішень з підбору персоналу. Оскільки цей процес у багатьох сферах не є гендернонейтральним, мали місце випадки уведення в експлуатацію систем, які помножували гендрену нерівність під час функціонування [2].
Непрозорість. Правові гарантії інтелектуальної власності та конкурентна боротьба на ринку інформаційних технологій зумовлюють закритість алгоритмів систем штучного інтелекту, що унеможливлює перевірку правильності рішень та ефективний контроль за їх станом. У тих сферах де неправильна робота систем штучного інтелекту здатна заподіяти значну шкоду, така ситуація створює небезпеку.
Накопичений досвід та "критична" маса загроз неконтрольованого розширення сфери застосування систем штучного інтелекту зумовили появу законодавчих ініціатив, спрямованих на створення комплексної нормативно-правової бази для забезпечення відповідального розвитку штучного інтелекту, захисту основних прав і сприяння інноваціям. В якості найбільш актуальних слід відзначити розпочаті урядом США 13 квітня 2023 року громадські обговорення щодо "політики підзвітного штучного інтелекту"[9], а також обговорення проєкту, презентованого Європейською Комісією у квітні 2021 під назвою "The proposal for a regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act, AIA) and Amending Certain Union Legislative Acts"[10].
AIA використовує поняття "система штучного інтелекту" (ШІ) та визначає його наступним чином: програмне забезпечення, яке
а) розроблене з використанням одного або кількох підходів, що відносяться до:
• методів машинного навчання, включаючи контрольоване, неконтрольоване та навчання з підкріпленням, з використанням різноманітних методів, у тому числі глибокого навчання;
• методів, що ґрунтуються на логіці та знаннях, включаючи представлення знань, індуктивне (логічне) програмування, бази знань, логічні та дедуктивні механізми, (символічні) міркування та експертні системи;
• статистичних методів, включаючи байєсовську оцінку, методи пошуку та оптимізації;
б) може, для заданого набору визначених людиною цілей, генерувати результати, такі як контент, прогнози, рекомендації, або рішення, що впливають на середовище, з яким вони взаємодіють.
Визначення з усією очевидністю свідчить про фокус європейських законодавців на суто практичних питаннях використання продуктів, які вже існують або можуть бути створені.
У АІА програми штучного інтелекту класифікуються на основі потенційних рівнів ризику. Категорія "неприйнятний ризик штучного інтелекту" забороняє розробку та використання певних програм штучного інтелекту, наприклад систем соціального скорингу. До "штучного інтелекту високого ризику" віднесено системи, які можуть поставити під загрозу безпеку людей або порушити їхні основні права.
Авторами AIA реалізовано ідею нормативної мінімізації вказаних раніше соціальних ризиків впровадження ШІ. Порушення приватності пропонується контролювати у спосіб класифікованих за рівнем ризику вимог щодо розробки, введення в експлуатацію та використання систем ШІ.
Небезпеки впливу на поведінку людини, мінімізуються шляхом заборони окремих видів ШІ, які пропонується відносити до "Prohibited Artificial Intelligence Practices" (Article 5, AIA). Такі системи характеризуються "неприйнятним ризиком" та поділяються на 4 категорії: дві з них стосуються когнітивного поведінкового маніпулювання людьми або певними вразливими групами; інші 2 заборонені категорії це системи соціального скорингу та системи біометричної ідентифікації в режимі реального часу та на відстані. Однак для кожної категорії є винятки з основного правила [11].
Непрозорість пропонується долати шляхом обов'язкового документування створення, використання та вдосконалення високоризикованих систем ШІ, постійної актуалізації технічної документації таких систем, наявністю обов'язку виробника надавати контролюючим органам вичерпну інформацію щодо поточного стану системи ШІ, які віднесено до високоризикованих.
Нарешті, мінімізація упередженості забезпечується шляхом контролю за змістом та репрезентативністю навчальних, валідаційних та тестових наборів даних.
Важливими є положення AIA щодо підтримки досліджень та інновації в області ШІ. Зокрема, пропонується механізм "регуляторних пісочниць" (regulatory sandboxes), регуляторних інструментів, які дозволяють підприємствам тестувати та експериментувати з новими та інноваційними продуктами чи послугами під наглядом регулятора протягом обмеженого періоду часу. Регуляторні пісочниці виконують подвійну роль: 1) вони сприяють бізнес-навчанню, тобто розробці та тестуванню інновацій у реальному середовищі; та 2) підтримка регуляторного навчання, тобто формулювання експериментальних правових режимів для керівництва та підтримки бізнесу в їх інноваційній діяльності під наглядом регуляторного органу. На практиці підхід спрямований на те, щоб уможливити експериментальні інновації в рамках контрольованих ризиків і нагляду, а також покращити розуміння регуляторами нових технологій[12].
Законопроєкт отримав переважно схвальні відгуки науковців, водночас були представлені й критичні позиції. Наприклад, на думку М. Веле та Ф. Зуйдервена Боргесіуса, AIA "зібраний із законодавства про безпеку продукції 1980-х років, захисту основних прав, нагляду та захисту споживачів", такий підхід не дозволяє розглядати законопроєкт як всеосяжний та позбавлений істотних пробілів. Наприклад, положення про прозорість або мало додають до чинного законодавства, або викликають більше запитань, ніж відповідей, коли розглядаються їхні наслідки [13]. Новий виток дискусії зумовлений появою ChatGPT. Виникло питання, чи може генеративний штучний інтелект загального призначення бути використаним для заподіяння шкоди, чи може він стати частиною злочинного використання ШІ та, відповідно, чи не підлягатиме він забороні як один з видів "Prohibited Artificial Intelligence Practices"[14] Дискусія триває.
В ситуації, що склалася важливо відзначити, що Україна не перебуває осторонь процесів розширення сфери використання штучного інтелекту. Збройна агресія рф прискорила практичне впровадження технологій штучного інтелекту в роботу національних правоохоронних органів. Розслідування воєнних злочинів, діяльності колаборантів, пропаганди на користь агресора вимагають оперативного опрацювання значних масивів даних. Правоохоронці активно використовують системи розпізнавання обличчя, відеоаналітику, транскрибування відео та аудіозаписів. І це лише один з напрямів використання штучного інтелекту в Україні. Тому існує очевидна потреба правового регулювання використання систем ШІ в Україні. Чинна система норм видається недостатньою[15]. Бажано щоб український закон про використання систем штучного інтелекту містив такі положення:
• визначення, побудоване на основі європейського підходу, яке б чітко обмежило сферу нормативного впливу, структурувало національний юридичний та технічний дискурс;
• класифікація сфер використання штучного інтелекту за небезпекою можливих ризиків;
• залежний від цієї класифікації розподіл вимог до використання систем ШІ;
• можливість як створювати системи ШІ, орієнтовані на конкретні сфери застосування, так і проводити локалізацію систем ШІ загального призначення;
• обов'язкова диверсифікація систем ШІ, сфери використання яких характеризуються найбільшим ризиком;
• гнучкий механізм підтвердження відповідності системи ШІ вимогам, що пред'являються до її використання у певній сфері, такий підхід стимулюватиме розроблення нових технічних рішень та забезпечуватиме необхідну динаміку використовуваних технологій;
• можливість періоду експериментального правового регулювання систем ШІ, протягом такого періоду контролюючі органи зобов'язуються надати пропозиції розробникам щодо проходження процедури відповідності (regulatory sandboxes);
• правові засоби лібералізації інвестиційної діяльності в сфері використання систем ШІ.
Список використаних джерел
1. Dupont B., Stevens Y, Westermann H., Joyce M. Artificial Intelligence in the Context of Crime and Criminal Justice, Korean Institute of Criminology, Canada Research Chair in Cybersecurity, ICCC, Universite de Montreal, (2018). URL : https://www.cicc-iccc.org/public/media/files/prod/publication_ files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_ KICICCC_2019.pdf
2. Examples of Biased Artificial Intelligence // Logically. 30.07. 2019. URL : https://www.logically.ai/articles/5-examples-of-biased-ai
3. Michal Kosinski, David Stillwell & Thore Graepel, "Private traits and attributes are predictable from digital records of human behavior" (2013) 110:15 Proceedings of the National Academy of Sciences 5802.
4. Kashmir Hill, "How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did", Forbes (16 February 2012), online: https://www. forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girlwas-pregnant-before-her-father-did/
5. Zalnieriute, Monika, Big Brother Watch and Others v. the United Kingdom (July 14, 2022). American Journal of International Law, 2022, Vol 116(3), pp. 585-592., Available at SSRN: https://ssrn.com/abstract=4162965
6. Yuval Noah Harari argues that AI has hacked the operating system of human civilisation. - The Economist. 6.05.2023. - URL: https://www. economist.com/by-invitation/2023/04/28/yuval-noah-harari-argues-that-aihas-hacked-the-operating-system-of-human-civilisation Guggenberger N., Salib P. From Fake News to Fake Views: New
7. Challenges Posed by ChatGPT-Like AI. - The Lawfare Institute. 20.01.2023. - URL: https://www.lawfaremedia.org/article/fake-news-fake-views-new-challenges-posed-chatgpt-ai
8. Karchevskyi, M., Losych, S., & Germanov, S. (2023). Socialization of artificial intelligence and transhumanism: legal and economic aspects. Baltic Journal of Economic Studies, 9(1), 61-70. https://doi.org/10.30525/22560742/2023-9-1-61-70
9. AI Accountability Policy Request for Comment. A Notice by
10. the National Telecommunications and Information Administration on 13.04.2023 // Federal Register, https://www.federalregister.gov/
11. documents/2023/04/13/2023-07776/ai-accountability-policy-request-forcomment
12. European Commission. Proposal For a Regulation of The European Parliament and of The Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts, COM/2021/206 final, 2021/0106(COD), 2021. https://eurlex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206
13. Kop M. EU Artificial Intelligence Act: The European Approach to AI // Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 2/2021. -
14. URL: https://law.stanford.edu/publications/euartificial-intelligence-act-theeuropean-approach-to-ai/
15. Madiega T., Van De Po A. L. Artificial intelligence act and regulatory
16. sandboxes. - European Parliamentary Research Service. PE 733.544 - June 2022. - URL: https://www.europarl.europa.eu/RegData/etudes/
17. BRIE/2022/733544/EPRS_BRI(2022)733544_EN.pdf
18. Veale M. Zuiderveen Borgesius F. Demystifying the Draft EU Artificial Intelligence Act // Computer Law Review International. - 2021 (4). https:// doi.org/10.9785/cri-2021-220402
19. Карчевський М.В. Правове регулювання штучного інтелекту: ризик-орієнтований підхід у європейській дискусії / Карчевський М.В., Штанько В.А., ChatGPT // Актуальні питання права та соціально-економічних відносин: зб. ст. - Кропивницький, 2023. - С.20-29. - Режим доступу: http://dspace.wunu.edu.ua/bitstream/316497/48146/1/%D0%97%D0 %B1%D1%96%D1%80%D0%BD%D0%B8%D0%BA-2023%20%281%29. pdf#page=20 . - Назва з екрана. - Дата перегляду: 23 серп. 2023 р.
20. Karchevskyi M., Radutniy O. Ukrainian Report on Traditional Criminal Law Categories and AI (Artificial Intelligence) / Traditional Criminal Law Categories and AI: Crisis or Palingenesis? (International Colloquium Section I, Siracusa, 15-16 September 2022) Edited by Lorenzo Picotti, Beatrice Panattoni. RIDP, Vol. 94 issue 1, 2023. - 385 p. - pp. 363 - 383
Размещено на Allbest.ru
Подобные документы
Напрямки діяльності юрисконсульта в боротьбі з розкраданнями, розтратами та нестачами. Робота юридичної служби із забезпечення відшкодування збитків, завданих підприємству. Аналіз практики використання правових засобів збереження власності організацій.
презентация [227,0 K], добавлен 03.08.2012Розробка методичних принципів вдосконалення юридичної відповідальності за правопорушення, що скоюються щодо авторських та суміжних прав. Правові засоби забезпечення прав і свобод фізичних та юридичних осіб щодо захисту авторського права та суміжних прав.
дипломная работа [150,2 K], добавлен 10.12.2010Філософсько-правове дослідження феномену юридичної допомоги як результату правової соціалізації людини. Розуміння способів безпосередньої реалізації норм у юридичній практиці. Усвідомлення і формування власного ставлення до правових інститутів та установ.
статья [23,7 K], добавлен 31.08.2017Дослідження питання існування інституту забезпечення позову. Аналіз чинного законодавства щодо його правового закріплення. Розгляд та характеристика основних відмінностей правового регулювання забезпечення позову у господарському та цивільному процесах.
статья [22,2 K], добавлен 07.02.2018Юридична сутність поняття орендних відносин. Обґрунтування комплексу проблем цивільно-правового регулювання орендних відносин. Розробка пропозицій щодо удосконалення цивільного законодавства, практика його застосування. Порядок укладання договору оренди.
курсовая работа [44,3 K], добавлен 30.01.2013Дослідження юридичних фактів як підстав виникнення правовідносин із недержавного соціального забезпечення. Виникнення основних юридичних наслідків у цій сфері, фактичний склад: об’єктивні факти, волевиявлення особи, рішення компетентного органу.
статья [22,6 K], добавлен 11.09.2017Характеристика патентного закону Японії щодо використання винаходів, а також визначення правових особливостей вільного використання винаходів. Розробка пропозицій щодо змін у чинному законодавстві України з урахуванням позитивного досвіду Японії.
статья [22,0 K], добавлен 11.08.2017Сім'я як найважливіший правовий та соціальний інститут суспільства. Дискусія щодо проблеми легалізації одностатевих шлюбів, з нагоди вступу України до Євросоюзу. Моральні і правові підстави запровадження одностатевих шлюбів в українське законодавство.
реферат [30,1 K], добавлен 21.07.2016Узагальнення наслідків претензійно-позовної роботи. Порядок дослідження і реєстрації претензій, позовних заяв. Особливості організації договірної роботи. Юридична допомога при укладенні договорів. Заходи щодо усунення недоліків в господарській діяльності.
презентация [265,5 K], добавлен 03.08.2012Проблемні питання врегулювання подолання протидії розслідуванню злочинів. Недоліки у чинному кримінальному законодавстві щодо подолання протидії розслідуванню злочинів. Пропозиції його удосконалення з метою належного використання норм матеріального права.
статья [21,5 K], добавлен 19.09.2017