Штучний інтелект як інструмент публічного управління в забезпеченні інформаційно-психологічної безпеки. Досвід США

Визначення ролі штучного інтелекту як інструмента публічного управління соціальним розвитком держави на прикладі вдосконалення США державної політики регулювання галузі ШІ. Реалізація корпоративної політики за критеріями: безпечність; безпека; довіра.

Рубрика Государство и право
Вид статья
Язык украинский
Дата добавления 15.02.2024
Размер файла 17,0 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Штучний інтелект як інструмент публічного управління в забезпеченні інформаційно-психологічної безпеки. Досвід США

Бондар Володимир Тимофійович доктор філософії, доцент кафедри економіки, підприємництва, менеджменту економічного факультету, Київський міжнародний університет

Анотація

Статтю присвячено дослідженню розгортання упродовж останнього десятиліття галузі штучного інтелекту в Сполучених Штатах Америки на тлі тенденцій розвитку цієї технології у світі, за даними Стенфордського та Оксфордського звітів. Реагуванню населення різних країн на продукт, що вироблений із застосуванням моделей штучного інтелекту. Готовності держави здійснювати регулювання інноваційним розвитком технології штучного інтелекту в цивільному і військовому секторі національної економіки, лідерства у глобальному вимірі. Ступеня відповідальності й спроможності влади протидіяти деструктивному впливу зовні на стан інформаційно-психологічної безпеки, психологічного захисту населення.

Метою є визначення ролі і значення штучного інтелекту як інструмента публічного управління соціальним розвитком держави на прикладі вдосконалення США державної політики регулювання галузі штучного інтелекту.

У контексті ключових принципів концепції «Довіра та безпека» в цифровому просторі, а також статусу країни як об'єкта інформаційного нападу у гібридній війні, інтерпретовано активність державних інституцій США з оскарження контенту онлайн провайдерів послуг, ініціативу на адресу корпоративного сектора галузі штучного інтелекту в налагодженні суспільного діалогу.

Розглянуто передумови формування основи для прийняття виконавчою владою Акту «Про безпечний, безпековий і такий, що заслуговує на довіру, розвиток та використання штучного інтелекту». Наголошено на особливостях його положень, підходах до формулювання і впровадження публічного управління з використанням штучного інтелекту, повноваженнях федеральних органів та їх завданнях.

Зроблено висновки щодо прогресу у досягненні виконавчою владою США суспільної згоди з ключовими стейкхолдерами галузі штучного інтелекту у питаннях імплементації на практиці критеріїв «безпечність», «безпека» і «довіра», використання переваг технології штучного інтелекту. Спрогнозовано вплив прийнятого Акту на формування в публічному просторі безпечного, безпекового та середовища довіри для реалізації ефективної державної політики з забезпечення інформаційно-психологічної безпеки, психологічного захисту населення. Розглянуто аспекти можливої імплементації у вітчизняному секторі безпеки позитивного досвіду США з використання штучного інтелекту як інструмента публічного управління соціальною сферою.

Ключові слова: публічне управління, протидія дезінформації, штучний інтелект, інформаційно-психологічна безпека, психологічний захист.

Abstract

Artificial intelligence as a tool of public administration in ensuring informational and psychological security. USA experience

Bondar Volodymyr Tymophiiovych Doctor of philosophy, associate professor at the Department of economics, management, business, Faculty of Economics, Kyiv International University

The article examines the development of the artificial intelligence industry in the United States of America over the last decade against the background of trends of this technology in the world, according to the Stanford and Oxford Reports. The response of the population of different countries to a product on artificial intelligence models. The readiness of State to regulate the innovative development of artificial intelligence technology in the civil and military sectors of the national economy, leadership in the global dimension. The degree of responsibility and capacity of the authorities to counter destructive influence from the outside on the state of informational and psychological security, psychological protection of the population.

The goal is to determine the role and significance of artificial intelligence as a tool of public administration of the social development of the State on the example of the improvement of the U.S. state policy of regulating the field of artificial intelligence.

In the context of the key principles of the Concept The «Trust and Safety» in Digital Space, as well as the status of the country as an object of an information attack in a hybrid war, the activity of USA state institutions to send appeals toward online service providers as for the content, the initiative addressed to the corporate sector of the field of artificial intelligence in the establishment of social dialogue.

The prerequisites for the formation of the basis for the introducing by the executive power the Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence were considered. The features of its provisions, approaches to the formulation and implementation of public administration using artificial intelligence, the powers of federal bodies and their tasks are emphasized.

Conclusions are made regarding the progress in the achievement of public agreement by the executive power of the USA with the key stakeholders of the field of artificial intelligence in the implementation of the «safety», «security» and «trust» criteria in practice, and utilization of the advantages of artificial intelligence technology. The impact of the Executive Act on the formation of a safe, secure and trust environment in the public space for the implementation of an effective State policy on guaranteeing informational and psychological security and psychological protection of the population is predicted. The aspects of possible implementation in the domestic security sector of the positive experience of the USA in the introducing of artificial intelligence as a tool of public administration of the social sphere are considered.

Keywords: public administration, countering disinformation, artificial intelligence, informational and psychological security, psychological protection.

Постановка проблеми

Протидія дезінформації стала захисною реакцією громадянського суспільства та державних інституцій демократичних країн на зовнішні деструктивні дії авторитарних режимів впливати через соціальні мережі на стан національного публічного простору, громадську думку, виборчі кампанії, довіру до державних інститутів у тому числі зловживанням досягненнями у галузі штучного інтелекту (далі - ШІ).

За даними Інституту по вивченню впливу штучного інтелекту на людину при Стенфордському університеті - «Індекс штучного інтелекту. Річний звіт за 2023 рік» [1], упродовж 2010-2022 рр. в корпоративному секторі США було виготовлено 32 моделі машинного навчання і 3 на експериментальному виробництві, тоді, коли в 2014 р. - всі моделі на експериментальній базі; впроваджено у синтезі водню, генеруванні нових антибіотиків; у 26 разів зросла кількість порушень етичних принципів; на 1,9 % збільшився попит на працівників з відповідною кваліфікацією проти 1,7 % в 2021 р. В бюджеті США 2023 року державне інвестування на дослідження у цивільному (військовому) секторі економіки 1,84 (1,10) млрд дол. США, для порівняння: 0,56 (0) в 2018; 1,11 (0) - 2019; 1,43 (0,93) - 2020; 1,75 (0,84) - 2021, 1,84 (0,87) - 2022 році відповідно. У світі. Обсяг приватних інвестицій зріс у 18 разів до 934,1 млрд. дол. США, з 14,6 у 2013 р. до 189,6 у 2022 р. при максимальному показнику 276,1 в 2021 р.; порівнюючи з 2017 р. подвоїлося число компаній з використанням технології ШІ; з-поміж законодавчих ініціатив у 127 країнах з посиланням на ШІ, прийнято 37 законів проти 1 у 2016 р., а, в протоколах парламентських засідань 81 країни термін вживався в 6,5 разів частіше. Соціологічні опитування показали, що до виготовлених на основі ШІ продуктів і послуг висловили довіру у Китаї 78 % опитаних, Саудівській Аравії - 76 %, Індії - 71 %, США - 35 %. Дані за 2020 р. Оксфордського «Індексу готовності держави до впровадження ШІ» [2] позиціонують США на 1-му місці серед 172 країн - загальний індекс 85,48 (100), зі ступенем відповідальності влади 50,1 (100).

Наведене засвідчує, що в США, за стабільного державного фінансування інноваційного розвитку галузі штучного інтелекту, стрімкого розгортання корпоративного сектору, зростання попиту на кваліфіковані кадри довіра населення до технології ШІ на порівняно низькому рівні. Втім, достатня готовність влади вдосконалювати державні механізми забезпечення інформаційно-психологічної безпеки, психологічного захисту суспільства з використанням штучного інтелекту як інструмента публічного управління.

Аналіз останніх досліджень і публікацій

У наукових працях з актуальних проблем публічного управління в Україні слід відзначити роботи Л. Антонової, Н. Біндера, М. Беланюк, В. Брижка, О. Карпенка, Т. Катриченко, О. Краснокутського, К. Лінда, Н. Савченко, Н. Уханової. Серед зарубіжних дослідників увагу привертають праці Н. Бострома, Р. Броді, Е. Венса, Т. Мітчела, Л. Перрі, К. Пола, С. Рассела, М. Тегмарка, Т. Філера, П. Хайхема.

Проте незавершеною частиною проблеми залишається наукове обґрунтування забезпечення державою інформаційно-психологічної безпеки та психологічного захисту суспільства від деструктивного впливу зовні з використання новітніх інформаційно-технічних включно ШІ-технологій.

Мета статті - визначити роль і значення штучного інтелекту як інструмента публічного управління соціальним розвитком держави (на прикладі вдосконалення США державної політики регулювання галузі ШІ).

Виклад основного матеріалу

У концепції «Довіра та безпека» в цифровому просторі, серед засновників якої провідні міжнародні експерти і науковці технологічних галузей, наголошується на важливості захисту онлайн середовища від поширення ідеології антигуманізму, мови ворожнечі, антидержавних наративів, дезінформації й інших дискримінаційних проявів, інформаційних технологій спрямованих на підрив стабільності інформаційної і національної безпеки країн та регіонів [3]. Спираючись на один з її принципів, який зобов'язує провайдерів онлайн послуг з розміщення інформації надавати можливість національним суб'єктам чи міжнародним інституціям оскаржувати контент, вимагати видалення повідомлень, за даними звіту Google за 2023 рік «Про доступність сервісів і даних» органи державної влади США упродовж 2011-2022 років зверталися зі скаргами 10889 разів (України - 529), що є третім показником у світі [там само].

На заклик Адміністрації Білого дому щодо підвищення відповідальності виробниками контенту на базі ШІ-моделей, ключові стейкхолдери галузі штучного інтелекту Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI висловили готовність взаємодіяти в протидії дезінформації, поширенню фейків та шахрайству [4]. Було вироблено основні напрями (усього вісім) реалізації корпоративної політики за трьома критеріями: безпечність; безпека; довіра. З боку виробників прийнято відповідні зобов'язання, а виконавчої влади - що узгоджені рамки знайдуть відображення у профільному законодавчому акті.

За критерієм «Безпечність»., виробники зобов'язуються пересвідчуватись у безпечності контенту шляхом зовнішнього тестування перед його ринковою пропозицією, оцінки потенційних біологічних або кіберризиків, оприлюднення результатів. «Безпека» - забезпечення захисту ШІ-моделей від кібер- та внутрішніх загроз, обміну передовим досвідом й стандартами для запобігання зловживаннями, зменшення загроз для суспільства і національної безпеки. «Довіра» - інформування споживачів про аудіо- чи візуальний контент на основі ШІ-моделей з метою недопущення упередженості або дискримінації безпосередньо самої технології, посилення конфіденційності, убезпечення дітей від шкідливого впливу, впровадження ШІ для вирішення найгостріших суспільних викликів, реалізації повною мірою переваг штучного інтелекту.

Здійснювати корпоративну політику за напрямами, у відповідності до критерію:

«Безпечність»: 1) внутрішнього й зовнішнього об'єднання моделей або систем передусім у сфері національної безпеки, соціальних ризиків, біо- або кібербезпеки, протидії незаконному використанню; 2) обміну інформацією між корпоративним сектором і владою щодо ризиків для довіри або безпеки, небезпечних чи аварійних ситуацій, спроб обійти гарантії;

«Безпека»: 3) інвестування в кібербезпеку, засоби захисту від інсайдерських загроз; 4) заохочення незалежних експертів виявляти проблеми або недоліки, повідомляти про них;

«Довіра»: 5) розроблення і впровадження механізмів, які дозволятимуть споживачам відрізняти аудіо- чи візуальний контент на основі штучного інтелекту; 6) поширення інформації про можливості ШІ-моделей або систем, їх обмежень, сфери законного та незаконного використання, обговорення суспільних ризиків проти справедливості, упередженості; 7) першість дослідженням соціальних ризиків, ефективному запобіганню упередженості, дискримінації, захисту конфіденційності; 8) розробки й розгортання передових систем для подолання викликів перед суспільством.

На думку автора, таке соціальне партнерство між владою і корпоративним сектором на користь споживачів продукту чи послуг на основі ШІ-технологій можна розглядати як суспільний договір у протидії дезінформації, забезпеченні інформаційно-психологічної безпеки та психологічного захисту.

Основним завданням Акту виконавчої влади «Про безпечний, безпековий і такий, що заслуговує на довіру, розвиток та використання штучного інтелекту» (2023 р.) [5] передбачено формулювання й реалізацію публічної політики по об'єднанню зусиль уряду, приватного сектора, наукових кіл та інститутів громадянського суспільства на використання штучного інтелекту, реалізації його чисельних переваг, зменшення ризиків для суспільства.

В її основі, спрямованої на розвиток штучного інтелекту, закладено принципи: безпечності і безпеки; інноваційності, конкурентоздатності; підтримки американської робочої сили; забезпечення соціальної рівності та громадянських прав й свобод; приватності; повсякденного захисту життя; впровадження технології ШІ федеральним урядом для використання в системі публічного управління та адміністрування; уможливлення для федеральних інститутів ефективного лідерства у глобальному суспільному, економічному, технічному прогресі.

Нормативний документ містить визначення термінів. Актуалізує напрями з розробки інструкцій, стандартів, кращих практик, Меморандуму про національну безпеку з використанням штучного інтелекту. Передбачає порядок, терміни і механізм реалізації, зобов'язання державних інституцій сектора безпеки з адміністрування штучним інтелектом на об'єктах критичної інфраструктури та кібербезпеки.

Іншим фактором, що, на наш погляд, зумовив вдосконалення нормативної бази прийняттям Акту, це перспектива США - країни, яка стала об'єктом інформаційного нападу в гібридній війні [6]. Унаслідок цього значно пріоритезувалася потреба зміцнення психологічної стійкості суспільства, його відпорности на деструктивний вплив зовні.

Висновки

Виходячи з ролі і значення штучного інтелекту в публічному управлінні Сполучених Штатів Америки, можемо говорити, що в умовах сучасного технологічного розвитку, використання цієї технології як інструмента достатньою мірою слугуватиме національній безпековій політиці, соціальній стабільності.

Акт виконавчої влади «Про безпечний, безпековий і такий, що заслуговує на довіру, розвиток та використання штучного інтелекту» можна оцінити як прагматичний крок у напрямі узгодженої й взаємопов'язаної публічної політики на усіх адміністративних рівнях, корпоративного сектору та інститутів громадянського суспільства.

Закладено нормативне підґрунтя для розгортання галузі штучного інтелекту з орієнтуванням інноваційної й інформаційно-технічної індустрії на використання його переваг у цивільному і військовому секторі економіки.

У сфері публічного управління, легалізовано право з використання федеральними органами ШІ-моделей в питаннях забезпечення національної, економічної, інформаційно-психологічної, кібер-, біо- та інших видів безпеки, умов для психологічного захисту населення.

Впровадженню системи стандартів, кращих практик, рамок, вказівок чи інструкцій федеральною владою у соціальній, економічній, адміністративній, кримінальній й інших сферах сприятимуть передбачені в Акті пріоритети, критерії, принципи поводження зі штучним інтелектом та його відповідності цим нормам.

Лідерство США у сфері штучного інтелекту вимагатиме двопартійного визнання у законодавчому органі з метою розбудови і вдосконалення правового поля для забезпечення збалансованого, прозорого й підзвітного галузевого підходу до просування та захисту критично важливої технології.

Прийняття виконавчою владою США Акту - як сигнал міжнародній спільноті про готовність очолити глобальну дискусію про етику використання штучного інтелекту в зниженні напруги у світі.

Для України, імплементація позитивного досвіду Сполучених Штатів Америки вітчизняними стейкхолдерами сектора безпеки й галузі штучного інтелекту у рамках існуючих ініціатив і програм насамперед «Концепції розвитку штучного інтелекту в Україні» (Розпорядження Кабінету Міністрів України від 02.12.2020 № 1665-р.), допомагатиме більш ефективному унормуванню механізмів публічного управління, модернізації концептуальних підходів регулювання публічної політики задля забезпечення інформаційно-психологічної безпеки та психологічного захисту населення з використанням ШІ-технології.

штучний інтелект управління безпека

Література

1. The AI Index 2023Annual Report. AI Index Steering Committee, Institute for Human- Centered AI, Stanford University. Stanford, CA. April, 2023.

2. Government AI Readiness Index 2020. International Development Research Centre. Oxford Insights. Canada. 2020.

3. Бондар В.Т. Принципи концепції «Довіра та безпека» в цифровому просторі : застосування у сфері державного управління. Вчені записки ТНУ ім. В.І. Вернадського. Серія : Державне управління, 2023. Т. 34 (73) № 3. С. 109-114.

4. Pressed by Biden, A.I. Companies Agree to Guardrails on New Tools. The New York Times. July 21, 2023.

5. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. The White House. USA, October 30, 2023.

6. Бондар В.Т. Трансформація зовнішніх акторів за сучасного гібридного світоустрою. Науковий вісник Вінницької академії безперервної освіт и. Серія: «Екологія. Публічне управління та адміністрування», 2023. Вип. 4. С. 46-51.

References

1. The AI Index 2023Annual Report. AI Index Steering Committee, Institute for Human- Centered AI, Stanford University. Stanford, CA. April, 2023.

2. Government AI Readiness Index 2020. International Development Research Centre. Oxford Insights. Canada. 2020.

3. Bondar, V. (2023). Pryntsypy kontseptsii «Dovira ta bezpeka» v tsyfrovomu prostori: zastosuvannia u sferi derzhavnoho upravlinnia [Principles of Concept the «Trust and Safety» in Digital Space: Implementation in the Field of Public Administration]. Vcheni zapysky TNU im. V.I. Vernadskoho. Seriia: Derzhavne upravlinnia. Vol. 34 (73), № 3, s. 109-114. [in Ukrainian].

4. Pressed by Biden, A.I. Companies Agree to Guardrails on New Tools. The New York Times. July 21, 2023.

5. Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. The White House. USA, October 30, 2023.

6. Bondar, V. (2023). Transformatsiia zovnishnikh aktoriv za suchasnoho hibrydnoho svitoustroiu [Transformation of External Actors in a Modern Hybrid World Order]. Naukovyi visnyk Vinnytskoi akademii bezperervnoi osvity. Seriia: «Ekolohiia. Publichne upravlinnia ta administruvannia». Vol. 4, s. 46-51. [in Ukrainian].

Размещено на Allbest.ru


Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.