Змагальний штучний інтелект в інформаційних і кібернетичних війнах
DOI:
https://doi.org/10.37750/2616-6798.2025.1(52).324688Ключові слова:
конфліктологія штучного інтелекту, змагальний штучний інтелект, міжнародне право, правове регулювання, кібервійни, інформаційні війни, нейролінгвістичне програмування, кібербезпекаАнотація
Стаття присвячена ролі змагального штучного інтелекту (ЗШІ) у сучасних гібридних конфліктах та їх невід’ємних інформаційних, кібернетичних і правових складових. ЗШІ розглядається, як прояв конфлікту штучних інтелектів (ШІ), в контексті запропонованих авторами основ конфліктології штучних інтелектів. Досліджено моделі кіберзагроз, що описують динаміку атакуючих і захисних стратегій у кіберпросторі, включаючи симуляцію різних типів атак та розробку механізмів їх нейтралізації. Приділено увагу інформаційним війнам, де аналізується вплив маніпулятивного контенту на аудиторію та розробляються методи його виявлення, аналізу та блокування. Розглядається використання в ЗШІ нейролінгвістичного програмування. Окремо, в контексті змагального ШІ, розглянуто моделі для виявлення та нейтралізації бекдорів у великих мовних моделях. Запропонована модель дозволяє аналізувати ефективність створення і впровадження бекдорів та удосконалювати методи їх пошуку, виявлення і знешкодження. В статті також розглядається ЗШІ у контексті його застосування в інформаційних та кіберконфліктах із правової точки зору. Аналізується роль міжнародного регулювання у контролі над розвитком і використанням таких технологій. Особлива увага приділяється питанням відповідальності за зловживання такими технологіями, визначенню меж правомірного використання та механізмам протидії незаконним кіберопераціям.
Посилання
The EU Artificial Intelligence Act, 2024. URL: https://artificialintelligenceact.eu
John Sotiropoulos. Adversarial AI Attacks, Mitigations, and Defense Strategies: A cyberse curity professional’s guide to AI attacks, threat modeling, and securing AI with MLSecOps. Packt Publishing Pvt Ltd: 2024. 586 p. ISBN: 9781835087985
Mantello, P., Ho, MT. Losing the information war to adversarial AI. AI & Soc 39, 2145-2147 (2024). DOI: 10.1007/s00146-023-01674-5
Clarence Chio, David Freeman. Machine Learning and Security: Protecting Systems with Data and Algorithms. O’Reilly Media; 1st edition. (February 20, 2018). 386 pp. ISBN 978-1491979907.
Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Joshua (2014). Generative Adversarial Networks. Preprint arXiv. arXiv:1406.2661. DOI: 10.48550/arXiv.1406.2661.
Arora, T. and Soni, R., 2021. A review of techniques to detect the GAN-generated fake images. Generative Adversarial Networks for Image-to-Image Translation. Рp.125-159. DOI: 10.10 16/B978-0-12-823519-5.00004-X.
Marra, Francesco, Diego Gragnaniello, Davide Cozzolino, and Luisa Verdoliva. “Detection of gan-generated fake images over social networks”. In 2018 IEEE conference on multimedia information processing and retrieval (MIPR). Рp. 384-389. IEEE, 2018. DOI: 10.1109/MIPR.2018.00 084.
Sarker, I.H., 2023. Multi-aspects AI-based modeling and adversarial learning for cyber security intelligence and robustness: A comprehensive overview. Security and Privacy, 6(5). Р. 295. DOI: 10.1002/spy2.295.
Bouaziz, A., Nguyen, M.D., Valdés, V., Cavalli, A.R., & Mallouli, W. (2023, July). Study on Adversarial Attacks Techniques, Learning Methods and Countermeasures: Application to Anomaly Detection. In ICSOFT. Рp. 510-517. DOI: 10.5220/0012125100003538.
Khaleel, Yahya Layth, Mustafa Abdulfattah Habeeb, A.S. Albahri, Tahsien Al-Quraishi, O.S. Albahri, and A.H. Alamoodi. “Network and cybersecurity applications of defense in adversarial attacks: A state-of-the-art using machine learning and deep learning methods”. Journal of Intelligent Systems 33, no. 1 (2024): 20240153. DOI: 10.1515/jisys-2024-0153.
Miao Yu, Junfeng Fang, Yingjie Zhou, Xing Fan, Kun Wang, Shirui Pan, Qingsong Wen. LLM-Virus: Evolutionary Jailbreak Attack on Large Language Models. Preprint arXiv,arXiv:2501. 00055. DOI: 10.48550/arXiv.2501.00055.
Campbell, Colin, Kirk Plangger, Sean Sands, and Jan Kietzmann. “Preparing for an era of deepfakes and AI-generated ads: A framework for understanding responses to manipulated advertising”. Journal of Advertising 51, no. 1 (2022): 22-38. DOI: 10.1080/00913367.2021.1909515.
Altinay, E.A., & Utku, Kose. (2021). Manipulation of Artificial Intelligence in Image Based Data: Adversarial Examples Techniques. Journal of Multidisciplinary Developments, 6(1), 8-17. URL: http://www.jomude.com/index.php/jomude/article/view/88
Goyal, Shreya, Sumanth Doddapaneni, Mitesh M. Khapra, and Balaraman Ravindran. “A survey of adversarial defenses and robustness in nlp”. ACM Computing Surveys 55, no. 14s (2023): 1-39. DOI: 10.1145/3593042.
Zanella-Béguelin, Santiago, Lukas Wutschitz, Shruti Tople, Victor Rühle, Andrew Paverd, Olga Ohrimenko, Boris Köpf, and Marc Brockschmidt. “Analyzing information leakage of updates to natural language models”. In Proceedings of the 2020 ACM SIGSAC conference on computer and communications security. Рp. 363-375. 2020. DOI: 10.1145/3372297.3417880.
Eugene Bagdasaryan, Andreas Veit, Yiqing Hua, Deborah Estrin, Vitaly Shmatikov. How To Backdoor Federated Learning. Proceedings of the Twenty Third International Conference on Artificial Intelligence and Statistics, PMLR 108:2938-2948, 2020.
Shen, Guangyu, Siyuan Cheng, Zhuo Zhang, Guanhong Tao, Kaiyuan Zhang, Hanxi Guo, Lu Yan et al. “BAIT: Large Language Model Backdoor Scanning by Inverting Attack Target”. In 2025 IEEE Symposium on Security and Privacy (SP). Рp. 103-103. IEEE Computer Society, 2024. DOI: 10.1109/SP61157.2025.00103.
Usman, Y., Gyawali, P.K., Gyawali, S., & Chataut, R. (2024, October). The Dark Side of AI: Large Language Models as Tools for Cyber Attacks on Vehicle Systems. In 2024 IEEE 15th Annual Ubiquitous Computing, Electronics & Mobile Communication Conference (UEMCON). Pp. 169-175. IEEE Computer Society, 2024. DOI: 10.1109/UEMCON62879.2024.10754676.
Ланде Д.В., Страшной Л.Л. Black Hat AI – виклики та шляхи протидії: матеріали XХIV Міжнародної науково-практичної конференції ІТБ-2024 Інформаційні технології та безпека. Київ: ТОВ “Інжиніринг”, 2024. C. 10-16. ISBN: 978-617-8180-00-3.
Ланде Д.В., Страшной Л.Л. Семантичний нетворкінг на основі великих мовних моделей: монографія. Київ: ТОВ “Інжиніринг”, 2025. 274 с. ISBN 978-617-8180-01-0.
Конвенція про кіберзлочинність: Закон України від 07.09.05 р. № 2824-IV (2824-15). – (Ратифіковано із застереженнями і заявами). Відомості Верховної Ради України, 2006. № 5-6. Ст. 71. URL: https://zakon.rada.gov.ua/laws/show/994_575
Про основні засади забезпечення кібербезпеки України: Закон України від 05.10.17 р. № 2163-VIII. Відомості Верховної Ради України, 2017. № 45. Ст. 403. URL: https://zakon.rada.gov.ua/laws/show/2163-19