Ознаки використання штучного інтелекту у розвідувальній діяльності
DOI:
https://doi.org/10.37750/2616-6798.2026.1(56).357368Ключові слова:
розвідка, штучний інтелект, OSINT, синтетичні медіа, індикатори використання ШІ, національна безпекаАнотація
У статті досліджено ознаки, що свідчать про використання технологій штучного інтелекту (ШІ) у діяльності розвідувальних спецслужб. Проаналізовано типові маркери — як технічні, так і поведінкові, що дозволяють ідентифікувати застосування масштабованої аналітики, автоматизованого збору та класифікації даних, синтетичних медіа й інтелектуальної підтримки прийняття рішень. Методологія дослідження поєднує огляд відкритих джерел (OSINT), порівняльний аналіз задокументованих інцидентів та узагальнення зовнішніх індикаторів (анонімізовані кейси, патерни трафіку й публікацій). Виокремлено ключові категорії ознак: масштабність і швидкість аналітичних висновків, регулярність та одноманітність повідомлень, поява синтетичного або трансформованого контенту (deepfake, генеративні тексти), адаптивні поведінкові моделі контактів і кампаній, а також міжплатформна координація дій. Розглянуто ризики для національної безпеки, етичні та правові аспекти використання ШІ у розвідці, а також запропоновано загальні напрями моніторингу й формування політик протидії.
Посилання
Microsoft Corporation. (2024). Microsoft Digital Defense Report 2024. Retrieved September 22, 2025, from https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/Microsoft%20Digital%20Defense%20Report%202024%20%281%29.pdf
Recorded Future (Insikt Group). (2024, September 24). Targets, Objectives, and Emerging Tactics of Political Deepfakes. Retrieved September 22, 2025, from https://go.recordedfuture.com/hubfs/reports/ta-2024-0924.pdf
Palo Alto Networks (Unit 42). (2025). 2025 Unit 42 Global Incident Response Report: Social engineering edition. Retrieved September 22, 2025, from https://unit42.paloaltonetworks.com/2025-unit-42-global-incident-response-report-social-engineering-edition/
Meta. (2024, October 11). Taking action against coordinated inauthentic behavior in Moldova. Meta Newsroom. Retrieved September 22, 2025, from https://about.fb.com/news/2024/10/taking-action-against-coordinated-inauthentic-behavior-in-moldova/
Hern, A. (2024, December 3). Meta says it has taken down about 20 covert influence operations in 2024. The Guardian. Retrieved September 22, 2025, from https://www.theguardian.com/technology/2024/dec/03/meta-says-it-has-taken-down-about-20-covert-influence-operations-in-2024
Seddon, M. (2024, October 27). How a Mumbai drugmaker is helping Putin get Nvidia AI chips. Bloomberg. Retrieved September 22, 2025, from https://www.bloomberg.com/news/features/2024-10-27/russia-is-getting-nvidia-ai-chips-from-an-indian-pharma-company
Reuters. (2024, May 30). OpenAI has stopped five attempts to misuse its AI for 'deceptive activity'. Retrieved September 22, 2025, from https://www.reuters.com/technology/cybersecurity/openai-has-stopped-five-attempts-misuse-its-ai-deceptive-activity-2024-05-30/
Heiding, F. (2024, May 30). AI Will Increase the Quantity — and Quality — of Phishing Scams. Harvard Business Review. Retrieved September 22, 2025, from https://hbr.org/2024/05/ai-will-increase-the-quantity-and-quality-of-phishing-scams
Lakshmanan, R. (2024, December 23). AI Could Generate 10,000 Malware Variants, Evading Detection in 88% of Case. The Hacker News. Retrieved September 22, 2025, from https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html
Stanford Internet Observatory. (2024, March 18). How Spammers, Scammers and Creators Leverage AI to Build Followers / AI spam accounts build followers. Retrieved September 22, 2025, from https://cyber.fsi.stanford.edu/news/ai-spam-accounts-build-followers
Graphika. (2024, October 11). China and the 2024 Election: Graphika insights. Retrieved September 22, 2025, from https://graphika.com/posts/china-and-the-2024-election-graphika-insights-featured-by-washington-post
Hazell, J. (2023). Spear Phishing With Large Language Models (arXiv:2305.06972). Retrieved September 22, 2025, from https://arxiv.org/pdf/2305.06972.pdf
NATO. (2024, July 10). Summary of NATO's revised Artificial Intelligence (AI) strategy. Retrieved September 22, 2025, from https://www.nato.int/cps/en/natohq/official_texts_227237.htm
Feizi, S., et al. (2023, October 3). Researchers Tested AI Watermarks—and Broke All of Them. Wired. Retrieved September 22, 2025, from https://www.wired.com/story/artificial-intelligence-watermarking-issues
Tancik, M., Mildenhall, B., & Ng, R. (2020). StegaStamp: Invisible Hyperlinks in Physical Photographs (CVPR 2020 paper). Retrieved September 22, 2025, from https://openaccess.thecvf.com/content_CVPR_2020/papers/Tancik_StegaStamp_Invisible_Hyperlinks_in_Physical_Photographs_CVPR_2020_paper.pdf