Ознаки використання штучного інтелекту у розвідувальній діяльності

Автор(и)

  • Олександр Володимирович Сушко аспірант Міжрегіональної академії управління персоналом, Науково-навчальний інститут права та безпеки імені князя Володимира Великого, Україна https://orcid.org/0009-0008-2602-6328
  • Іван Васильович Сервецький Заступник завідувача кафедри національної безпеки. Професор кафедри Національної безпеки, Науково-навчальний Інститут права та безпеки імені князя Володимира Великого Міжрегіональної академії управління персоналом, Україна https://orcid.org/0000-0002-5713-8911

DOI:

https://doi.org/10.37750/2616-6798.2026.1(56).357368

Ключові слова:

розвідка, штучний інтелект, OSINT, синтетичні медіа, індикатори використання ШІ, національна безпека

Анотація

У статті досліджено ознаки, що свідчать про використання технологій штучного інтелекту (ШІ) у діяльності розвідувальних спецслужб. Проаналізовано типові маркери — як технічні, так і поведінкові, що дозволяють ідентифікувати застосування масштабованої аналітики, автоматизованого збору та класифікації даних, синтетичних медіа й інтелектуальної підтримки прийняття рішень. Методологія дослідження поєднує огляд відкритих джерел (OSINT), порівняльний аналіз задокументованих інцидентів та узагальнення зовнішніх індикаторів (анонімізовані кейси, патерни трафіку й публікацій). Виокремлено ключові категорії ознак: масштабність і швидкість аналітичних висновків, регулярність та одноманітність повідомлень, поява синтетичного або трансформованого контенту (deepfake, генеративні тексти), адаптивні поведінкові моделі контактів і кампаній, а також міжплатформна координація дій. Розглянуто ризики для національної безпеки, етичні та правові аспекти використання ШІ у розвідці, а також запропоновано загальні напрями моніторингу й формування політик протидії.

Біографія автора

Іван Васильович Сервецький, Заступник завідувача кафедри національної безпеки. Професор кафедри Національної безпеки, Науково-навчальний Інститут права та безпеки імені князя Володимира Великого Міжрегіональної академії управління персоналом

доктор юридичних наук

Посилання

Microsoft Corporation. (2024). Microsoft Digital Defense Report 2024. Retrieved September 22, 2025, from https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/Microsoft%20Digital%20Defense%20Report%202024%20%281%29.pdf

Recorded Future (Insikt Group). (2024, September 24). Targets, Objectives, and Emerging Tactics of Political Deepfakes. Retrieved September 22, 2025, from https://go.recordedfuture.com/hubfs/reports/ta-2024-0924.pdf

Palo Alto Networks (Unit 42). (2025). 2025 Unit 42 Global Incident Response Report: Social engineering edition. Retrieved September 22, 2025, from https://unit42.paloaltonetworks.com/2025-unit-42-global-incident-response-report-social-engineering-edition/

Meta. (2024, October 11). Taking action against coordinated inauthentic behavior in Moldova. Meta Newsroom. Retrieved September 22, 2025, from https://about.fb.com/news/2024/10/taking-action-against-coordinated-inauthentic-behavior-in-moldova/

Hern, A. (2024, December 3). Meta says it has taken down about 20 covert influence operations in 2024. The Guardian. Retrieved September 22, 2025, from https://www.theguardian.com/technology/2024/dec/03/meta-says-it-has-taken-down-about-20-covert-influence-operations-in-2024

Seddon, M. (2024, October 27). How a Mumbai drugmaker is helping Putin get Nvidia AI chips. Bloomberg. Retrieved September 22, 2025, from https://www.bloomberg.com/news/features/2024-10-27/russia-is-getting-nvidia-ai-chips-from-an-indian-pharma-company

Reuters. (2024, May 30). OpenAI has stopped five attempts to misuse its AI for 'deceptive activity'. Retrieved September 22, 2025, from https://www.reuters.com/technology/cybersecurity/openai-has-stopped-five-attempts-misuse-its-ai-deceptive-activity-2024-05-30/

Heiding, F. (2024, May 30). AI Will Increase the Quantity — and Quality — of Phishing Scams. Harvard Business Review. Retrieved September 22, 2025, from https://hbr.org/2024/05/ai-will-increase-the-quantity-and-quality-of-phishing-scams

Lakshmanan, R. (2024, December 23). AI Could Generate 10,000 Malware Variants, Evading Detection in 88% of Case. The Hacker News. Retrieved September 22, 2025, from https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html

Stanford Internet Observatory. (2024, March 18). How Spammers, Scammers and Creators Leverage AI to Build Followers / AI spam accounts build followers. Retrieved September 22, 2025, from https://cyber.fsi.stanford.edu/news/ai-spam-accounts-build-followers

Graphika. (2024, October 11). China and the 2024 Election: Graphika insights. Retrieved September 22, 2025, from https://graphika.com/posts/china-and-the-2024-election-graphika-insights-featured-by-washington-post

Hazell, J. (2023). Spear Phishing With Large Language Models (arXiv:2305.06972). Retrieved September 22, 2025, from https://arxiv.org/pdf/2305.06972.pdf

NATO. (2024, July 10). Summary of NATO's revised Artificial Intelligence (AI) strategy. Retrieved September 22, 2025, from https://www.nato.int/cps/en/natohq/official_texts_227237.htm

Feizi, S., et al. (2023, October 3). Researchers Tested AI Watermarks—and Broke All of Them. Wired. Retrieved September 22, 2025, from https://www.wired.com/story/artificial-intelligence-watermarking-issues

Tancik, M., Mildenhall, B., & Ng, R. (2020). StegaStamp: Invisible Hyperlinks in Physical Photographs (CVPR 2020 paper). Retrieved September 22, 2025, from https://openaccess.thecvf.com/content_CVPR_2020/papers/Tancik_StegaStamp_Invisible_Hyperlinks_in_Physical_Photographs_CVPR_2020_paper.pdf

##submission.downloads##

Опубліковано

2026-04-01

Номер

Розділ

Статті