Artificial General Intelligence: новий етап глобальної правової дискусії

Автор(и)

  • Олександр Дмитрович Довгань радник при дирекції Державної наукової установи «Інститут інформації, безпеки і права Національної академії правових наук України», Україна https://orcid.org/0000-0002-3453-4938
  • Тарас Юрійович Ткачук учений секретар наукової лабораторії (наукової установи) Українського науково-дослідного інституту спеціальної техніки та судових експертиз Служби безпеки України, Україна https://orcid.org/0000-0002-4620-3300

DOI:

https://doi.org/10.37750/2616-6798.2026.1(56).357246

Ключові слова:

штучний загальний інтелект, AGI, правове регулювання штучного інтелекту, frontier-моделі, безпека штучного інтелекту, права людини, алгоритмічна відповідальність, AI Act, правосуб'єктність ШІ, технологічна сингулярність, автономні агентні системи, глобальне управління ШІ

Анотація

Стаття присвячена комплексному дослідженню правових та соціально-цивілізаційних наслідків можливого створення штучного загального інтелекту (Artificial General Intelligence, AGI) системи, здатної здійснювати когнітивну діяльність загального характеру на рівні людини або перевершуючи її в необмеженому колі предметних областей. Обґрунтовується теза про те, що перехід від вузького ШІ до AGI є не лише технологічним, а фундаментальним цивілізаційним зрушенням, яке ставить під сумнів ефективність правових режимів, розроблених для попередніх поколінь ШІ-систем.

У статті проаналізовано технологічні передумови розвитку AGI, масштабування моделей, мультимодальність та автономні агентні архітектури і систематизовано сучасні прогнози щодо часових горизонтів його появи. Досліджено потенційні соціально-економічні наслідки AGI у сферах наукового прогресу, трансформації ринку праці та державного управління. Виявлено ключові ризики для фундаментальних прав людини: право на приватність, принцип недискримінації, свободу вираження поглядів та цілісність демократичних процесів.

Окрему увагу приділено аналізу еволюції корпоративних стандартів безпеки ШІ від екзистенційного горизонту 2015 року до редукованого управління юридичними ризиками у 2025 році, що свідчить про системну неспроможність саморегулювання індустрії як достатнього механізму управління ризиками рівня AGI. Проаналізовано чинні міжнародно-правові інструменти: AI Act ЄС, Рамкову конвенцію Ради Європи про ШІ, принципи ОЕСР та Рекомендацію ЮНЕСКО з етики ШІ, а також наслідки відкликання Директиви ЄС про відповідальність за ШІ.

Сформульовано висновок про необхідність якісного переходу від фрагментарного регулювання окремих застосувань вузького ШІ до системного правового режиму управління frontier-технологіями, що передбачає обов’язкові оцінки впливу на права людини, незалежний аудит, механізми звітування про інциденти та дозвільні процедури для моделей із системним ризиком. Обґрунтовано гібридну модель юридичної відповідальності розробників і операторів AGI-систем, а правосуб’єктність AGI визначено як передчасний і небезпечний крок, натомість запропоновано концепцію “AGI як об’єкта підвищеної правової уваги”.

Біографії авторів

Олександр Дмитрович Довгань, радник при дирекції Державної наукової установи «Інститут інформації, безпеки і права Національної академії правових наук України»

доктор юридичних наук, професор, Заслужений діяч науки і техніки України

Тарас Юрійович Ткачук, учений секретар наукової лабораторії (наукової установи) Українського науково-дослідного інституту спеціальної техніки та судових експертиз Служби безпеки України

доктор юридичних наук, професор

Посилання

Raghavan M. Measuring and Mitigating Homogenization in Generative AI. Massachusetts Institute of Technology URL: https://genai.mit.edu/measuring-and-mitigating-homogenization-in-generative-ai/?utm_source=copilot.com

Marushchak A, Petrov S., Khoperiya A. Countering AI-powered disinformation through national regulation: learning from the case of Ukraine. Front. Artif. Intell., 07.01.2025 URL: https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2024.1474034/full?utm_source=copilot.com

Пищуліна О. Штучний інтелект – можливості, небезпеки, фактори ризику. Центр Разумкова. Жовтень 2025. URL: https://razumkov.org.ua/images/2025/10/10/2025-AI.pdf

The EU Artificial Intelligence Act. Up-to-date developments and analyses of the EU AI Act. URL: https://artificialintelligenceact.eu/

Digital Omnibus on AI. European Parliamentary Research Service. 2026 URL: https://www.europarl.europa.eu/RegData/etudes/BRIE/2026/782651/EPRS_BRI%282026%29782651_EN.pdf

European Union endorses Leaders' Declaration at AI Summit in India. European Commission. 20.02.2026 URL: https://digital-strategy.ec.europa.eu/en/news/european-union-endorses-leaders-declaration-ai-summit-india

The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. GOV.UK 13.02.2025 URL: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

Офіційний стислий виклад звіту «Стан майбутнього 20.0». URL: https://www.millennium-project.org/wp-content/uploads/2026/02/Ukrainian-Executive-Summary.pdf

When Will AGI Arrive? URL: https://theagiclock.com/?utm_source=copilot.com

Izak Tait MVP: The Minimal Viable Person. Preprints.org. 20.05.2025 URL: https://www.preprints.org/manuscript/202505.1625

Liability Rules for Artificial Intelligence. URL: https://commission.europa.eu/topics/business-and-industry/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_en

Andrews С. European Commission withdraws AI Liability Directive from consideration. IAPP. 12.02.2025 URL: https://iapp.org/news/a/european-commission-withdraws-ai-liability-directive-from-consideration?utm_source=copilot.com

How does AlphaFold Server work? URL: https://alphafoldserver.com/welcome

The 2025 AI Index Report. Stanford University URL: https://hai.stanford.edu/ai-index/2025-ai-index-report

Handler R. Clinical AI Has Boomed. Stanford Medicine. 15.01.2026 URL: https://medicine.stanford.edu/news/current-news/standard-news/clinical-ai-has-boomed.html

Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law URL: https://rm.coe.int/1680afae3c

AI risks and incidents. OECD URL: https://www.oecd.org/en/topics/sub-issues/ai-risks-and-incidents.html

Tyman А. Mobley v. Workday: Court Holds AI Service Providers Could Be Directly Liable for Employment Discrimination Under “Agent” Theory. Seyfarth. 19.06.2024 URL: https://www.seyfarth.com/news-insights/mobley-v-workday-court-holds-ai-service-providers-could-be-directly-liable-for-employment-discrimination-under-agent-theory.html

Деякі фрагменти цього тексту згенеровані за допомогою ChatGPT та Claude.

The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023 URL: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

The Center for AI Safety (CAIS) is on a mission to reduce societal-scale risks from artificial intelligence. 2024 Impact Report URL: https://safe.ai/work/impact-report/2024

##submission.downloads##

Опубліковано

2026-04-01

Номер

Розділ

Статті