Artificial General Intelligence: новий етап глобальної правової дискусії
DOI:
https://doi.org/10.37750/2616-6798.2026.1(56).357246Ключові слова:
штучний загальний інтелект, AGI, правове регулювання штучного інтелекту, frontier-моделі, безпека штучного інтелекту, права людини, алгоритмічна відповідальність, AI Act, правосуб'єктність ШІ, технологічна сингулярність, автономні агентні системи, глобальне управління ШІАнотація
Стаття присвячена комплексному дослідженню правових та соціально-цивілізаційних наслідків можливого створення штучного загального інтелекту (Artificial General Intelligence, AGI) системи, здатної здійснювати когнітивну діяльність загального характеру на рівні людини або перевершуючи її в необмеженому колі предметних областей. Обґрунтовується теза про те, що перехід від вузького ШІ до AGI є не лише технологічним, а фундаментальним цивілізаційним зрушенням, яке ставить під сумнів ефективність правових режимів, розроблених для попередніх поколінь ШІ-систем.
У статті проаналізовано технологічні передумови розвитку AGI, масштабування моделей, мультимодальність та автономні агентні архітектури і систематизовано сучасні прогнози щодо часових горизонтів його появи. Досліджено потенційні соціально-економічні наслідки AGI у сферах наукового прогресу, трансформації ринку праці та державного управління. Виявлено ключові ризики для фундаментальних прав людини: право на приватність, принцип недискримінації, свободу вираження поглядів та цілісність демократичних процесів.
Окрему увагу приділено аналізу еволюції корпоративних стандартів безпеки ШІ від екзистенційного горизонту 2015 року до редукованого управління юридичними ризиками у 2025 році, що свідчить про системну неспроможність саморегулювання індустрії як достатнього механізму управління ризиками рівня AGI. Проаналізовано чинні міжнародно-правові інструменти: AI Act ЄС, Рамкову конвенцію Ради Європи про ШІ, принципи ОЕСР та Рекомендацію ЮНЕСКО з етики ШІ, а також наслідки відкликання Директиви ЄС про відповідальність за ШІ.
Сформульовано висновок про необхідність якісного переходу від фрагментарного регулювання окремих застосувань вузького ШІ до системного правового режиму управління frontier-технологіями, що передбачає обов’язкові оцінки впливу на права людини, незалежний аудит, механізми звітування про інциденти та дозвільні процедури для моделей із системним ризиком. Обґрунтовано гібридну модель юридичної відповідальності розробників і операторів AGI-систем, а правосуб’єктність AGI визначено як передчасний і небезпечний крок, натомість запропоновано концепцію “AGI як об’єкта підвищеної правової уваги”.
Посилання
Raghavan M. Measuring and Mitigating Homogenization in Generative AI. Massachusetts Institute of Technology URL: https://genai.mit.edu/measuring-and-mitigating-homogenization-in-generative-ai/?utm_source=copilot.com
Marushchak A, Petrov S., Khoperiya A. Countering AI-powered disinformation through national regulation: learning from the case of Ukraine. Front. Artif. Intell., 07.01.2025 URL: https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2024.1474034/full?utm_source=copilot.com
Пищуліна О. Штучний інтелект – можливості, небезпеки, фактори ризику. Центр Разумкова. Жовтень 2025. URL: https://razumkov.org.ua/images/2025/10/10/2025-AI.pdf
The EU Artificial Intelligence Act. Up-to-date developments and analyses of the EU AI Act. URL: https://artificialintelligenceact.eu/
Digital Omnibus on AI. European Parliamentary Research Service. 2026 URL: https://www.europarl.europa.eu/RegData/etudes/BRIE/2026/782651/EPRS_BRI%282026%29782651_EN.pdf
European Union endorses Leaders' Declaration at AI Summit in India. European Commission. 20.02.2026 URL: https://digital-strategy.ec.europa.eu/en/news/european-union-endorses-leaders-declaration-ai-summit-india
The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. GOV.UK 13.02.2025 URL: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
Офіційний стислий виклад звіту «Стан майбутнього 20.0». URL: https://www.millennium-project.org/wp-content/uploads/2026/02/Ukrainian-Executive-Summary.pdf
When Will AGI Arrive? URL: https://theagiclock.com/?utm_source=copilot.com
Izak Tait MVP: The Minimal Viable Person. Preprints.org. 20.05.2025 URL: https://www.preprints.org/manuscript/202505.1625
Liability Rules for Artificial Intelligence. URL: https://commission.europa.eu/topics/business-and-industry/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_en
Andrews С. European Commission withdraws AI Liability Directive from consideration. IAPP. 12.02.2025 URL: https://iapp.org/news/a/european-commission-withdraws-ai-liability-directive-from-consideration?utm_source=copilot.com
How does AlphaFold Server work? URL: https://alphafoldserver.com/welcome
The 2025 AI Index Report. Stanford University URL: https://hai.stanford.edu/ai-index/2025-ai-index-report
Handler R. Clinical AI Has Boomed. Stanford Medicine. 15.01.2026 URL: https://medicine.stanford.edu/news/current-news/standard-news/clinical-ai-has-boomed.html
Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law URL: https://rm.coe.int/1680afae3c
AI risks and incidents. OECD URL: https://www.oecd.org/en/topics/sub-issues/ai-risks-and-incidents.html
Tyman А. Mobley v. Workday: Court Holds AI Service Providers Could Be Directly Liable for Employment Discrimination Under “Agent” Theory. Seyfarth. 19.06.2024 URL: https://www.seyfarth.com/news-insights/mobley-v-workday-court-holds-ai-service-providers-could-be-directly-liable-for-employment-discrimination-under-agent-theory.html
Деякі фрагменти цього тексту згенеровані за допомогою ChatGPT та Claude.
The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023 URL: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
The Center for AI Safety (CAIS) is on a mission to reduce societal-scale risks from artificial intelligence. 2024 Impact Report URL: https://safe.ai/work/impact-report/2024