МЕТОДИ ЗАБЕЗПЕЧЕННЯ БЕЗПЕКИ ТА ОБРОБКИ ПЕРСОНАЛІЗОВАНИХ ДАНИХ У СИСТЕМАХ АДАПТИВНОЇ ГЕНЕРАЦІЇ КОНТЕНТУ

Автор(и)

  • Ганна ЗАВГОРОДНЯ Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Київ, Україна
  • Валерій ЗАВГОРОДНІЙ Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Київ, Україна
  • Андрій САВЧЕНКО Заклад вищої освіти «Міжнародний науково-технічний університет імені академіка Юрія Бугая», Київ, Україна
  • Андрій ЛЕМЕШКО Державний торговельно-економічний університет, Київ, Україна

DOI:

https://doi.org/10.30857/2786-5371.2026.1.6

Ключові слова:

адаптивна генерація контенту, персоналізовані дані, диференційна приватність, федеративне навчання, шифрування, архітектура безпеки

Анотація

Мета. Метою статті є розроблення комплексного підходу до забезпечення безпеки та коректної обробки персоналізованих даних у системах адаптивної генерації контенту. Запропонований підхід базується на формалізації простору персоналізованих даних користувачів, застосуванні методів анонімізації та псевдонімізації, використанні механізмів диференційної приватності (Differential Privacy), федеративного навчання (Federated Learning) та інтеграції сучасних криптографічних і архітектурних засобів захисту.

Методика. Дослідження спирається на системний аналіз архітектур адаптивних систем і багатовимірного простору ознак користувацьких даних. Для оцінки ризику деанонімізації застосовано математичні моделі диференційної приватності, а для захисту розподілених даних – протоколи федеративного навчання з безпечною агрегацією градієнтів. Проведено порівняльний аналіз сучасних методів захисту персональних даних, моделювання загроз та розроблено багаторівневу архітектурну модель безпеки, що враховує принципи Zero Trust, контроль доступу за ролями (RBAC), шифрування та аудит подій.

Результати. Запропоновано формалізовану модель простору персоналізованих даних, яка дозволяє класифікувати рівні чутливості інформації, визначати допустимі перетворення та інтегрувати їх із методами анонімізації. Доведено ефективність ε-диференційної приватності для контролю ризику деанонімізації при навчанні моделей. Розроблено узагальнену схему поєднання федеративного навчання та криптографічних протоколів безпечної агрегації, що забезпечує конфіденційність користувацьких даних без втрати точності моделей. Створено багаторівневу архітектурну систему захисту, яка включає шифрування даних, контроль доступу, аудит і моніторинг, забезпечуючи баланс між безпекою, масштабованістю та ефективністю генерації контенту.

Наукова новизна. Полягає у комплексному поєднанні формальної моделі персоналізованих даних з механізмами диференційної приватності та федеративного навчання в межах єдиної архітектурної концепції безпеки, що дозволяє одночасно забезпечити конфіденційність, масштабованість та ефективність обробки даних у системах адаптивної генерації контенту.

Практична значимість. Результати можуть бути застосовані при розробленні освітніх платформ, ігрових систем, рекомендаційних сервісів та інших інтелектуальних систем, що працюють із персоналізованими профілями користувачів, потребують високого рівня безпеки даних та відповідності сучасним стандартам захисту інформації.

Завантаження

Дані завантаження ще не доступні.

Біографії авторів

Ганна ЗАВГОРОДНЯ, Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Київ, Україна

Candidate of Technical Sciences, Associate Professor, Department of Computer Engineering

https://orcid.org/0000-0001-8523-1761

Scopus Author ID: 57216155533

Researcher ID: PLR-2465-2026

Валерій ЗАВГОРОДНІЙ, Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Київ, Україна

Doctor of Technical Sciences, Professor, Department of Computer Engineering

https://orcid.org/0000-0002-8347-7183

Scopus Author ID: 57184425000

ResearcherID: P-5232-2018

Андрій САВЧЕНКО, Заклад вищої освіти «Міжнародний науково-технічний університет імені академіка Юрія Бугая», Київ, Україна

Candidate of Technical Sciences, Department of Information and Communication Technologies

https://orcid.org/0000-0002-8314-6034  

Андрій ЛЕМЕШКО, Державний торговельно-економічний університет, Київ, Україна

PhD, Associate Professor, Department of Software Engineering and Cybersecurity

https://orcid.org/0000-0001-8003-3168

Scopus Author ID: 57750925600

Researcher ID: LHA-5358-2024

Посилання

Завгородній В. В., Завгородня Г. А., Валявська Н. О., Адаменко В. С., Дороговцев Є. В., Несмачний П. В. Метод автоматичної генерації контенту на основі процедурних алгоритмів. Вчені записки Таврійського національного університету імені В. І. Вернадського. Серія: Технічні науки. 2022. Т. 33 (72), № 1. С. 91–96. DOI: https://doi.org/10.32838/2663-5941/2022.1/15.

Завгородня Г. А., Завгородній В. В. Використання алгоритмів машинного навчання для динамічної адаптації складності комп’ютерних ігор. Таврійський науковий вісник. Серія: Технічні науки. 2025. № 1(5). С. 156–163. DOI: https://doi.org/10.32782/tnv-tech.2025.5.1.16.

Завгородня Г. А., Завгородній В. В. Розробка масштабованої розподіленої архітектури для масових багатокористувацьких онлайн-систем. Вісник Херсонського національного технічного університету. 2025. № 4(95), Ч. 3. С. 99–106. DOI: https://doi.org/10.35546/kntu2078-4481.2025.4.3.11.

Завгородня Г. А., Завгородній В. В. Моделювання поведінки гравця через нейромережеві агенти. Вчені записки ТНУ імені В. І. Вернадського. Серія: Технічні науки. 2025. Т. 36 (75), № 5, Ч. 2. С. 141–145. DOI: https://doi.org/10.32782/2663-5941/2025.6.2/20.

Rocher L., Hendrickx J. M., de Montjoye Y.-A. Estimating the success of re-identifications in incomplete datasets using generative models. Nature Communications. 2019. Vol. 10. Article 3069. DOI: https://doi.org/10.1038/s41467-019-10933-3.

Abadi M., Chu A., Goodfellow I. et al. Deep learning with differential privacy. Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security (ACM CCS). 2016. P. 308–318. DOI: https://doi.org/10.1145/2976749.2978318.

Kairouz P., McMahan H. B., Avent B. et al. Advances and open problems in federated learning. Foundations and Trends in Machine Learning. 2021. Vol. 14, No. 1–2. P. 1–210. DOI: https://doi.org/10.1561/2200000083.

Bonawitz K., Ivanov V., Kreuter B. et al. Practical secure aggregation for privacy-preserving machine learning. Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security (CCS '17). 2017. P. 1175–1191. DOI: https://doi.org/10.1145/3133956.3133982.

Li T., Sahu A. K., Talwalkar A., Smith V. Federated learning: Challenges, methods, and future directions. IEEE Signal Processing Magazine. 2020. Vol. 37, No. 3. P. 50–60. DOI: https://doi.org/10.1109/MSP.2020.2975749.

Geyer R. C., Klein T., Nabi M. Differentially private federated learning: A client level perspective. arXiv:1712.07557. 2017. DOI: https://doi.org/10.48550/arXiv.1712.07557.

Rose S., Borchert O., Mitchell S., Connelly S. Zero Trust Architecture. NIST Special Publication 800-207. Gaithersburg, MD: National Institute of Standards and Technology, 2020. DOI: https://doi.org/10.6028/NIST.SP.800-207.

Gosselin R., Vieu L., Loukil F., Benoit A. Privacy and security in federated learning: A survey. Appl. Sci. 2022. No. 12(19). Art. 9901. DOI: https://doi.org/10.3390/app12199901.

Shokri R., Stronati M., Song C., Shmatikov V. Membership inference attacks against machine learning models. 2017 IEEE Symposium on Security and Privacy (SP), San Jose, CA, USA, 2017. P. 3–18. DOI: https://doi.org/10.1109/SP.2017.41.

Veale M., Binns R., Edwards L. Algorithms that remember: Model inversion attacks and data protection law. Philos Trans A Math Phys Eng Sci. 2018. No. 376 (2133). Art. 20180083. DOI: https://doi.org/10.1098/rsta.2018.0083.

Barański S. A Survey on Privacy-Preserving Machine Learning Inference. TASK Quarterly. 2024. Vol. 28, No. 2. DOI: https://doi.org/10.34808/tq2024/28.2/b.

##submission.downloads##

Опубліковано

2026-04-09

Як цитувати

ЗАВГОРОДНЯ, Г., ЗАВГОРОДНІЙ, В., САВЧЕНКО, А., & ЛЕМЕШКО, А. (2026). МЕТОДИ ЗАБЕЗПЕЧЕННЯ БЕЗПЕКИ ТА ОБРОБКИ ПЕРСОНАЛІЗОВАНИХ ДАНИХ У СИСТЕМАХ АДАПТИВНОЇ ГЕНЕРАЦІЇ КОНТЕНТУ. Технології та інжиніринг, 27(1), 58–71. https://doi.org/10.30857/2786-5371.2026.1.6

Номер

Розділ

ІНФОРМАЦІЙНІ ТЕХНОЛОГІЇ, ЕЛЕКТРОНІКА, МЕХАНІЧНА ТА ЕЛЕКТРИЧНА ІНЖЕНЕРІЯ

Статті цього автора (авторів), які найбільше читають