МЕТОДИ ЗАБЕЗПЕЧЕННЯ БЕЗПЕКИ ТА ОБРОБКИ ПЕРСОНАЛІЗОВАНИХ ДАНИХ У СИСТЕМАХ АДАПТИВНОЇ ГЕНЕРАЦІЇ КОНТЕНТУ
DOI:
https://doi.org/10.30857/2786-5371.2026.1.6Ключові слова:
адаптивна генерація контенту, персоналізовані дані, диференційна приватність, федеративне навчання, шифрування, архітектура безпекиАнотація
Мета. Метою статті є розроблення комплексного підходу до забезпечення безпеки та коректної обробки персоналізованих даних у системах адаптивної генерації контенту. Запропонований підхід базується на формалізації простору персоналізованих даних користувачів, застосуванні методів анонімізації та псевдонімізації, використанні механізмів диференційної приватності (Differential Privacy), федеративного навчання (Federated Learning) та інтеграції сучасних криптографічних і архітектурних засобів захисту.
Методика. Дослідження спирається на системний аналіз архітектур адаптивних систем і багатовимірного простору ознак користувацьких даних. Для оцінки ризику деанонімізації застосовано математичні моделі диференційної приватності, а для захисту розподілених даних – протоколи федеративного навчання з безпечною агрегацією градієнтів. Проведено порівняльний аналіз сучасних методів захисту персональних даних, моделювання загроз та розроблено багаторівневу архітектурну модель безпеки, що враховує принципи Zero Trust, контроль доступу за ролями (RBAC), шифрування та аудит подій.
Результати. Запропоновано формалізовану модель простору персоналізованих даних, яка дозволяє класифікувати рівні чутливості інформації, визначати допустимі перетворення та інтегрувати їх із методами анонімізації. Доведено ефективність ε-диференційної приватності для контролю ризику деанонімізації при навчанні моделей. Розроблено узагальнену схему поєднання федеративного навчання та криптографічних протоколів безпечної агрегації, що забезпечує конфіденційність користувацьких даних без втрати точності моделей. Створено багаторівневу архітектурну систему захисту, яка включає шифрування даних, контроль доступу, аудит і моніторинг, забезпечуючи баланс між безпекою, масштабованістю та ефективністю генерації контенту.
Наукова новизна. Полягає у комплексному поєднанні формальної моделі персоналізованих даних з механізмами диференційної приватності та федеративного навчання в межах єдиної архітектурної концепції безпеки, що дозволяє одночасно забезпечити конфіденційність, масштабованість та ефективність обробки даних у системах адаптивної генерації контенту.
Практична значимість. Результати можуть бути застосовані при розробленні освітніх платформ, ігрових систем, рекомендаційних сервісів та інших інтелектуальних систем, що працюють із персоналізованими профілями користувачів, потребують високого рівня безпеки даних та відповідності сучасним стандартам захисту інформації.
Завантаження
Посилання
Завгородній В. В., Завгородня Г. А., Валявська Н. О., Адаменко В. С., Дороговцев Є. В., Несмачний П. В. Метод автоматичної генерації контенту на основі процедурних алгоритмів. Вчені записки Таврійського національного університету імені В. І. Вернадського. Серія: Технічні науки. 2022. Т. 33 (72), № 1. С. 91–96. DOI: https://doi.org/10.32838/2663-5941/2022.1/15.
Завгородня Г. А., Завгородній В. В. Використання алгоритмів машинного навчання для динамічної адаптації складності комп’ютерних ігор. Таврійський науковий вісник. Серія: Технічні науки. 2025. № 1(5). С. 156–163. DOI: https://doi.org/10.32782/tnv-tech.2025.5.1.16.
Завгородня Г. А., Завгородній В. В. Розробка масштабованої розподіленої архітектури для масових багатокористувацьких онлайн-систем. Вісник Херсонського національного технічного університету. 2025. № 4(95), Ч. 3. С. 99–106. DOI: https://doi.org/10.35546/kntu2078-4481.2025.4.3.11.
Завгородня Г. А., Завгородній В. В. Моделювання поведінки гравця через нейромережеві агенти. Вчені записки ТНУ імені В. І. Вернадського. Серія: Технічні науки. 2025. Т. 36 (75), № 5, Ч. 2. С. 141–145. DOI: https://doi.org/10.32782/2663-5941/2025.6.2/20.
Rocher L., Hendrickx J. M., de Montjoye Y.-A. Estimating the success of re-identifications in incomplete datasets using generative models. Nature Communications. 2019. Vol. 10. Article 3069. DOI: https://doi.org/10.1038/s41467-019-10933-3.
Abadi M., Chu A., Goodfellow I. et al. Deep learning with differential privacy. Proceedings of the 2016 ACM SIGSAC Conference on Computer and Communications Security (ACM CCS). 2016. P. 308–318. DOI: https://doi.org/10.1145/2976749.2978318.
Kairouz P., McMahan H. B., Avent B. et al. Advances and open problems in federated learning. Foundations and Trends in Machine Learning. 2021. Vol. 14, No. 1–2. P. 1–210. DOI: https://doi.org/10.1561/2200000083.
Bonawitz K., Ivanov V., Kreuter B. et al. Practical secure aggregation for privacy-preserving machine learning. Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security (CCS '17). 2017. P. 1175–1191. DOI: https://doi.org/10.1145/3133956.3133982.
Li T., Sahu A. K., Talwalkar A., Smith V. Federated learning: Challenges, methods, and future directions. IEEE Signal Processing Magazine. 2020. Vol. 37, No. 3. P. 50–60. DOI: https://doi.org/10.1109/MSP.2020.2975749.
Geyer R. C., Klein T., Nabi M. Differentially private federated learning: A client level perspective. arXiv:1712.07557. 2017. DOI: https://doi.org/10.48550/arXiv.1712.07557.
Rose S., Borchert O., Mitchell S., Connelly S. Zero Trust Architecture. NIST Special Publication 800-207. Gaithersburg, MD: National Institute of Standards and Technology, 2020. DOI: https://doi.org/10.6028/NIST.SP.800-207.
Gosselin R., Vieu L., Loukil F., Benoit A. Privacy and security in federated learning: A survey. Appl. Sci. 2022. No. 12(19). Art. 9901. DOI: https://doi.org/10.3390/app12199901.
Shokri R., Stronati M., Song C., Shmatikov V. Membership inference attacks against machine learning models. 2017 IEEE Symposium on Security and Privacy (SP), San Jose, CA, USA, 2017. P. 3–18. DOI: https://doi.org/10.1109/SP.2017.41.
Veale M., Binns R., Edwards L. Algorithms that remember: Model inversion attacks and data protection law. Philos Trans A Math Phys Eng Sci. 2018. No. 376 (2133). Art. 20180083. DOI: https://doi.org/10.1098/rsta.2018.0083.
Barański S. A Survey on Privacy-Preserving Machine Learning Inference. TASK Quarterly. 2024. Vol. 28, No. 2. DOI: https://doi.org/10.34808/tq2024/28.2/b.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Авторське право (c) 2026 Ганна ЗАВГОРОДНЯ, Валерій ЗАВГОРОДНІЙ, Андрій САВЧЕНКО, Андрій ЛЕМЕШКО

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.