ПОВЫШЕНИЕ ОБЪЯСНИМОСТИ ОБНАРУЖЕНИЯ ДИПФЕЙКОВ С ПОМОЩЬЮ ГРАФОВОЙ СЕТИ НА ОСНОВЕ СОСРЕДОТОЧЕНИЯ ВНИМАНИЯ
Аннотация
Понимание о том, как именно модели искусственного интеллекта принимают решения, важно, в особенности для таких сложных задач, как обнаружение дипфейков, где недостаточно просто получить результат – необходимо знать, почему именно модель приняла такое решение. Многие существующие методы интерпретации моделей искусственного интеллекта, такие как SHAP и Grad-CAM, помогают объяснить полученные решения, но зачастую полученные объяснения недостаточно детализированы для таких сложных данных как человеческие лица и дипфейки. В данной статье представлен новый метод с использованием графовых сетей с механизмом внимания (GAT) для задачи интерпретации решений детекторов дипфейков. Вместо того чтобы рассматривать изображение в целом, оно разбивается на патчи, а затем формируются в граф, где каждая ключевая часть лица (глаза, нос и рот) является отдельным узлом. Такое разбиение помогает модели учитывать при принятии решений наиболее важные области изображения. С помощью механизма внимания, модель выявляет, какие области изображения и лица повлияли на её решение. Проведено сравнивние двух версий механизма внимания, GATv1 и GATv2, и показано, как создается визуальная интерпретация с их помощью. При этом сохраняется высокая точность для классификатора дипфейков. Предложенный подход повышает понимание о том, как модель обрабатывает изображения, то есть, какие признаки оказались наиболее важными при принятии решения. Таким образом повышается доверие к работе модели искусственного интеллекта. Код в открытом доступе по адресу https://github.com/aleksandrpikul/ResGAT/tree/main.
Ключевые слова
Полный текст:
PDF (English)Литература
[1] Breiman L. Random Forests. Machine Learning, v. 45, no. 1, p. 5–32, 2001.
DOI: http://dx.doi.org/10.1023/A:1010933404324.
[2] Ribeiro M.T., Singh S., and Guestrin C.Why Should I Trust You?: Explaining the Predictions of Any Classifier. Proc. 22nd ACM SIGKDD Int. Conf. Knowledge Discovery Data Mining, p. 1135–1144, 2016.
DOI: 10.1145/2939672.2939778.
[3] Selvaraju R.R., Cogswell M., Das A., Vedantam R., Parikh D., and Batra D. Grad-CAM: Visual Explanations from Deep Networks via Gradient-Based Localization. Proc. IEEE Int. Conf. Computer Vision, p. 618–626, 2017. DOI: 10.1109/ICCV.2017.74.
[4] Lundberg S.M. and Lee S.-I. A Unified Approach to Interpreting Model Predictions. Adv. Neural Inf. Process. Syst., v. 30, p. 4765–4774, 2017. DOI: https://doi.org/10.48550/arXiv.1705.07874.
[5] Friedman J.H. Greedy Function Approximation: A Gradient Boosting Machine. Ann. Statist., v. 29, no. 5,
p. 1189–1232, 2001. DOI: 10.1214/aos/1013203451.
[6] Sundararajan M., Taly A., and Yan Q. Axiomatic Attribution for Deep Networks. Proc. 34th Int. Conf. Machine Learning, p. 3319–3328, 2017. URL: http://proceedings.mlr.press/v70/sundararajan17a.html (accessed: 07.12.2025).
[7] Fernandez I. Sanchez. Towards Multi-Granular Explainable AI: Increasing the Explainability Level for Deepfake Detectors. M.S. thesis, Univ. Oulu, 2022. URL: https://www.politesi.polimi.it/handle/10589/180027 (accessed: 07.12.2025).
[8] Singh A., Agarwal S., Chauhan P. and Sinha A. Explainable Deepfake Video Detection using Convolutional Neural Network and CapsuleNet. Proc. Int. Conf. Machine Learning Applications, 2021.
DOI: https://doi.org/10.48550/arXiv.2404.12841.
[9] Mathews S., Trivedi S., House A., Povolny S. and Fralick C. An explainable deepfake detection framework on a novel unconstrained dataset. J. Advances in Science and Research, v. 9, p. 4425–4437, Jan. 2023.
URL: https://link.springer.com/article/10.1007/s40747-022-00956-7 (accessed: 07.12.2025).
[10] Guo D., Wang H., Wang Y., Liang J., Zhang J. and Chang M. DeepExplain: Enhancing DeepFake Detection Through Transparent and Explainable AI Model. J. Artif. Intell. Res., v. 70, p. 593–626, 2021. DOI:10.31449/inf.v48i8.5792.
[11] Zhou P., Han X., Morariu V.I., andDavis L.S. Two-Stream Neural Networks for Tampered Face Detection. Proc. IEEE Conf. Computer Vision Pattern Recognit. Workshops, p. 1831–1839, 2018.
DOI: 10.1109/CVPRW.2017.229.
[12] Johnson M., Smith L. and Nguyen T. Securing Online Integrity: A Hybrid Approach to Deepfake Detection and Removal using Explainable AI and Adversarial Robustness Training. Proc. AAAI Conf. Artif. Intell.,
p. 1234–1241, 2021.
DOI: https://doi.org/10.1080/00051144.2024.2400640.
[13] Chawla V. Explainable Attention Based Deepfake Detector. GitHub repository.
URL: https://github.com/vineethChawla/Explainable_Attention_Based_Deepfake_Detector (accessed: 07.12.2025).
[14] Wu Z., Pan S., Chen F., Long G., Zhang C., and Philip S.Y. A Comprehensive Survey on Graph Neural Networks. IEEE Trans. Neural Netw. Learn. Syst., v. 32, no. 1, p. 4–24, 2020.
DOI: 10.1109/TNNLS.2020.2978386.
[15] Pope P.E., Kolouri S., Rostami M., Martin C.E. and Hoffmann H. Explainability Methods for Graph Convolutional Neural Networks. Proc. IEEE/CVF Conf. Computer Vision Pattern Recognit., p. 10772–10781, 2019. DOI: 10.1109/CVPR.2019.01103.
[16] Silva S.H., Bethany M., Votto A.M. and Scarff I.H. Deepfake forensics analysis: An explainable hierarchical ensemble of weakly supervised models. Forensic Science International Synergy, v. 4, no. 1, Jan. 2022.
DOI: 10.1016/j.fsisyn.2022.100217.
[17] Pikul A.S. and Lependin A.A. Deep neural network with graph attention for detecting fake facial images. Conference paper, v. 20, p. 190–193, 2023. URL: https://www.elibrary.ru/item.asp?id=69182160
(accessed: 07.12.2024) (in Russian).
[18] He K., Zhang X., Ren S. and Sun J. Deep Residual Learning for Image Recognition. Proc. IEEE Conf. Computer Vision Pattern Recognit., p. 770–778, 2016. DOI: 10.1109/CVPR.2016.90.
[19] Veličković P., Cucurull G., Casanova A., Romero A., Liò P. and Bengio Y. Graph Attention Networks. Int. Conf. Learn. Represent., 2018. URL: https://arxiv.org/abs/1710.10903 (accessed: 07.12.2025).
[20] Brody S., Alon U. and Yahav E. How Attentive are Graph Attention Networks?Int. Conf. Learn. Represent., 2021. URL: https://arxiv.org/abs/2105.14491 (accessed: 07.12.2025).
[21] Dolhansky B., Howes R., Pflaum B., Baram N. and C.C. Ferrer. The DeepFake Detection Challenge (DFDC) Dataset. arXiv preprint arXiv:2006.07397, 2019. URL: https://arxiv.org/abs/2006.07397 (accessed: 07.12.2024).
[22] Rössler A., Cozzolino D., Verdoliva L., Riess C., Thies J. and Nießner M. FaceForensics++: Learning to Detect Manipulated Facial Images. Proc. IEEE Int. Conf. Computer Vision, p. 1–11, 2019.
DOI: 10.48550/arXiv.1901.08971.
DOI: http://dx.doi.org/10.26583/bit.2025.2.06
Ссылки
- На текущий момент ссылки отсутствуют.

Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.