СЕГМЕНТАЦИЯ ОСВЕЩЕННЫХ УЧАСТКОВ СЦЕНЫ С ИСПОЛЬЗОВАНИЕМ ПОЛНОСВЕРТОЧНЫХ НЕЙРОННЫХ СЕТЕЙ И АЛГОРИТМОВ КОМПЬЮТЕРНОГО ЗРЕНИЯ ДЛЯ СИСТЕМ ДОПОЛНЕННОЙ РЕАЛЬНОСТИ
Аннотация и ключевые слова
Аннотация (русский):
Актуальность данной темы обусловлена бурным развитием систем виртуальной и дополненной реальности. Проблема заключается в формировании естественных условий освещения объектов виртуального мира в реальном пространстве. Для решения задачи определения источников света и восстановления его оптических параметров была предложена полносверточная нейронная сеть, позволяющая «схватить» особенности поведения света. На выходе нейронной сети получаем сегментированное изображение с классами и уровнями освещенности. Полносверточная нейронная сеть отлично подходит для сегментации изображения, поэтому в качестве «энкодера» была взята архитектура VGG-16 со слоями, которые сворачивают некую область входного изображения до 1x1 пикселя и классифицируют его к одному из классов. Обучение полносверточной нейронной сети осуществлялось на 221 тренировочных и 39 проверочных изображениях со скоростью обучения 1E-2 на 200 эпохах. После обучения по критерию оценки “IoU” (intersection over union) точность составила порядка 70 процентов, а точность классификации к первому классу составила практически 90 процентов.

Ключевые слова:
классификация, освещение, свёрточные нейронные сети, сегментация
Список литературы

1. Hold-Geoffroy, Y., Sunkavalli, K., Hadap, S., Gambaretto, E. and Lalonde, J.-F., "Deep outdoor illumination estimation," In Proceedings of the International Conference on Computer Vision and Pattern Recognition (CVPR) (2017).

2. Lalonde, J.-F., Efros, A. A. and Narasimhan, S. G., "Estimating the natural illumination conditions from a single outdoor image," International Journal of Computer Vision, 98(2), 123-145 (2012).

3. Gardner, M.-A., Sunkavalli, K., Yumer, E., Shen, X., Gambaretto, E., Gagné, C. and Lalonde, J.-F., "Learning to predict indoor illumination from a single image," ACM Transactions on Graphics (Proceedings of SIGGRAPH Asia), preprints (2017).

4. Lombardi, S. and Nishino, K., "Reflectance and Illumination Recovery in the Wild," IEEE Transactions on Pattern Analysis and Machine Intelligence 38, 129- 141 (2016).

5. Eigen, D. and Fergus, R., "Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-Scale Convolutional Architecture, " International Conference on Computer Vision (2015).

6. Girshick, R. B., Donahue, J., Darrell, T. and Malik, J., "Rich feature hierarchies for accurate object detection and semantic segmentation," CVPR (2014).

7. Sermanet, P., Eigen, D., Zhang, X., Mathieu, M., Fergus, R. and LeCun, Y., "Overfeat: Integrated recognition, localization and detection using convolutional networks," ICLR (2013).

8. Simonyan, K. and Zisserman, A., "Very deep convolutional networks for large-scale image recognition," CoRR, abs/1409.1556 (2014).

9. Szegedy, C., Liu, W., Jia, Y., Sermanet, P., Reed, S., Anguelov, D., Erhan, D., Vanhoucke, V. and Rabinovich, A., "Going deeper with convolutions," CoRR, abs/1409.4842 (2014).

10. "Lumicept | Integra Inc.," Integra Inc., 2019, <https://integra.jp/en/products/lumicept> (April 12, 2019).

11. Д.Д. Жданов, С.В. Ершов, А.Г. Волобой. Метод подавления стохастического шума изображения, сгенерированного Монте-Карло трассировкой лучей, сохраняющий мелкие детали // Препринты ИПМ им. М.В. Келдыша. 2018. № 194. 15 с.

12. С.В. Ершов, Д.Д. Жданов, А.Г. Волобой. Модификация стохастический трассировки лучей для снижения шума на диффузных поверхностях // Препринты ИПМ им. М.В. Келдыша. 2018. № 204. 17 с.

13. Heymann, S., Smolic, A., Müller, K., Froehlich, B., "Illumination reconstruction from real-time video for interactive augmented reality," International Workshop on Image Analysis for Multimedia Interactive Services (WIAMIS), (2005)

14. Bruno Augusto Dorta, M., Rafael Rego, D., Cristina Nader, Vasconcelos., Esteban, C., "Deep light source estimation for mixed reality," VISIGRAPP 2018 - Proceedings of the 13th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications, (303-311), (2018)

15. Salma, J., Philippe, R., Eric, M., "Illumination Estimation Using Cast Shadows for Realistic Augmented Reality Applications," Adjunct Proceedings of the 2017 IEEE International Symposium on Mixed and Augmented Reality, ISMAR-Adjunct (2017)

16. Frahm, Jan-Michael., Koeser, K., Grest, D., Koch, R., "Markerless Augmented Reality with Light Source Estimation for Direct Illumination," European Conference on Visual Media Production, (211-220), (2005)

17. Long, J., Shelhamer, E. and Darrell T., "Fully Convolutional Networks for Semantic Segmentation," The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 3431- 3440 (2015).

18. Xu-yang Wang; Dmitry D. Zhdanov; Igor S. Potemin; Ying Wang and Han Cheng. The efficient model to define a single light source position by use of high dynamic range image of 3D scene // Proc. SPIE 10020, Optoelectronic Imaging and Multimedia Technology IV, 100200I (October 31, 2016)

Войти или Создать
* Забыли пароль?