Формування тривимірної моделі барельєфа на основі 2D-зображення
DOI:
https://doi.org/10.31861/sisiot2025.2.02011Ключові слова:
барельєф, тривимірне моделювання, оцінка глибини, нейронні мережі, формат STLАнотація
У статті запропоновано повністю автоматизовану методику створення тривимірних моделей барельєфів на основі звичайних двовимірних зображень. Розроблений підхід передбачає використання глибинної нейронної мережі ZoeDepth для автоматичного формування точних карт глибини без необхідності ручного редагування або калібрування камери. Отримані карти глибини проходять послідовну обробку в Python: значення глибини нормалізуються та масштабуються відповідно до реальних фізичних розмірів зображення, після чого за методом тріангуляції формується полігональна сітка. У результаті згенерована модель у форматі STL придатна для швидкого 3D-друку або подальшого редагування. Ключові переваги запропонованої системи – це гнучкість налаштування розмірів через інтерфейс командного рядка, відсутність потреби ручного втручання в процес побудови карти глибини та універсальність застосування мережі для найрізноманітніших сцен, як-от архітектурні деталі, художні твори або промислові об’єкти. Проведені експерименти демонструють, що час формування карти глибини на центральному процесорі для зображення розміром 800 × 800 пікселів становить близько 120 секунд, а тріангуляція та збереження моделі у файл – близько 110 секунд. При збільшенні роздільної здатності вхідного зображення відповідно зростає й загальний час обробки. Для досягнення найвищої якості карти глибини рекомендовано застосовувати метод до контрастних сцен із виразними деталями, оскільки нечіткі та розмиті зображення породжують артефакти в карті глибини та фінальній моделі. У порівнянні з Blender наше рішення також досягає якісного результату у створенні барельєфу. Скорочення обсягу ручних налаштувань та автоматизація процесів формування барельєфу дають змогу швидко та якісно отримати модель із потрібними параметрами. Кількісна оцінка виявила, що середня відносна похибка становить менше ніж 7.7 %, а порогова точність – понад 95.3 %, що вказує на те, що понад 95 % оцінювань глибини пікселів лежать у межах 25 % від справжніх значень. Якісна перевірка підтвердила, що отримані рельєфи зберігають важливі геометричні деталі та вирівнювання поверхні навіть на раніше непомітних вхідних даних. Порівняльний аналіз показує значне зменшення обсягу ручного оброблення та загального часу моделювання порівняно з традиційними робочими процесами скульптування на основі Blender без втрати якості отриманої тріангуляційної сітки.
Завантажити
Посилання
M. M. Lybovets and O. V. Oletsky, Artificial intelligence: a textbook [for students of higher education]. Kyiv: KM Academy, 2002, 336 p.
N. B. Shakhovska, R. M. Kaminsky, and O. B. Vovk, Artificial intelligence systems: a textbook. Lviv: Lviv Polytechnic Publishing House, 2018, 392 p.
DaeEun Kim and Dosik Hwang, Eds., Intelligent Imaging and Analysis. Switzerland, Basel: MDPI, 2020, 492 p. [Online]. Available: https://mdpi.com/books/pdfview/book/2059. DOI: 10.3390/books978-3-03921-921-6.
L. Zhu and P. Spachos, “Towards Image Classification with Machine Learning Methodologies for Smartphones,” Machine Learning and Knowledge Extraction, 2019, No. 1(4), pp. 1039–1057.
S. D. Shtovba and V. V. Mazurenko, Intelligent technologies for identifying dependencies. Laboratory practical: electronic textbook. Vinnytsia: VNTU, 2014, 113 p.
R. Gonzalez and R. Woods, Digital image processing, 4th edidion. NY: Pearson/ Prentice Hall, 2018, 1192 p.
S. Krigg, Computer Vision Metrics. Survey, Taxonomy, and Analysis. Spredd Open, 2014, 498 p.
J. C. Russ, The Image Processing. Handbook [Sixth Edition]. Taylor & Francis Group, LLC, 2011, 853 p.
J. L. Schonberger and J. M. Frahm, “Structure-from-Motion Revisited,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 27–30 June 2016, pp. 4104–4113.
“COLMAP Documentation.” [Online]. Available: https://colmap.github.io/.
“OpenMVG Documentation.” [Online]. Available: https://github.com/openMVG/openMVG/wiki.
“OpenMVS Documentation.” [Online]. Available: https://github.com/cdcseacave/openMVS/wiki.
K. N. Kutulakos and S. M. Seitz, “A Theory of Shape by Space Carving. A theory of shape by space carving,” International Journal of Computer Vision, 38 (3), 2000, pp. 199–218.
“OpenCV Documentation.” [Online]. Available: https://docs.opencv.org/4.x/.
“MiDaS: Towards Robust Monocular Depth Estimation: Mixing Datasets for Zero-shot Cross-dataset Transfer.” [Online]. Available: https://arxiv.org/pdf/1907.01341v3.
“ZoeDepth: Zero-shot Transfer by Combining Relative and Metric Depth.” [Online]. Available: https://arxiv.org/pdf/2302.12288.
Blender Foundation, Blender – Open Source 3D Creation Software. [Online]. Available: https://www.blender.org/.
“Python Documentation.” [Online]. Available: https://docs.python.org/3/.
“Depth Maps: How Software Encodes 3D Space.” [Online]. Available: https://blog.lookingglassfactory.com/depth-maps-how-software-encodes-3d-space/.
“Image to Lithophane.” [Online]. Available: https://3dp.rocks/lithophane/.
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Безпека інфокомунікаційних систем та Інтернету речей

Ця робота ліцензується відповідно до ліцензії Creative Commons Attribution 4.0 International License.









