Формування тривимірної моделі барельєфа на основі 2D-зображення

Автор(и)

DOI:

https://doi.org/10.31861/sisiot2025.2.02011

Ключові слова:

барельєф, тривимірне моделювання, оцінка глибини, нейронні мережі, формат STL

Анотація

У статті запропоновано повністю автоматизовану методику створення тривимірних моделей барельєфів на основі звичайних двовимірних зображень. Розроблений підхід передбачає використання глибинної нейронної мережі ZoeDepth для автоматичного формування точних карт глибини без необхідності ручного редагування або калібрування камери. Отримані карти глибини проходять послідовну обробку в Python: значення глибини нормалізуються та масштабуються відповідно до реальних фізичних розмірів зображення, після чого за методом тріангуляції формується полігональна сітка. У результаті згенерована модель у форматі STL придатна для швидкого 3D-друку або подальшого редагування. Ключові переваги запропонованої системи – це гнучкість налаштування розмірів через інтерфейс командного рядка, відсутність потреби ручного втручання в процес побудови карти глибини та універсальність застосування мережі для найрізноманітніших сцен, як-от архітектурні деталі, художні твори або промислові об’єкти. Проведені експерименти демонструють, що час формування карти глибини на центральному процесорі для зображення розміром 800 × 800 пікселів становить близько 120 секунд, а тріангуляція та збереження моделі у файл – близько 110 секунд. При збільшенні роздільної здатності вхідного зображення відповідно зростає й загальний час обробки. Для досягнення найвищої якості карти глибини рекомендовано застосовувати метод до контрастних сцен із виразними деталями, оскільки нечіткі та розмиті зображення породжують артефакти в карті глибини та фінальній моделі. У порівнянні з Blender наше рішення також досягає якісного результату у створенні барельєфу. Скорочення обсягу ручних налаштувань та автоматизація процесів формування барельєфу дають змогу швидко та якісно отримати модель із потрібними параметрами. Кількісна оцінка виявила, що середня відносна похибка становить менше ніж 7.7 %, а порогова точність – понад 95.3 %, що вказує на те, що понад 95 % оцінювань глибини пікселів лежать у межах 25 % від справжніх значень. Якісна перевірка підтвердила, що отримані рельєфи зберігають важливі геометричні деталі та вирівнювання поверхні навіть на раніше непомітних вхідних даних. Порівняльний аналіз показує значне зменшення обсягу ручного оброблення та загального часу моделювання порівняно з традиційними робочими процесами скульптування на основі Blender без втрати якості отриманої тріангуляційної сітки.

Завантажити

Дані для завантаження поки недоступні.

Біографії авторів

  • Віталій Арійчук, Чернівецький національний університет імені Юрія Федьковича

    Аспірант кафедри комп'ютерних систем і мереж Чернівецького національного університету імені Юрія Федьковича, Україна. Інженер-програміст. Інтереси та досвід: прикладна геометрія, обчислювальна геометрія, розпізнавання ознак, системи САПР. Його робота зосереджена на 3D-моделюванні барельєфів за допомогою нейронних мереж і Python.

  • Юлія Танасюк, Чернівецький національний університет імені Юрія Федьковича

    Кандидат фізико-математичних наук, доцент кафедри комп'ютерних систем і мереж НН інституту фізико-технічних і комп'ютерних наук Чернівецького національного університету імені Юрія Федькова, Україна. Наукові інтереси та академічна діяльність: програмування, мережеві інформаційні технології, кібербезпека, Інтернет речей, програмна інженерія.

Посилання

M. M. Lybovets and O. V. Oletsky, Artificial intelligence: a textbook [for students of higher education]. Kyiv: KM Academy, 2002, 336 p.

N. B. Shakhovska, R. M. Kaminsky, and O. B. Vovk, Artificial intelligence systems: a textbook. Lviv: Lviv Polytechnic Publishing House, 2018, 392 p.

DaeEun Kim and Dosik Hwang, Eds., Intelligent Imaging and Analysis. Switzerland, Basel: MDPI, 2020, 492 p. [Online]. Available: https://mdpi.com/books/pdfview/book/2059. DOI: 10.3390/books978-3-03921-921-6.

L. Zhu and P. Spachos, “Towards Image Classification with Machine Learning Methodologies for Smartphones,” Machine Learning and Knowledge Extraction, 2019, No. 1(4), pp. 1039–1057.

S. D. Shtovba and V. V. Mazurenko, Intelligent technologies for identifying dependencies. Laboratory practical: electronic textbook. Vinnytsia: VNTU, 2014, 113 p.

R. Gonzalez and R. Woods, Digital image processing, 4th edidion. NY: Pearson/ Prentice Hall, 2018, 1192 p.

S. Krigg, Computer Vision Metrics. Survey, Taxonomy, and Analysis. Spredd Open, 2014, 498 p.

J. C. Russ, The Image Processing. Handbook [Sixth Edition]. Taylor & Francis Group, LLC, 2011, 853 p.

J. L. Schonberger and J. M. Frahm, “Structure-from-Motion Revisited,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, 27–30 June 2016, pp. 4104–4113.

“COLMAP Documentation.” [Online]. Available: https://colmap.github.io/.

“OpenMVG Documentation.” [Online]. Available: https://github.com/openMVG/openMVG/wiki.

“OpenMVS Documentation.” [Online]. Available: https://github.com/cdcseacave/openMVS/wiki.

K. N. Kutulakos and S. M. Seitz, “A Theory of Shape by Space Carving. A theory of shape by space carving,” International Journal of Computer Vision, 38 (3), 2000, pp. 199–218.

“OpenCV Documentation.” [Online]. Available: https://docs.opencv.org/4.x/.

“MiDaS: Towards Robust Monocular Depth Estimation: Mixing Datasets for Zero-shot Cross-dataset Transfer.” [Online]. Available: https://arxiv.org/pdf/1907.01341v3.

“ZoeDepth: Zero-shot Transfer by Combining Relative and Metric Depth.” [Online]. Available: https://arxiv.org/pdf/2302.12288.

Blender Foundation, Blender – Open Source 3D Creation Software. [Online]. Available: https://www.blender.org/.

“Python Documentation.” [Online]. Available: https://docs.python.org/3/.

“Depth Maps: How Software Encodes 3D Space.” [Online]. Available: https://blog.lookingglassfactory.com/depth-maps-how-software-encodes-3d-space/.

“Image to Lithophane.” [Online]. Available: https://3dp.rocks/lithophane/.

Завантаження


Переглядів анотації: 264

Опубліковано

2025-12-30

Номер

Розділ

Статті

Як цитувати

Схожі статті

1-10 з 53

Ви також можете розпочати розширений пошук схожих статей для цієї статті.