Попередня обробка зображень об’єктів перед їх детектуванням засобами нейронної мережі YOLO
DOI:
https://doi.org/10.31861/sisiot2025.2.02002Ключові слова:
цифрова обробка зображень, штучні нейронні мережі, YOLO, детектування об’єктів, програмне забезпеченняАнотація
Розроблено програмне забезпечення на мові Python для попередньої цифрової обробки зображень об’єктів перед їх детектуванням за допомогою штучної нейронної мережі You Only Look Once (YOLO). Проведено детектування зображень об’єктів, а саме автомобілів та інших учасників дорожнього руху. Попередня обробка зображень виконувалася шляхом еквалізації їх гістограм та підвищенням локального контрасту. Початкові зображення зчитувалися з відеокамер або з графічних файлів. Детектування зображень виконано моделлю середнього розміру YOLOv8m згорткової нейронної мережі YOLO. У результаті детектування досліджувані об’єкти, зокрема, автомобілі, виділялися прямокутними рамками. Для оцінки точності детектування об’єктів використано ряд метрик (параметрів): Precision, Recall, Intersection over Union (IoU), F1, Average Precision (AP). Мережу YOLO попередньо навчено на наборі даних Common Objects in Context. Нейронна мережа YOLO повертає ймовірність розпізнавання об’єкта, координати його центру (x, y) на зображенні та ширину і висоту (w, h). Виявлені об’єкти виділяються прямокутними обмежувальними рамками. Встановлення положення обʼєктів на зображеннях виконувано в ручному режимі за допомогою інструменту Roboflow, який дозволяє точно встановити просторове положення кожного обʼєкту. Дослідження впливу попередньої обробки зображень об’єктів на точність їх детектування мережею YOLO виконано на прикладі типового зображення дорожнього руху. Після еквалізації гістограми вона стає більш симетричною і рівномірною, що підвищує візуальну якість навіть темних та світлих ділянок. За рахунок цього підвищено точність детектування обʼєктів практично за всіма метриками (параметрами). Збільшення точності детектування за параметром IoU складає 0.169. Сумарне покращення точності детектування за параметрами IoU, F1, AP складає 0.502. Показано, що після попередньої обробки зображень точність детектування обʼєктів підвищилася, тому детектування всіх автомобілів виконано правильно. Розроблене програмне забезпечення може застосовуватися у різноманітних системах комп’ютерного зору, а також у системах Інтернету речей для дистанційного моніторингу та контролю.
Завантажити
Посилання
O. P. Stelmakh, I. V. Stetsenko, and D. V. Velyhotskyi, “Information Technology of Video Data Processing for Traffic Intensity Monitoring,” Control Systems & Computers, vol. 3, pp. 50–59, 2020, doi: 10.15407/usim.2020.03.050.
M. A. Z. Al Bayati and M. Çakmak, “Real-Time Vehicle Detection for Surveillance of River Dredging Areas Using Convolutional Neural Networks,” International Journal of Image, Graphics and Signal Processing (IJIGSP), vol. 15, no. 5, pp. 17–28, 2023, doi: 10.5815/ijigsp.2023.05.02.
Zh. Hu, D. Uhryn, Yu. Ushenko, V. Korolenko, V. Lytvyn, and V. Vysotska, “System programming of a disease identification model based on medical images,” in Proc. SPIE: Sixteenth International Conference on Correlation Optics, vol. 12938, pp. 129380F-1–129380F-4, 2024, doi: 10.1117/12.3009245.
O. Berezsky, P. Liashchynskyi, O. Pitsun, P. Liashchynskyi, and M. Berezkyy, “Comparison of Deep Neural Network Learning Algorithms for Biomedical Image Processing,” CEUR Workshop Proceedings, pp. 135–145, 2022.
S. V. Balovsyak and I. M. Fodchuk, “Objects images alignment with the use of genetic and gradient algorithms,” International Journal of Computing, vol. 12, no. 2, pp. 160–167, 2013, doi: 10.47839/ijc.12.2.597.
S. V. Balovsyak, O. V. Derevyanchuk, Ya. V. Derevianchuk, V. V. Tomash, and S. V. Yarema, “Segmentation of railway transport images using fuzzy logic,” Trans Motauto World, vol. 7, no. 3, pp. 122–125, 2022.
S. Balovsyak, O. Kroitor, Kh. Odaiska, A. M. Salem, and S. Stets, “Car Image Recognition using Convolutional Neural Network with Effi-cientNet Architecture,” in IntelITSIS 2024: 5th International Workshop on Intelligent Information Technologies & Systems of Information Security, Khmelnytskyi, Ukraine, Mar. 28, 2024, CEUR Workshop Proceedings, vol. 3675, pp. 182–195, 2024.
Yu. Herman, H. Lastivka, and A. Samila, “Embedded Operating Systems in IoT Edge Computing,” Security of Infocommunication Systems and Internet of Things (SISIOT), vol. 2, no. 2, paper 02001, pp. 1–6, 2024, doi: 10.31861/sisiot2024.2.02001.
“Model Prediction with Ultralytics YOLO,” [Online]. Available: https://docs.ultralytics.com/modes/predict/#plotting-results.
A. Farid, F. Hussain, K. Khan, M. Shahzad, U. Khan, and Z. Mahmood, “A Fast and Accurate Real-Time Vehicle Detection Method Using Deep Learning for Unconstrained Environments,” Applied Sciences, vol. 13, no. 5, Article no. 3059, 2023. [Online]. Available: https://www.mdpi.com/2076-3417/13/5/3059.
X. Li, Y. Wang, H. Zhang, and J. Liu, “Vehicle–Pedestrian Detection Method Based on Improved YOLOv8,” Electronics, vol. 13, no. 11, Article no. 2149, 2024. [Online]. Available: https://www.mdpi.com/2079-9292/13/11/2149.
J. P. Q. Tomas, A. Aquino, G. E. M. David, R. D. Del Ayre, and J. K. L. Alminiana, “YOLOv8-Based Vehicle Type Detection: An In-Depth Exploration of Deep Learning Techniques for Robust Analysis of Dashcam Footage,” in Proceedings of the 2024 9th International Conference on Information and Communication Technology, pp. 91–96, 2024. [Online]. Available: https://dl.acm.org/doi/10.1145/3670085.3670098.
R. Gonzalez and R. Woods, Digital Image Processing, 4th ed. New York, NY, USA: Pearson/Prentice Hall, 2018.
S. Palani, Principles of Digital Signal Processing. Cham, Switzerland: Springer, 2022.
D. Kim and D. Hwang, Eds., Intelligent Imaging and Analysis. Basel, Switzerland: MDPI, 2020.
A. Geron, Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow. Sebastopol, CA, USA: O’Reilly Media, Inc., 2019.
S. Balovsyak, Kh. Odaiska, O. Yakovenko, and I. Iakovlieva, “Adjusting the Brightness and Contrast parameters of digital video cameras using artificial neural networks,” in Proc. SPIE: Sixteenth International Conference on Correlation Optics, vol. 12938, pp. 129380I-1–129380I-4, 2024, doi: 10.1117/12.3009429.
J. Redmon and A. Farhadi, “YOLOv3: An Incremental Improvement,” arXiv preprint, 2018, arXiv:1804.02767. [Online]. Available: https://arxiv.org/abs/1804.02767.
“Roboflow Annotation Tool,” Roboflow. [Online]. Available: https://roboflow.com.
D. Suresha and H. N. Prakash, “Data Content Weighing for Subjective versus Objective Picture Quality Assessment of Natural Pictures,” International Journal of Image, Graphics and Signal Processing (IJIGSP), vol. 9, no. 2, pp. 27–36, 2017.
S. V. Balovsyak and Kh. S. Odaiska, “Automatic Highly Accurate Estimation of Gaussian Noise Level in Digital Images Using Filtration and Edges Detection Methods,” International Journal of Image, Graphics and Signal Processing (IJIGSP), vol. 9, no. 12, pp. 1–11, 2017, doi: 10.5815/ijigsp.2017.12.01.
“CamSeq01 Dataset, Cambridge Labeled Objects in Video,” [Online]. Available: http://mi.eng.cam.ac.uk/research/projects/VideoRec/CamSeq01.
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 Безпека інфокомунікаційних систем та Інтернету речей

Ця робота ліцензується відповідно до ліцензії Creative Commons Attribution 4.0 International License.







