1 documents found
Information × Registration Number 2125U001381, Article popup.category Бакалаврська робота Title popup.author popup.publication 01-01-2025 popup.source_user Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського» popup.source https://ela.kpi.ua/handle/123456789/74119 popup.publisher Київ Description Кваліфікаційна робота містить: 65 сторінок, 8 рисунків, 3 таблиці, 23 джерела. Розвиток комп’ютерного зору відкриває широкі можливості для автоматизованого аналізу візуальної інформації, зокрема у будівельній галузі. Це має особливе значення для контролю за технічним станом об’єктів та забезпечення безпеки праці. Одним з основних напрямів такого аналізу є сегментація екземплярів, яка дозволяє точно відокремлювати кожен об’єкт на зображенні. Складність сцен на будівельних майданчиках вимагає застосування сучасних глибоких моделей, здатних до високоточної сегментації. У цій роботі проведено порівняльний аналіз трьох сучасних нейромережевих архітектур для сегментації екземплярів: двоетапної Mask R-CNN, одноетапної YOLOv8l-seg та трансформерної Mask2Former. Дослідження базувалося на реальному наборі даних Alberta Constructіon іmage Dataset (ACіD), який містить зображення будівельної техніки. У межах роботи було виконано попередню обробку даних, навчання моделей та їх оцінювання за метриками середньої точності (mAP) та швидкодії (FPS). Результати експериментів показали, що Mask2Former досягає найвищої якості сегментації, YOLOv8l-seg забезпечує максимальну швидкодію при збереженні високої точності, тоді як Mask R-CNN поступається сучаснішим підходам за загальною ефективністю. Отримані висновки можуть слугувати основою для обґрунтованого вибору оптимальної моделі залежно від конкретних вимог до точності або швидкодії у практичних задачах. popup.nrat_date 2025-08-18 Close
Article
Бакалаврська робота
: published. 2025-01-01; Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», 2125U001381
1 documents found

Updated: 2026-03-27