navis

VPP (yolo7-segmentation) 본문

AI

VPP (yolo7-segmentation)

menstua 2024. 6. 16. 16:01
728x90

1. 목차

  • 환경설정
  • 모델 : yolo7-segmentation
  • 추론 결과
    • 결과 확인
  • 최종 결과

2. 환경 설정

  • AI 모델 테스트 환경
    • Ubuntu 22.04(워크스테이션)
    • Anaconda
    • VS Code
    • Python 3.8.18
  • 환경설정
git clone <https://github.com/RizwanMunawar/yolov7-segmentation.git>
pip install --upgrade pip
pip install -r requirements.txt

# 스크립트
python3 segment/predict.py --weights yolov7-seg.pt --source "input.mp4" --save-txt --project "./output" --name "test

3. FastSAM

https://github.com/RizwanMunawar/yolov7-segmentation

  1. 모델 (yolo7-segmentation)

4. 추론 결과

input Video (yolo7-segmentation)

 

 

output Video (yolo7-segmentation)

 

 

6. 최종 결과

yolo에서 유명한 segmentation 모델입니다. 객체에 대한 인식은 100% 잡아내는 것으로 보입니다.

그런데 test 영상의 결과를 보시면 인물 및 사물에 대한 객체 인식만 이루어지고 있기 때문에 저희가 원하는 방향인 빈공간에 대한 vpp를

할려고 한다면 추가적인 작업이 필요 할 것 같습니다.

사물 객체는 타겟팅이 가능하며, 벽 같은 경우에는 SAM 모델을 변형하여 사용하거나, 이 모델 자체를 변형하거나, 코드 수정이 필요할 것으로

 

'AI' 카테고리의 다른 글

VPP (FastSAM)  (0) 2024.06.16
Object Separation (yolov7-pose-estimation)  (0) 2024.06.16
Object Separation (GVTO)  (0) 2024.06.16
Video Upscaling (ResShift)  (0) 2024.06.16
Video Upscaling (StableSR)  (0) 2024.06.16