YOLO를 이용한 실시간 객체 검출 애플리케이션 구축, 웹캠 또는 CCTV와 연동한 실시간 모니터링 시스템 구축

1. 서론

YOLO(You Only Look Once)는 객체 검출 분야에서 널리 사용되는 딥러닝 기반의 알고리즘입니다.
이 기술은 이미지에서 객체를 실시간으로 감지하는 능력을 가지고 있어 다양한 애플리케이션에서 활용됩니다.
본 강좌에서는 YOLO를 활용하여 웹캠이나 CCTV와 연동한 실시간 모니터링 시스템을 구축하는 방법을 알아보겠습니다.

2. YOLO란 무엇인가?

YOLO는 이미지 전체를 한 번에 처리하여 객체를 검출하는 방식으로, 짧은 시간 내에 높은 정확도로 객체를 인식합니다.
이는 기존의 방법과는 달리 전체 이미지를 하나의 네트워크에서 처리하기 때문에 매우 효율적입니다.
YOLO의 장점은 다음과 같습니다:

  • 실시간 속도: 높은 FPS(Frames Per Second)에서 작동 가능
  • 간단한 구조: 한번의 Forward Pass로 여러 객체를 동시에 검출
  • 높은 정확도: 다양한 객체를 인식하는 데 효과적

3. YOLO 모델 다운로드

YOLO를 사용하기 위해서는 먼저 모델 파일을 다운로드해야 합니다.
YOLO는 여러 버전이 존재하지만, 본 강좌에서는 YOLOv3 또는 YOLOv4를 사용할 것입니다.
GitHub에서 YOLO 모델과 가중치 파일을 다운로드할 수 있습니다.

git clone https://github.com/AlexeyAB/darknet.git
cd darknet
wget https://pjreddie.com/media/files/yolov3.weights

4. YOLO 환경 설정

YOLO를 사용하기 위해서는 Python과 OpenCV, Numpy 등의 라이브러리 설치가 필요합니다.
Python의 패키지 관리자인 pip를 사용하여 간단히 설치할 수 있습니다.
다음 명령어를 사용하여 필요한 라이브러리를 설치하세요.

pip install opencv-python numpy

5. YOLO 모델 로드 및 초기화

YOLO 모델을 사용하기 위해서는 네트워크 구조와 가중치 파일을 로드해야 합니다.
아래는 YOLO를 초기화하는 파이썬 코드입니다.

import cv2
import numpy as np

# 클래스 이름 로드
classes = []
with open("coco.names", "r") as f:
    classes = [line.strip() for line in f.readlines()]

# YOLO 모델 로드
net = cv2.dnn.readNet("yolov3.weights", "yolov3.cfg")

6. 웹캠 또는 CCTV 연결

OpenCV를 사용하여 웹캠이나 CCTV 연결을 설정할 수 있습니다.
아래 코드는 웹캠에서 비디오 스트림을 가져오는 방법을 보여줍니다.

cap = cv2.VideoCapture(0)  # 웹캠 연결

while True:
    ret, frame = cap.read()
    if not ret:
        break
    # 영상 처리 및 YOLO 검출 코드
    cv2.imshow("Webcam", frame)

    if cv2.waitKey(1) & 0xFF == ord('q'):
        break

cap.release()
cv2.destroyAllWindows()

7. YOLO로 객체 검출하기

비디오 스트림을 가져온 후 YOLO를 사용하여 객체를 검출할 수 있습니다.
다음 코드는 비디오 프레임에서 객체를 감지하고 결과를 화면에 표시하는 방법을 보여줍니다.

while True:
    ret, frame = cap.read()
    if not ret:
        break

    height, width, _ = frame.shape
    blob = cv2.dnn.blobFromImage(frame, 0.00392, (416, 416), (0, 0, 0), swapRB=True, crop=False)
    net.setInput(blob)

    out_layers = net.getUnconnectedOutLayersNames()
    detections = net.forward(out_layers)

    for detection in detections:
        for obj in detection:
            scores = obj[5:]
            class_id = np.argmax(scores)
            confidence = scores[class_id]
            
            if confidence > 0.5:  # 신뢰도 기준
                center_x = int(obj[0] * width)
                center_y = int(obj[1] * height)
                w = int(obj[2] * width)
                h = int(obj[3] * height)

                # 바운딩 박스 그리기
                x = int(center_x - w / 2)
                y = int(center_y - h / 2)
                cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2)
                cv2.putText(frame, f"{classes[class_id]}: {confidence:.2f}", (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 255, 0), 2)

    cv2.imshow("YOLO Object Detection", frame)

    if cv2.waitKey(1) & 0xFF == ord('q'):
        break

cap.release()
cv2.destroyAllWindows()

8. 결론

이번 강좌에서는 YOLO를 이용한 실시간 객체 검출 애플리케이션을 구축하는 방법에 대해 알아보았습니다.
YOLO의 효율성과 정확도를 활용하여 웹캠 및 CCTV와 연동한 다양한 모니터링 시스템을 구축할 수 있습니다.
이 기술을 바탕으로 더 많은 응용 프로그램을 개발해 볼 수 있습니다.

9. 참고 자료