목록2024/11 (6)
printf("ho_tari\n");
2024.11.8 오늘은 AMR Controller인 터틀봇3를 처음으로 다루기 시작했다. 터틀봇3를 수동제어하여 주행을 하는 주변 환경을 SLAM을 이용해 map을 제작하였다. 이렇게 mapping을 끝낸 후에는 터틀봇3에 있는 카메라를 이용하여 탐지할 객체의 이미지 데이터를 수집하여 객테 탐지를 위해 YOLOv8을 이용하여 학습을 시켜 객체를 탐지할 수 있도록 하였다. 그리고 이제 AMR의 카메라와 Security 카메라에서 객체를 탐지하는 화면을 실시간으로 송출하고 탐지된 객체의 정보를 실시간으로 출력하고 Security 카메라에서 객체를 탐지하는 상황에서 정해두었던 경계 구역에 객체가 침범했을 때의 신호를 AMR 터틀봇으로 송신하는 결과를 보여주는 웹페이지를 설계하였다. 프로젝트가 실..
2024.11.7 오늘은 usb webcam을 이용해서 YOLO로 학습된 이미지와 실시간으로 촬영되는 이미지를 통해 객체를 탐지하고 경게 구역을 침범 했을 때 화면이 빨간색으로 깜빡거리며 경보를 하게 되는 프로그램을 ROS2를 사용하여 publish하고 subscribe하였다. publish를 하는 코드를 통해 usb webcam이 객체 탐지 박스를 형성하고 지정되어 있는 경계 구역에 객체 탐지 박스가 침법을 하게되면 화면이 전체적으로 빨간색으로 깜빡거리게 되는 기능이 들어있고 이 데이터를 송신해서 subscribe 코드에서는 받은 데이터를 화면으로 송출하도록 설계했다. 그 후에는 화면 송출을 Flask를 통해 설계한 웹페이지에 출력되게 하기 위해 코드르 수정하였다. 이 다음 단계로는 Flask 웹페이..
2024.11.6 오늘부터는 본격적으로 프로젝트의 코딩을 하게 되었다. USB webcam을 이용해서 이미지 데이터를 생성하고 이를 전처리하여 YOLO 8을 이용하여 객체 탐지 학습을 진행하였다. 학습이 진행된 후에는 USB webcam에서 실시간으로 받아오는 이미지 데이터와 비교하여 객체를 탐지하고 바운딩 박스를 생성하도록 설계하였다. 또한, 원하는 구역에 원하는 크기의 경계 박스를 만들어 객체 탐지 박스의 50%가 이 경계 박스의 내부에 들어왔을 때 화면이 전체적으로 빨간색으로 깜빡거리도록 코드를 작성하였다. Colab을 활용하여 YOLO 8 모델로 이미지 데이터를 학습하고 test하여 prediction을 표시하도록 하였다. 초반에는 경계 박스를 사각형으로 만들어 이 경계 박스 내에..
2024.11.05 오늘부터 대면으로 실무 프로젝트가 진행된다. 프로젝트는 총 8개의 주제를 진행하고 8주동안 1주에 하나씩 진행이 된다. 내가 속한 그룹은 1주차에 AI 비전 감시 간이 시스템 구축 프로젝트를 진행한다. 이 프로젝트는 터틀봇3를 이용하여 동적 물체가 제한 구역에 침입하게 되면 이를 추적하고 감시하는 로봇이 자율주행을 통해 침입 물체를 감시하는 내용을 다룬다. 첫째 날에는 프로젝트를 본격적으로 진행하기 앞서 프로젝트 진행에 필요한 주행 환경을 설계하고 만들었다. 주행 환경을 만든 후에는 실무에서 프로젝트가 진행되는 방식에 대해서 배우게 되었다. 실무 프로젝트가 진행되기 전 계획 단계에서는 business requirements, system requirements, system des..