본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
이번 강의를 들으면서 실질적으로 뉴스 데이터를 다루는 방법과 AI를 활용해 정보를 정리하는 과정에 대해 깊이 이해할 수 있었습니다. 특히 단순한 코드 예제나 이론 중심의 강의가 아니라, 실제 프로젝트를 하나씩 완성해 나가는 방식이라 배운 내용이 확실히 체화되는 느낌이었습니다.
🔹 실습 위주의 강의 방식
강의 초반에는 개체명 인식(NER)과 엔티티 링크(Entity Linking) 개념을 설명하고, 이후 실제 뉴스 데이터를 분석하며 실습을 진행했습니다. 강사님이 친절하게 개념을 설명해 주시지만, 단순히 따라 치는 방식이 아니라 각 단계에서 왜 이런 처리가 필요한지 이해할 수 있도록 유도하는 방식이 인상적이었습니다.
프롬프트 엔지니어링을 활용해 특정 기업명이나 인물을 뉴스에서 찾아내고, 감성 분석까지 연결하는 과정은 실제 현업에서도 활용도가 높을 것 같다는 생각이 들었습니다.
🔹 기억에 남는 포인트
1️⃣ 엔티티 추출과 감성 분석
- 뉴스 속에서 특정 기업이나 인물 이름을 정확하게 찾고, 이에 대한 감성을 분석하는 부분이 흥미로웠습니다.
- 단순히 긍정/부정 분석을 하는 것이 아니라, 어떤 문맥에서 어떤 감성이 나타나는지를 분석하는 과정이 실용적이었습니다.
2️⃣ 실시간 파이프라인 구축
- MongoDB를 활용한 데이터 저장과 실시간 처리 파이프라인을 구축하는 과정에서, 데이터를 효율적으로 다루는 법을 배울 수 있었습니다.
- 기존에는 텍스트 데이터를 수집하고 모델에 넣어 결과를 보는 방식만 경험했는데, 실시간으로 변화하는 데이터를 처리하는 경험이 새로웠습니다.
3️⃣ 대시보드 제작
- Streamlit을 활용해 데이터를 시각적으로 보여주는 과정을 통해, 단순한 모델 개발이 아니라 사용자에게 결과를 효과적으로 전달하는 법도 배울 수 있었습니다.
- 프로젝트의 완성도를 높이는 중요한 부분이라는 걸 느꼈습니다.
🔹 배운 점 & 느낀 점
이 강의를 통해 AI 모델을 단순히 돌려보는 것이 아니라, 데이터를 수집하고 처리하며, 분석 결과를 활용하는 전체적인 과정에 대한 감을 잡을 수 있었습니다. 특히 뉴스 데이터를 실시간으로 분석하고 정리하는 시스템을 직접 구현해본다는 점이 실무와 밀접하게 연결된다는 느낌이었습니다.
강사님이 실제 프로젝트 경험을 바탕으로 실습을 설계해 주셔서, 단순한 코드 따라 하기 식 강의가 아니라 문제 해결 능력을 키울 수 있는 강의였습니다.
① 오늘자 날짜, 공부 시작 시각

② 오늘자날짜, 공부 종료 시각

③ 클립 1번 수강 인증 사진

④ 클립 2번 수강 인증 사진

⑤ 학습 인증샷 1장 이상 (ex. 필기 촬영, 작업물, 등)
