AI
인공지능, 머신러닝, LLM 활용 실험과 인사이트
레오파드게코 브리딩에 데이터 분석과 AI 기술을 접목합니다. Python, NumPy를 활용한 체중 관리, 성장 추이 분석, 환경 데이터 시각화 등 실무에서 직접 사용하는 기술을 일반인도 이해하기 쉽게 설명합니다.
브리딩에서 시작된 기록, 기술로 이어지는 실험.
데이터와 직관 사이의 균형을 탐구합니다.
브리딩과 기술의 융합에서 탄생한 이야기들
2026년 3월, LangChain이 클로드 코드의 오픈소스 복제품 Deep Agents를 공개했습니다. 커뮤니티에서 '클로드 코드 복제품'이라는 말이 돌 정도로 반응이 뜨거웠고 GitHub 스타 12K를 넘겼습니다. 계획 도구, 파일시스템, 셸 실행, 서브에이전트까지 — 클로드 코드가 하는 걸 전부 오픈소스로 구현했습니다. MIT 라이선스에 어떤 LLM이든 연결 가능합니다. 직접 설치하고 로컬 LLM까지 연결해봤습니다.
![[소셜 미디어 트렌드 4편] LDA 토픽 모델링 + Streamlit 대시보드로 시리즈 완결](/_next/image?url=%2Fblog%2Fsns-trend-4-dashboard%2FGemini_Generated_Image_z0mc4z0mc4z0mc4z.png&w=1920&q=75&dpl=dpl_BRnctFgdYHKz892NuAvKy6UqDMmN)
수집한 523건 댓글에 LDA 토픽 모델링을 적용해 5개 주제를 자동 분류하고, Streamlit으로 인터랙티브 대시보드를 만듭니다. 감성 분석 + 토픽 분석 + 시각화를 하나로 합친 시리즈 최종편입니다.
![[소셜 미디어 트렌드 3편] YouTube API로 댓글 523건 수집하고 감성 분석까지](/_next/image?url=%2Fblog%2Fsns-trend-3-youtube-api%2FGemini_Generated_Image_6k8rux6k8rux6k8r.png&w=1920&q=75&dpl=dpl_BRnctFgdYHKz892NuAvKy6UqDMmN)
Google Cloud Console에서 API 키를 발급받고, YouTube Data API v3으로 댓글을 수집합니다. 키워드 검색 → 영상 10개 → 댓글 523건 수집 → 1편 감성 분석 모델 적용까지, 실제 데이터 파이프라인을 만드는 과정입니다.
1편에서 전처리한 NSMC 데이터를 다시 꺼냅니다. 문장 길이 분포, 긍정/부정 워드클라우드, 단어 빈도 Top-20, 길이별 감성 비율까지 — 모델에 넣기 전에 텍스트 데이터를 눈으로 확인하는 과정입니다.
YouTube 댓글을 분석하려면 먼저 감성 분석 모델이 필요합니다. 네이버 영화 리뷰(NSMC) 20만 건으로 한글 텍스트를 전처리하고, TF-IDF로 숫자로 바꾸고, Logistic Regression과 Naive Bayes를 비교해서 83% 정확도의 감성 분류기를 만듭니다.
![[머신러닝 실전 6편] 전체 파이프라인 완성 — CSV 한 장에서 예측 모델까지](/_next/image?url=%2Fblog%2Fml-prac-6-pipeline%2Fimg05.webp&w=1920&q=75&dpl=dpl_BRnctFgdYHKz892NuAvKy6UqDMmN)
1편 EDA부터 5편 튜닝까지, 코드가 흩어져 있었습니다. 전처리 따로, 모델 따로, 튜닝 따로 — 실수하기 딱 좋은 구조였습니다. sklearn Pipeline과 ColumnTransformer로 전부 하나로 묶었습니다. 전처리부터 튜닝까지 fit 한 번이면 끝나는, 재현 가능한 워크플로우를 완성합니다.
관찰하고 기록합니다. 브리딩에서 배운 가장 중요한 원칙입니다. 데이터는 기록에서 시작됩니다.
급하지 않게 반복합니다. 좋은 결과는 시간과 인내의 산물입니다. 기술도, 생명도.
영역을 연결합니다. 브리딩의 인사이트가 AI 설계에, 개발 경험이 사육 환경 최적화에 적용됩니다.
열린 마음으로 공유합니다. 기록은 나만의 것이 아닌, 누군가에게 도움이 될 수 있도록.