논문 Learning to Prompt for Vision-Language Models을 읽고, CoOp 기법들이 코드에서 어떻게 구현이 되었는지, 간단히 분석할 예정입니다.

보시고 피드백도 자유롭게 주셨으면 좋겠습니다!

📜 논문 분석 먼저 보기

[Paper Review] CoOp :: Learning to Prompt for Vision-Language Models

※ 위 링크를 누르면 게시글로 이동합니다.


🦾 CoOp 기법이 반영된 코드 단순 분석

KaiyangZhou의 CoOp open code : https://github.com/KaiyangZhou/CoOp/

📁CoOp/trainers/coop.py > ⚙️class PromptLearner : CLIP 모델의 prompt 부분을 학습 가능하게 만들고, 각 클래스에 맞는 prompt를 생성

📁CoOp/trainers/coop.py > ⚙️class CustomCLIP : 이미지 인코더와 텍스트 인코더, prompt_learner를 포함한다. 이미지와 프롬프트를 통해 생성된 텍스트 feature 사이의 매칭을 수행한다.

📁CoOp/trainers/coop.py > ⚙️class CoOp : CoOp의 방법론을 구현한 class이다.

Leave a comment