네이버 컨퍼런스 DAN 24 정리


DAN 발표를 보면서 네이버가 현재 어떤 방식으로 개발을 진행하고 있는지 정리해본다.

Models

추천/광고에 해당되는 파운데이션 모델을 따로 개발하고 있음

  • 언어 모델은 결국 next-token prediction 이므로, 입력으로 활용하는 pretext 를 얼마나 잘 구성하는지가 중요함
  • 파운데이션 모델을 활용한 downstream task 는 pretext task 로 표현할 수 있다
  • pretrain loss 줄이는 가장 쉬운 방법은 scale-up 을 통한 computation 을 늘리는것

CLIP For E-Commerce

  • 쇼핑에서는 중복되는 상품이 많기 때문에, 이를 해결하지 않고서는 학습이 잘 안된다
    • 카탈로그 정보를 활용하여 동일한 카탈로그면 동일한 상품이라고 판단하여 학습하지 않도록 유도
  • 기존의 constrative Learning 은 모든 negative-positive pair 를 동일한 선상으로 생각하지만, 사람은 이러한 차이를 상대적으로 생각한다 (Pairtial False Negative Problem).
  • 상품 텍스트만 가지고는 Masked Language Modeling 과 같이 빈칸 추론을 위한 충분한 맥락을 제공하고 있지 않다.
  • eFoundation 이 제대로 학습되었다면 임베딩을 통한 상품의 이해를 표현할 수 있을 뿐만 아니라, 상품 관련 정보를 “생성” 할 수 있어야 한다.
  • 학습된 image encoder 가 제대로 학습되었는지 판단하기 위해, 기존의 LLM 모델이나 Masking 모델에 adapt layer 를 붙여서 성능이 잘 나오는지 확인한다.

Metrics

Search: nDCG, MRR, Recall, Precision

nDCG

\[\mathrm{DCG} @ k=\sum_i^k \frac{\mathrm{rel}_i}{\log _2(i+1)}\]
  • $\text{rel}_i$: ( i )번째 아이템의 관련성 점수 (예: 0=비관련, 1=관련, 2=매우 관련).
  • ( k ): 상위 ( k )개 아이템만 고려 (예: DCG@5는 상위 5개 평가).
\[\mathrm{nDCG} @ k=\frac{\mathrm{DCG} @ k}{\mathrm{DCG} @ k_{\text {ideal }}}\]
  • $k_{\text {ideal }}$: 이상적인 순서에서 상위 ( k )개 아이템의 관련성 점수.

Embedding

Language: ColBERT, ColBERTv2 Multi-modal: eCLIP (CLIP For E-Commerce), BLIP, LLaVA

Ranking

  • XTR Ranking

Reference

[팀네이버 컨퍼런스 DAN 24]




    Enjoy Reading This Article?

    Here are some more articles you might like to read next:

  • Deepseek-R1 모델
  • 학습할때 메모리가 터진다고? Cut Your Losses!
  • GRPO 대신 DAPO: RL 최적화로 LLM 추론 능력 끌어올리기
  • DeepSeek-V3 기술 요약
  • python accelerate 라이브러리 함수 조사기