본문 바로가기
Deep Learning/Natural Language Processing

Prompt Learning 오픈소스: OpenPrompt 리뷰

by hyez 2022. 3. 11.

사실 앞으로 읽을 prompt 논문들에 대해 어떤 것을 읽으면 좋을지 생각해보려 읽어봤다. 원문은 아래에 있으며 공식 github에 더 많은 정보와, 읽으면 좋은 논문들이 잘 정리되어있다.

간략히 prompt에 대해 알아보고, 속성으로 훑어볼 prompt 중요 논문들 ? 탐색하기 위한 글

 

OpenPrompt: An Open-source Framework for Prompt-learning

Prompt-learning has become a new paradigm in modern natural language processing, which directly adapts pre-trained language models (PLMs) to $cloze$-style prediction, autoregressive modeling, or sequence to sequence generation, resulting in promising perfo

arxiv.org

 

Abstract

  • Prompt Learning은 NLP에서 새로운 패러다임으로 자기매김
    • cloze-style 예측
    • autoregresive modeling
    • sequence-to-sequence generation
  • OpenPrompt : standard implementation framework 아래 사항들을 고려
    • templating strategy
    • initializing strategy
    • verbalizing strategy
    ⇒ 효율성, 모듈성 및 확장성이 갖춰진 연구 친화적인 프레임워크 개발

Intorduction

Pre-trained language models (PLMs)을 사용하는 방법

  1. standard approach : pretraining-finetuning paradigm
    • 추가적인 parameter, task-specific object를 위한 tuning이 필요함
  2. 새로운 접근법 : Prompt tuning
    • T5, GPT-3등의 논문에서 연구자들은 적은양의 데이터에서 textual prompts or demonstrations이 효과적인 것을 밝힘

prompt-based sentiment classification example

  1. template, verbalizer를 구성
    • template : 원본 텍스트 + some extra tokens
    • verbalizer : vocab의 단어에 label을 투영
      • “<text> It is <mask>” / {“positive”:“great”, “neg-ative”:“terrible”}
  2. warpped된 문장은 토큰화 되어 PLM으로 공급되어 <mask> 토큰에 들어갈 어휘에 대한 분포를 예측한다.

참고 자료

2 Background

PLM은 거의 대분의 문제에서 SOTA를 달성 하였지만 따라오는 한가지 질문

PLM의 잠재력을 “충분히” 활용하고 있는가?

댓글