chat gpt를 사용하면서 기존에 사용했던 메세지를 통해 gpt를 더 개선할 수 있는 방법에 대해 알아보자.
우선, 그 전에 알아야 할 것이 있다. 별건 아니다.
zero shot, few shot 개념
zero shot prompt
모델에게 아무런 기존의 배경지식 없이 물어보는 것을 말한다.
배경지식이 없기 때문에 모델이 training 할 때 배웠던 지식을 갖고 답변을 한다.
few shot prompt
모델에게 질문하기 전 몇 개의 배경지식을 던져주는 것을 말한다.
이제 gpt api reference에 있는 형식에서 조금 추가할건데, message 리스트를 보자.
여기서 메세지 리스트는 우리가 gpt와 대화한 내용을 저장할 곳이다.
이렇게 role 어쩌구 포맷들이 있는데, message 리스트 안에 있는 asisstant들을 없애고 출력을 받는다면 어떻게 될까
이 경우를 zero shot prompt라고 하며 우리가 별도의 정보를 학습시키지 않은 상태이다. 이 상태에서 위와 같은 질문을 gpt에게 한다면
이와 같은 대답을 받게 될 것이다.
반대로
이렇게 assistant를 통해 질문 전에 배경지식을 추가해준다면
답변이 달라진 것을 확인할 수 있다.
이 예시를 통해 우리는 asisstant로 원하는 답변을 tailoring 할 수 있음을 배웠다.
굳이 zero shot 에서 fine tuning을 할 필요 없이 미리 프롬프트를 맞춤형으로 조작할 수 있기에,
few shot prompt는 zero shot과 fine tuning 사이에 있다고 말한다.
레퍼런스
inflearn에서 미쿡엔지니어 님의 강의 정리
'Open AI' 카테고리의 다른 글
Scikit-learn을 통해 embedding을 활용하는 방법 (Estimator Class, F1 score 소개) (0) | 2024.05.09 |
---|---|
Scikit-learn과 머신러닝 모델의 성능문제 (0) | 2024.05.09 |
OpenAI API 기본 - gpt 모델, Completion API의 parameter 소개 (0) | 2024.04.29 |
OpenAI API 기본 - 파이썬으로 gpt 사용하기 (0) | 2024.04.29 |
DALL - E2 인공지능 모델이 만들어지는 방법 (0) | 2024.04.29 |