OPENAI 답변을 실시간으로 출력하는 방법을 알아봅니다.
ChatGPT 와 동일하게 실시간으로 응답을 출력하기 위해선 ChatOpenAI 의 stream 을 사용합니다.
from dotenv import load_dotenv
load_dotenv()
from langchain_openai import ChatOpenAI
# 객체 생성
llm = ChatOpenAI(
temperature=0.1, # 창의성 (0.0 ~ 2.0)
max_tokens=1024, # 최대 토큰수
model_name="gpt-3.5-turbo", # 모델명
)
# 질의내용
question = "대한민국의 역사에 대해서 설명해줘"
# 스트림 방식으로 질의
answer = llm.stream(question)
# 스트리밍 방식으로 각 토큰을 출력합니다. (실시간 출력)
for token in answer:
print(token.content, end="", flush=True)
결과
참고
Python venv 로 가상환경 구성하기 - jupyter 실행까지 (0) | 2024.06.25 |
---|---|
OPENAI 이미지 만들기 (0) | 2024.06.20 |
OPENAI LogProb 란? (0) | 2024.06.19 |
OPENAI LLM 초간단 예제 (0) | 2024.06.19 |
GPT4ALL 사용해 보기 (0) | 2024.06.16 |