OPENAI 스트리밍 출력하기
OPENAI 스트리밍 출력하기 OPENAI 답변을 실시간으로 출력하는 방법을 알아봅니다.ChatGPT 와 동일하게 실시간으로 응답을 출력하기 위해선 ChatOpenAI 의 stream 을 사용합니다. from dotenv import load_dotenvload_dotenv()from langchain_openai import ChatOpenAI# 객체 생성llm = ChatOpenAI( temperature=0.1, # 창의성 (0.0 ~ 2.0) max_tokens=1024, # 최대 토큰수 model_name="gpt-3.5-turbo", # 모델명)# 질의내용question = "대한민국의 역사에 대해서 설명해줘"# 스트림 방식으로 질의answer = llm.stream(qu..