KeiStory

반응형

OPENAI LLM 초간단 예제

 

OPEN AI 를 사용해서 가장 간단한 LLM 사용방법을 알아봅니다.

 

OPENAI 키발급은 아래 포스팅을 참고합니다.

2024.06.08 - [코딩/Python_AI] - Open API 사용을 위한 Key 발급 받기 및 요금

키설정은 아래 포스팅을 참고합니다.

2024.06.08 - [코딩/Python_AI] - .env 파일에서 OPENAI_API_KEY 처리하기

 

소스는 아래와 같습니다.

from langchain_openai import ChatOpenAI
from dotenv import load_dotenv
load_dotenv()

# LLM 객체 생성
llm = ChatOpenAI(
    temperature=0.1,  # 창의성 (0.0 ~ 2.0)
    max_tokens=1024,  # 최대 토큰수
    model_name="gpt-3.5-turbo",  # 모델명
)

# 질문
question = "대한민국의 수도는 어디인가요?"

# 응답
print(f"[답변]: {llm.invoke(question)}")

필요한 패키지

python-dotenv = "^1.0.1"
langchain-openai = "^0.1.8"

결과

 

반응형

'코딩 > Python_AI' 카테고리의 다른 글

OPENAI 스트리밍 출력하기  (0) 2024.06.20
OPENAI LogProb 란?  (0) 2024.06.19
GPT4ALL 사용해 보기  (0) 2024.06.16
나만의 ChatGPT 만들기 - text-generation-webui  (0) 2024.06.15
로컬에서 Llama3-8B 모델 돌려보기 - Ollama  (0) 2024.06.15

공유하기

facebook twitter kakaoTalk kakaostory naver band