KeiStory

반응형

llama index 를 이용해 내가 가진 data 로 질문하기 - OpenAI

 

내가 가진 txt 데이터를 로드하여 그 내용을 기반한 질문을 하고 답변을 받도록 하는 방법입니다.

 

OpenAI Key 설정이 먼저 되어야합니다.

아래 포스팅을 참고해주세요

2024.06.08 - [코딩/Python_AI] - Open API 사용을 위한 Key 발급 받기 및 요금

2024.06.08 - [코딩/Python_AI] - .env 파일에서 OPENAI_API_KEY 처리하기

 

먼저 data 폴더에 txt 파일을 준비합니다.

저는 어린왕자 책의 내용을 CharGPT 에 물어보고 그 내용을 txt 파일로 준비했습니다.

data 폴더안에 여러개의 txt 파일이 있어도 됩니다.

 

코드

from llama_index.core import SimpleDirectoryReader,VectorStoreIndex, GPTVectorStoreIndex
from dotenv import load_dotenv

# API KEY 정보로드
load_dotenv()

# 폴더에서 데이터 로드
documents = SimpleDirectoryReader("data").load_data()

# 인덱스 생성
#index = VectorStoreIndex.from_documents(documents)
index = GPTVectorStoreIndex.from_documents(documents)

# 쿼리엔진 생성
query_engine = index.as_query_engine()

# 질의응답
print(query_engine.query("어린왕자가 방문한 별들의 이름은?"))

 

결과

 

반응형

공유하기

facebook twitter kakaoTalk kakaostory naver band