|
| 1 | +""" |
| 2 | +LangGraph 기반 ChatBot 모델 |
| 3 | +OpenAI의 ChatGPT 모델을 사용하여 대화 기록을 유지하는 챗봇 구현 |
| 4 | +""" |
| 5 | + |
| 6 | +from langchain_openai import ChatOpenAI |
| 7 | +from langgraph.checkpoint.memory import MemorySaver |
| 8 | +from langgraph.graph import START, MessagesState, StateGraph |
| 9 | +from langgraph.prebuilt import ToolNode |
| 10 | + |
| 11 | +from utils.llm.tools import get_weather, get_famous_opensource |
| 12 | + |
| 13 | + |
| 14 | +class ChatBot: |
| 15 | + """ |
| 16 | + LangGraph를 사용한 대화형 챗봇 클래스 |
| 17 | + OpenAI API를 통해 다양한 GPT 모델을 사용할 수 있으며, |
| 18 | + MemorySaver를 통해 대화 기록을 관리합니다. |
| 19 | + """ |
| 20 | + |
| 21 | + # 사용 가능한 OpenAI 모델 목록 (키: 모델ID, 값: 표시명) |
| 22 | + AVAILABLE_MODELS = { |
| 23 | + "gpt-4o": "GPT-4o", |
| 24 | + "gpt-4o-mini": "GPT-4o Mini", |
| 25 | + "gpt-4-turbo": "GPT-4 Turbo", |
| 26 | + "gpt-3.5-turbo": "GPT-3.5 Turbo", |
| 27 | + } |
| 28 | + |
| 29 | + def __init__(self, openai_api_key: str, model_name: str = "gpt-4o-mini"): |
| 30 | + """ |
| 31 | + ChatBot 인스턴스 초기화 |
| 32 | +
|
| 33 | + Args: |
| 34 | + openai_api_key: OpenAI API 키 |
| 35 | + model_name: 사용할 모델명 (기본값: gpt-4o-mini) |
| 36 | + """ |
| 37 | + self.openai_api_key = openai_api_key |
| 38 | + self.model_name = model_name |
| 39 | + self.tools = [get_weather, get_famous_opensource] # 사용 가능한 tool 목록 |
| 40 | + self.llm = self._setup_llm() # LLM 인스턴스 설정 |
| 41 | + self.app = self._setup_workflow() # LangGraph 워크플로우 설정 |
| 42 | + |
| 43 | + def _setup_llm(self): |
| 44 | + """ |
| 45 | + OpenAI ChatGPT LLM 인스턴스 생성 |
| 46 | + Tool을 바인딩하여 LLM이 필요시 tool을 호출할 수 있도록 설정합니다. |
| 47 | +
|
| 48 | + Returns: |
| 49 | + ChatOpenAI: Tool이 바인딩된 LLM 인스턴스 |
| 50 | + """ |
| 51 | + llm = ChatOpenAI( |
| 52 | + temperature=0.1, # 응답의 일관성을 위해 낮은 temperature 설정 |
| 53 | + openai_api_key=self.openai_api_key, |
| 54 | + model_name=self.model_name, |
| 55 | + ) |
| 56 | + # Tool을 LLM에 바인딩하여 함수 호출 기능 활성화 |
| 57 | + return llm.bind_tools(self.tools) |
| 58 | + |
| 59 | + def _setup_workflow(self): |
| 60 | + """ |
| 61 | + LangGraph 워크플로우 설정 |
| 62 | + 대화 기록을 관리하고 LLM과 통신하는 그래프 구조를 생성합니다. |
| 63 | + Tool 호출 기능을 포함하여 LLM이 필요시 도구를 사용할 수 있도록 합니다. |
| 64 | +
|
| 65 | + Returns: |
| 66 | + CompiledGraph: 컴파일된 LangGraph 워크플로우 |
| 67 | + """ |
| 68 | + # MessagesState를 사용하는 StateGraph 생성 |
| 69 | + workflow = StateGraph(state_schema=MessagesState) |
| 70 | + |
| 71 | + def call_model(state: MessagesState): |
| 72 | + """ |
| 73 | + LLM 모델을 호출하는 노드 함수 |
| 74 | + LLM이 응답을 생성하거나 tool 호출을 결정합니다. |
| 75 | +
|
| 76 | + Args: |
| 77 | + state: 현재 메시지 상태 |
| 78 | +
|
| 79 | + Returns: |
| 80 | + dict: LLM 응답이 포함된 상태 업데이트 |
| 81 | + """ |
| 82 | + # sys_msg = SystemMessage(content="You are a helpful assistant ") |
| 83 | + response = self.llm.invoke(state["messages"]) |
| 84 | + return {"messages": response} |
| 85 | + |
| 86 | + def route_model_output(state: MessagesState): |
| 87 | + """ |
| 88 | + LLM 출력에 따라 다음 노드를 결정하는 라우팅 함수 |
| 89 | + Tool 호출이 필요한 경우 'tools' 노드로, 아니면 대화를 종료합니다. |
| 90 | +
|
| 91 | + Args: |
| 92 | + state: 현재 메시지 상태 |
| 93 | +
|
| 94 | + Returns: |
| 95 | + str: 다음에 실행할 노드 이름 ('tools' 또는 '__end__') |
| 96 | + """ |
| 97 | + messages = state["messages"] |
| 98 | + last_message = messages[-1] |
| 99 | + # LLM이 tool을 호출하려고 하는 경우 (tool_calls가 있는 경우) |
| 100 | + if hasattr(last_message, "tool_calls") and last_message.tool_calls: |
| 101 | + return "tools" |
| 102 | + # Tool 호출이 없으면 대화 종료 |
| 103 | + return "__end__" |
| 104 | + |
| 105 | + # 워크플로우 구조 정의 |
| 106 | + workflow.add_edge(START, "model") # 시작 -> model 노드 |
| 107 | + workflow.add_node("model", call_model) # LLM 호출 노드 |
| 108 | + workflow.add_node("tools", ToolNode(self.tools)) # Tool 실행 노드 |
| 109 | + |
| 110 | + # model 노드 이후 조건부 라우팅 |
| 111 | + workflow.add_conditional_edges("model", route_model_output) |
| 112 | + # Tool 실행 후 다시 model로 돌아가서 최종 응답 생성 |
| 113 | + workflow.add_edge("tools", "model") |
| 114 | + |
| 115 | + # MemorySaver를 사용하여 대화 기록 저장 기능 추가 |
| 116 | + return workflow.compile(checkpointer=MemorySaver()) |
| 117 | + |
| 118 | + def chat(self, message: str, thread_id: str): |
| 119 | + """ |
| 120 | + 사용자 메시지에 대한 응답 생성 |
| 121 | +
|
| 122 | + Args: |
| 123 | + message: 사용자 입력 메시지 |
| 124 | + thread_id: 대화 세션을 구분하는 고유 ID |
| 125 | +
|
| 126 | + Returns: |
| 127 | + dict: LLM 응답을 포함한 결과 딕셔너리 |
| 128 | + """ |
| 129 | + return self.app.invoke( |
| 130 | + {"messages": [{"role": "user", "content": message}]}, |
| 131 | + {"configurable": {"thread_id": thread_id}}, # thread_id로 대화 기록 관리 |
| 132 | + ) |
| 133 | + |
| 134 | + def update_model(self, model_name: str): |
| 135 | + """ |
| 136 | + 사용 중인 LLM 모델 변경 |
| 137 | + 모델 변경 시 LLM 인스턴스와 워크플로우를 재설정합니다. |
| 138 | +
|
| 139 | + Args: |
| 140 | + model_name: 변경할 모델명 |
| 141 | + """ |
| 142 | + self.model_name = model_name |
| 143 | + self.llm = self._setup_llm() # 새 모델로 LLM 재설정 |
| 144 | + self.app = self._setup_workflow() # 워크플로우 재생성 |
0 commit comments