Este projeto implementa um agente de IA local que usa modelos de linguagem para responder perguntas baseadas em uma base de conhecimento local. O sistema utiliza a biblioteca LangChain para integrar documentos, criar embeddings vetoriais e consultar dados localmente.
Há também 2 testes simples em python puro e outro usando o ollama lib
├── venv/ # Ambiente virtual Python (não versionado)
├── main.py # Arquivo principal do projeto
├── restaurant_reviews.csv # Arquivo com reviews de restaurantes
├── requirements.txt # Lista de dependências do projeto
└── chroma_langchain_db/ # Banco de dados vetoriais (não versionado)
- Python 3.10+
- Ollama (para modelos locais)
- Dependências listadas em
requirements.txt - Download dos modelos usados:
- ollama pull mistral
- ollama pull llama3.2
- ollama pull mxbai-embed-large
-
Clone o repositório:
git clone [URL_DO_REPOSITÓRIO] cd [NOME_DO_REPOSITÓRIO] -
Crie e ative o ambiente virtual:
python3 -m venv venv source venv/bin/activate # No Windows: venv\Scripts\activate
-
Instale as dependências:
pip install -r requirements.txt
Para executar o agente local e criar o banco de dados local com o arquivo csv:
- Certifique-se de que o arquivo CSV de origem está disponível na pasta raiz.
- Execute o script principal main.py
python main.pyO sistema carregará o banco de dados vetorial e iniciará a conversa.
O projeto é configurado para trabalhar com:
- Modelos Ollama locais (recomendado para privacidade)