Skip to content

danilomarcus/start-ai-local-agent-ollama

Repository files navigation

Agente Local LLM

Este projeto implementa um agente de IA local que usa modelos de linguagem para responder perguntas baseadas em uma base de conhecimento local. O sistema utiliza a biblioteca LangChain para integrar documentos, criar embeddings vetoriais e consultar dados localmente.

Há também 2 testes simples em python puro e outro usando o ollama lib

Estrutura do Projeto

├── venv/                       # Ambiente virtual Python (não versionado)
├── main.py                     # Arquivo principal do projeto
├── restaurant_reviews.csv      # Arquivo com reviews de restaurantes
├── requirements.txt            # Lista de dependências do projeto
└── chroma_langchain_db/        # Banco de dados vetoriais (não versionado)

Requisitos

  • Python 3.10+
  • Ollama (para modelos locais)
  • Dependências listadas em requirements.txt
  • Download dos modelos usados:
    • ollama pull mistral
    • ollama pull llama3.2
    • ollama pull mxbai-embed-large

Instalação

  1. Clone o repositório:

    git clone [URL_DO_REPOSITÓRIO]
    cd [NOME_DO_REPOSITÓRIO]
  2. Crie e ative o ambiente virtual:

    python3 -m venv venv
    source venv/bin/activate  # No Windows: venv\Scripts\activate
  3. Instale as dependências:

    pip install -r requirements.txt

Utilização e Banco de Dados Vetorial

Para executar o agente local e criar o banco de dados local com o arquivo csv:

  1. Certifique-se de que o arquivo CSV de origem está disponível na pasta raiz.
  2. Execute o script principal main.py
python main.py

O sistema carregará o banco de dados vetorial e iniciará a conversa.

Modelos Suportados

O projeto é configurado para trabalhar com:

  • Modelos Ollama locais (recomendado para privacidade)

About

Estudos e testes em python puro e ollama, uso de RAG com um arquivo csv

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages