Este repositório contém os arquivos e instruções necessários para implementar o Ollama em um cluster Kubernetes utilizando MicroK8s. O deployment utiliza NGINX Ingress Controller para expor o serviço.
- Kubernetes (MicroK8s)
- Helm
- NGINX Ingress Controller instalado no cluster
- Configuração de um namespace
ollama
deployment.yaml
: Configuração do Deployment do Ollamaservice.yaml
: Configuração do Service para o Ollamaingress.yaml
: Configuração do Ingress para expor o OllamaREADME.md
: Instruções de implementação
apiVersion: apps/v1
kind: Deployment
metadata:
name: ollama
namespace: ollama
spec:
replicas: 1
selector:
matchLabels:
app: ollama
template:
metadata:
labels:
app: ollama
spec:
containers:
- name: ollama
image: ollama/ollama:latest
ports:
- containerPort: 11434