how-to-install-and-manage Help

OpenWebUI

OpenWebUI est une interface web connectée à des modèles d'IA via Ollama, déployée ici dans un cluster Kubernetes à l'aide de FluxCD et Helm.

Présentation

Ce dossier contient la configuration déclarative de l’application OpenWebUI, déployée via FluxCD :

openwebui/ ├── helmrelease.yaml # Déploiement de l'application via HelmRelease ├── helmrepo.yaml # Dépôt Helm contenant le chart open-webui └── namespace.yaml # Namespace Kubernetes pour l'application

Installation

Namespace

Le fichier namespace.yaml crée le namespace openwebui:

apiVersion: v1 kind: Namespace metadata: name: openwebui

HelmRepository

Le fichier helmrepo.yaml référence le dépôt Helm contenant le chart OpenWebUI :

apiVersion: source.toolkit.fluxcd.io/v1beta2 kind: HelmRepository metadata: name: open-webui namespace: openwebui spec: url: https://helm.openwebui.com interval: 1h

HelmRelease

Le fichier helmrelease.yaml contient la définition complète du déploiement Helm :

apiVersion: helm.toolkit.fluxcd.io/v2 kind: HelmRelease metadata: name: openwebui namespace: openwebui spec: interval: 5m chart: spec: chart: open-webui version: 6.24.0 sourceRef: kind: HelmRepository name: open-webui namespace: openwebui values: service: portName: http enableOpenaiApi: false ollamaUrls: - "http://10.1.1.50:8081" ollama: enabled: false pipelines: enabled: false ingress: enabled: true class: "traefik" host: "ia.innovalia.cc" tls: true annotations: traefik.ingress.kubernetes.io/router.tls.certresolver: "myresolver" traefik.ingress.kubernetes.io/router.entrypoints: "websecure" traefik.ingress.kubernetes.io/headers.customRequestHeaders: "X-Forwarded-Proto:https" path: / pathType: Prefix extraEnvVars: - name: WEBUI_URL value: "https://ia.innovalia.cc" - name: WEBUI_API_BASE_URL value: "https://ia.innovalia.cc"

Accès à l'interface

Une fois le déploiement effectué et l'ingress configuré, l'application sera accessible à l'adresse suivante :

📍 https://ia.innovalia.cc

Fonctionnalités désactivées

Dans cette configuration :

  • L'API OpenAI est désactivée (enableOpenaiApi: false)

  • L'intégration directe d’Ollama est désactivée (ollama.enabled: false)

  • Les pipelines sont désactivés (pipelines.enabled: false)

Cela permet un déploiement léger pour des besoins spécifiques.

Connection à notre serveur Ollama local

Nous pouvons nous "provisionner" la connection à notre serveur local directement dans la configuration (ollamaUrls:)

TLS avec Traefik

La configuration TLS repose sur les annotations suivantes dans l'Ingress :

  • Certificat généré via myresolver

  • Entrypoint sécurisé websecure

  • Forçage du protocole https via l'en-tête X-Forwarded-Proto

Mise à jour automatique

Le champ interval: 5m permet à FluxCD de vérifier toutes les 5 minutes la présence d'une nouvelle version du chart.

Utilisation

Une fois connecté, nous retrouvons bien notre vue Open WebUI et nos modèles.

openwebui-dashboard.png

Nous pouvons commencer à utiliser le modèle de notre choix.

openwebui-chat.png
Last modified: 22 July 2025