Microsoft Foundry Local - Einfache Schritt-für-Schritt Installation mit OpenWeb UI auf macOS 2026
- Daniel Rohregger

- vor 3 Tagen
- 3 Min. Lesezeit
Aktualisiert: vor 2 Tagen
Dieser Blog-Artikel beschreibt die Installation von Microsoft Foundry Local inkl. Phi-4 und Phi-4 Reasoning Modellen auf einem aktuellen macOS mit der Nutzung von Open Web UI als GUI Schnitstelle für die einfache Nutzung von lokalen KI-Modellen Offline.
macOS Version: macOS Tahoe Version 26.2
Homebrew Version: 5.0.8
Foundry Local Version: 0.8.117 Open WebUI Version: v0.6.43
Eine Schritt-für-Schritt Video-Anleitung gibt es hier auf Youtube unter dem Kanal 365 Checkpoint:
Installation Homebrew & Microsoft Foundry Local
Die Installation läuft über das Terminal in macOS. Wir öffnen ein normales, neues Terminal Fenster.
Zuerst installieren wir Homebrew falls noch nicht vorhanden mittels dem aktuellen Befehl. Der Befehl zur Installation ist auch (falls geändert) zu finden unter https://brew.sh
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"Danach geben wir einmal unser Passwort ein. Wir benötigen einen Account mit Admin-Rechten und bestätigen mit "Return". Danach läuft die Installation für einige Minuten.
Nach der Installation müssen 3 Befehle eingegeben werden um die Homebrew Installation in den jeweiligen Benutzerpfad zu laden. Diese können einfach direkt aus der Anweisung im Terminal von Homebrew kopiert werden da diese die jeweiligen korrekten Pfade enthalten.
echo >> /Users/<Username>/.zprofile
echo 'eval "$(/pt/homebrew/bin/brew shellenv)"' >> /Users/<Uername>/.zprofile
eval "$(/opt/homebrew/bin/brew shellenv)"Danach folgt die Installation von Foundry Local mit diesen Befehl
brew tap microsoft/foundrylocalund
brew install foundrylocalDanach können folgende Befehle genutzt werden um den Service zu starten und die verfügbaren modelle aufzulisten.
foundry service start
foundrive model listKI-Modelle können mit folgenden Befehl installiert und in den Cache geladen werden. Nach einem Neustart sind Sie nach dem lediglichen Start des Service sofort verfügbar.
foundry model run <modelname> Achtung die Installation der Modelle dauert je nach komplexität und Internet-Geschwindigkeit einige bis viele Minuten. Das Modell GPT OSS kann 30+ Minuten benötigen um zu laufen.
Nach der Installation bzw. dem "run" eines Modell startet dies im Interaktien Chat-Mode. Dieser Mode ist nicht notwendig um das Modell später zu nutzen. Das Modell kann so im Terminal getestet werden. Zum Beenden des Interaktiven Chat-Mode in macOS einfach
CTRL+C drücken.
Installation Open WebUI
Nach der Installation von Foundry Local und Homebrew, installieren wir ein Interface.
Open WebUI ist ein Opensource-Projekt das uns als Benutzerschnittstelle zu Foundry Local dient. Es kann aber noch viel mehr, bietet aber eben auch direkte, lokale Unterstützung zu einem lokal laufenden Service, sodass mit diesem Set-Up auch jederzeit offline und unabhängig von anderen Geräten, KI genutzt werden kann ohne das eine Verbindung zum Internet benötigt wird.
Die Installation von Open WebUI benötigt ein paar Vorbereitungen und das eigentliche Set-Up
Python Umgebung für OpenWeb UI vorbereiten
brew install uv Danach erstellen wir ein neues Verzeichnis in den wir Open WebUI und die dadurch entstehenden Config-Files speichern und navigieren direkt in den Ordner
mkdir ~/openwebui && cd ~/openwebuiDanach aktivieren bzw. richten die Python Umgebung fertig ein
uv init --python=3.11 .
uv venv
source .venv/bin/activateNun können wir Open WebUI installieren:
uv pip install open-webuiund starten:
cd ~/openwebui
source .venv/bin/activate
open-webui serveJetzt läuft Open WebUI lokal auf unserem PC unter http://localhost:8080
Foundry Local mit Open Web UI verbinden
Um jetzt Foundry Local via GUI erreichen zu können müssen noch folgende Schritt ausgeführt werden.
Wichtig: Es müssen beide Terminal fenster geöffnet bleiben (Open Web UI und Foundry)
Beide Dienste müssen gestartet sein und laufen. Nach einem Neustart müssen also folgende Befehle ausgeführt werden
cd ~/openwebui
source .venv/bin/activate
open-webui serve
foundry service startKonto anlegen in Open WebUI
Wir navigieren zu http://localhost:8080 und legen dort ein Konto an. Das Konto ist komplett lokal. Das Passwort sollte aber notiert werden, ansonsten muss Open WebUI neu installiert werden. Das Konto ist rein Offline und dient als Identifizierung des Kontos
Foundry Service Port ermitteln
Um jetzt Zugriff von Open WebUI auf Foundry zu erhalten muss der richtige Port verknüpft werden. Der Port ist dynmisch dh. er ändert sich nach jedem Service Start.
Läuft der Service kann mittels
foundry service status
> 🟢 Model management service is running on http://127.0.0.1:59338/openai/statusErmittelt werden, welcher Port aktuell ist. In diesem Fall 59338
Foundry & Open Web UI verbinden
Jetzt navigieren wir in Open Web UI über das Profil-Symbol in die Administrator-Einstellungen > Verbindungen und editieren dort die URL für den Open AI Service.
Die korrekte Syntax für den Zugriff auf unseren lokalen Foundry Service lautet
Die Verschlüsselung auf "Keine" setzen.
Jetzt kann über das kleine Pfeil-Symbol die Verbindung geprüft werden und nach dem Speichern und "Neuer Chat" sollten die installierten Modelle verfügbar sein.

Nach einem PC-Neustart ändert sich der Foundry-Port, dh. dieser muss nach jedem Neustart über die Admin-Einstellungen neu gesetzt werden.
Weitere hilfreiche Befehle:
foundry service status # Status prüfen
foundry service start # Service starten
foundry service stop # Service stoppen
foundry service restart # Service neu starten
foundry model list # Verfügbare Modelle anzeigen
foundry cache list # Heruntergeladene Modelle anzeigen
foundry cache clear # Cache leeren (Modelle löschen)
brew upgrade foundrylocal # Foundry Local aktualisierenWenn ihr Fragen habt, nutzt gerne die Kommentare hier oder unter dem Youtube-Video!

Kommentare