top of page
Copilot Coaching.png

Microsoft Foundry Local - Einfache Schritt-für-Schritt Installation mit OpenWeb UI auf macOS 2026

Aktualisiert: vor 2 Tagen

Dieser Blog-Artikel beschreibt die Installation von Microsoft Foundry Local inkl. Phi-4 und Phi-4 Reasoning Modellen auf einem aktuellen macOS mit der Nutzung von Open Web UI als GUI Schnitstelle für die einfache Nutzung von lokalen KI-Modellen Offline.


macOS Version: macOS Tahoe Version 26.2

Homebrew Version: 5.0.8

Foundry Local Version: 0.8.117 Open WebUI Version: v0.6.43


Eine Schritt-für-Schritt Video-Anleitung gibt es hier auf Youtube unter dem Kanal 365 Checkpoint:


Installation Homebrew & Microsoft Foundry Local


Die Installation läuft über das Terminal in macOS. Wir öffnen ein normales, neues Terminal Fenster.


Zuerst installieren wir Homebrew falls noch nicht vorhanden mittels dem aktuellen Befehl. Der Befehl zur Installation ist auch (falls geändert) zu finden unter https://brew.sh


/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

Danach geben wir einmal unser Passwort ein. Wir benötigen einen Account mit Admin-Rechten und bestätigen mit "Return". Danach läuft die Installation für einige Minuten.


Nach der Installation müssen 3 Befehle eingegeben werden um die Homebrew Installation in den jeweiligen Benutzerpfad zu laden. Diese können einfach direkt aus der Anweisung im Terminal von Homebrew kopiert werden da diese die jeweiligen korrekten Pfade enthalten.


echo >> /Users/<Username>/.zprofile
echo 'eval "$(/pt/homebrew/bin/brew shellenv)"' >> /Users/<Uername>/.zprofile
eval "$(/opt/homebrew/bin/brew shellenv)"

Danach folgt die Installation von Foundry Local mit diesen Befehl


brew tap microsoft/foundrylocal

und

brew install foundrylocal

Danach können folgende Befehle genutzt werden um den Service zu starten und die verfügbaren modelle aufzulisten.

foundry service start
foundrive model list

KI-Modelle können mit folgenden Befehl installiert und in den Cache geladen werden. Nach einem Neustart sind Sie nach dem lediglichen Start des Service sofort verfügbar.

foundry model run <modelname> 

Achtung die Installation der Modelle dauert je nach komplexität und Internet-Geschwindigkeit einige bis viele Minuten. Das Modell GPT OSS kann 30+ Minuten benötigen um zu laufen.


Nach der Installation bzw. dem "run" eines Modell startet dies im Interaktien Chat-Mode. Dieser Mode ist nicht notwendig um das Modell später zu nutzen. Das Modell kann so im Terminal getestet werden. Zum Beenden des Interaktiven Chat-Mode in macOS einfach

CTRL+C 

drücken.


Installation Open WebUI

Nach der Installation von Foundry Local und Homebrew, installieren wir ein Interface.

Open WebUI ist ein Opensource-Projekt das uns als Benutzerschnittstelle zu Foundry Local dient. Es kann aber noch viel mehr, bietet aber eben auch direkte, lokale Unterstützung zu einem lokal laufenden Service, sodass mit diesem Set-Up auch jederzeit offline und unabhängig von anderen Geräten, KI genutzt werden kann ohne das eine Verbindung zum Internet benötigt wird.


Die Installation von Open WebUI benötigt ein paar Vorbereitungen und das eigentliche Set-Up


Python Umgebung für OpenWeb UI vorbereiten

brew install uv 

Danach erstellen wir ein neues Verzeichnis in den wir Open WebUI und die dadurch entstehenden Config-Files speichern und navigieren direkt in den Ordner


mkdir ~/openwebui && cd ~/openwebui

Danach aktivieren bzw. richten die Python Umgebung fertig ein

uv init --python=3.11 .
uv venv
source .venv/bin/activate

Nun können wir Open WebUI installieren:

uv pip install open-webui

und starten:

cd ~/openwebui
source .venv/bin/activate
open-webui serve

Jetzt läuft Open WebUI lokal auf unserem PC unter http://localhost:8080


Foundry Local mit Open Web UI verbinden

Um jetzt Foundry Local via GUI erreichen zu können müssen noch folgende Schritt ausgeführt werden.


Wichtig: Es müssen beide Terminal fenster geöffnet bleiben (Open Web UI und Foundry)


Beide Dienste müssen gestartet sein und laufen. Nach einem Neustart müssen also folgende Befehle ausgeführt werden

cd ~/openwebui
source .venv/bin/activate
open-webui serve
foundry service start

Konto anlegen in Open WebUI

Wir navigieren zu http://localhost:8080 und legen dort ein Konto an. Das Konto ist komplett lokal. Das Passwort sollte aber notiert werden, ansonsten muss Open WebUI neu installiert werden. Das Konto ist rein Offline und dient als Identifizierung des Kontos


Foundry Service Port ermitteln

Um jetzt Zugriff von Open WebUI auf Foundry zu erhalten muss der richtige Port verknüpft werden. Der Port ist dynmisch dh. er ändert sich nach jedem Service Start.


Läuft der Service kann mittels

foundry service status
> 🟢 Model management service is running on http://127.0.0.1:59338/openai/status

Ermittelt werden, welcher Port aktuell ist. In diesem Fall 59338


Foundry & Open Web UI verbinden

Jetzt navigieren wir in Open Web UI über das Profil-Symbol in die Administrator-Einstellungen > Verbindungen und editieren dort die URL für den Open AI Service.


Die korrekte Syntax für den Zugriff auf unseren lokalen Foundry Service lautet


Die Verschlüsselung auf "Keine" setzen.

Jetzt kann über das kleine Pfeil-Symbol die Verbindung geprüft werden und nach dem Speichern und "Neuer Chat" sollten die installierten Modelle verfügbar sein.


ree

Nach einem PC-Neustart ändert sich der Foundry-Port, dh. dieser muss nach jedem Neustart über die Admin-Einstellungen neu gesetzt werden.


Weitere hilfreiche Befehle:

foundry service status    # Status prüfen
foundry service start     # Service starten
foundry service stop      # Service stoppen
foundry service restart   # Service neu starten
foundry model list        # Verfügbare Modelle anzeigen
foundry cache list        # Heruntergeladene Modelle anzeigen
foundry cache clear       # Cache leeren (Modelle löschen)
brew upgrade foundrylocal  # Foundry Local aktualisieren

Wenn ihr Fragen habt, nutzt gerne die Kommentare hier oder unter dem Youtube-Video!

Kommentare


bottom of page