Schlagwort: KI

  • Ollama – deine KI ohne Internet im Heimnetzwerk

    Ollama – deine KI ohne Internet im Heimnetzwerk

    Ich glaube wir kommen alle nicht mehr an der Künstlichen Intelligenz vorbei.
    Du hast eine Frage? – Google ist out, die Frage stellt man der KI.
    Du bist alleine und suchst einen Gesprächspartner? – Dein neuer Freund kann die KI sein.

    Doch die KI kann noch viel mehr. Zum Beispiel Dokumente analysieren und diese dann Tags zuordnen. Dabei möchte ich nicht, dass meine Dokumente auf irgendwelchen Servern verarbeitet werden. Hier setzt Ollama an. Eine KI die im Heimnetz ihre Anwendung findet und über Schnittstellen genutzt werden kann.

    Einige Container bieten KI Integration. Je nach Anwendung kann man unter den Environments diese KI einbinden oder ggf. auch im Menü der GUI. Eine andere Möglichkeit ist z.B. n8n, eine Automatisierungsplattform für Workflows.

    Vorraussetzungen

    Ich habe Ollama auf meinem Homeserver MINIS FORUM UM450 mit AMD Ryzen 5 4500U 6C/6T mit 4,0 GHz 32 GB RAM genutzt.

    Ollama habe ich 5 Kerne über Proxmox gegeben und damit ist die KI an seine Grenzen gekommen. Aus dem Grund nutze ich Ollama bei mir nicht aktiv. Es hat allerdings funktioniert. Man brauch nur Geduld. Falls du es mal testen möchtest kommen wir nun zum Docker Compose File.

    Docker Compose File

    Ich habe Ollama auf Dockge installiert. Den Code unten eingefügt und gewartet bis die Gigabytes von Images herunter geladen sind. Die open-webui hat auch ein paar Sekunden gebraucht bis sie gestartet ist.

    Bei dem Docker Compose Skript handelt es sich um 2 Container. Einmal Ollama selbst und die Web GUI, open-webui. Die Web GUI ist über den Port 8080 erreichbar. Also http://deineIP:8080

    networks:
      ollama-docker:
        external: false
    volumes:
      ollama: null
      open-webui: null
    services:
      ollama:
        container_name: ollama
        image: ollama/ollama:latest
        networks:
          - ollama-docker
        expose:
          - 11434
        volumes:
          - ollama:/root/.ollama
        restart: unless-stopped
      open-webui:
        container_name: open-webui
        image: ghcr.io/open-webui/open-webui:main
        networks:
          - ollama-docker
        ports:
          - 8080:8080
        volumes:
          - open-webui:/app/backend/data
        environment:
          - OLLAMA_BASE_URL=http://ollama:11434
        restart: unless-stopped
    

    Einstellungen

    Einstellen musst du nun nicht mehr viel. Auf der Webseite musst du dich Anmelden. Dabei bleiben deine Daten bei dir.

    Im Anschluss kannst du deine Lieblingssprache einstellen. Bei mir als Deutscher, deutsch.

    Nun einmal Einstellungen – Administrationsbereich – dort auf Modelle und rechts auf Manage Models. Nun auf „Um auf die verfügbaren Modellnamen zuzugreifen, hier klicken“ klicken. Hier suchst du dir ein Modellname aus. Als beliebte werden mir llama3.3 oder deepseek-r1 angezeigt. Diesen Tag fügst du unter „Modell von Ollama.com beziehen“ ein und wartest bis der Download fertig ist. Das kann dauern. In dieser Datei befindet sich das Wissen.

    Viel Spaß beim ausprobieren.