Die meisten KI-Funktionen (Künstliche Intelligenz) lassen sich nur online nutzen – etwa ChatGPT, Google Gemini (ehemals Bard) und viele weitere. Aber inzwischen gibt es auch so einige Open-Source-KIs – sogenannte LLMs, etwa die von Facebook – llama2. Solche lassen sich auch lokal nutzen – und, natürlich auch unter Linux, ganz einfach installieren mit Ollama.

Ollama installieren

Sie finden das Script zur Installation unter Ollama zum Download – einfacher gelingt dies als root auf dem Terminal mit dem Befehl:

curl -fsSL https://ollama.com/install.sh | sh

Haben Sie nur sudo – starten Sie den Befehl als normaler Benutzer. Ein kleiner Tipp: Finden Sie solche Befehle auf nicht offiziellen Seiten, so laden Sie das Script erst nur herunter und sehen es sich erst einmal an, bevor Sie es starten 😁:

Haben Sie keine NVIDIA im Computer eingebaut, wird die KI später etwas träge sein – außer die CPU gibt ein wenig her.

Installiert wird die Software übrigens unter „/usr/local/bin“ – ein

rm /usr/local/bin/ollama

als root am Terminal lässt die Software wieder verschwinden.

KIs mit Ollama installieren

Ollama ist nur die Software, mit der Sie KI-Sprachmodelle installieren und ausführen. Also gilt es, erst einmal sie zu installieren. Ollama läuft nach der Installation automatisch – dies zeigt die Adresse:

localhost:11434

Im Webbrowser:

Dies muss natürlich nicht sein, Sie können die Software über Systemd steuern – also als root auf dem Terminal:

systemctl status ollama.service
systemctl diasble --now ollama.service
systemctl start ollama.service
systemctl stop ollama.service
systemctl enable --now ollama.service

Noch können Sie über die Software am Terminal keine KIs suchen – Sie müssen sich noch auf die Webseite bemühen – Ollama-KIs.

Mit:

ollama pull KI

installieren Sie anschließend die gewünschte KI – gleich ein Versuch:

ollama pull llama2

Dies gelingt als normaler Benutzer:

Im Fall von llama2 sind dies rund 3,8 GB. Die heruntergeladene KI gilt es jetzt über Ollama zu starten, hierzu dient die Syntax:

ollama run modell

In meinem Beispiel also:

ollama run llama2

Schon wartet die KI auf Anfragen:

Meine erste dumme Frage: „Was ist Linux?“ Die Software antwortet auf diese Frage in Deutsch zwar auf Englisch, dies ist kein Problem. Ich dachte eigentlich, dass die Software ohne NVIDIA-Grafikkarte Probleme machen würde, aber hier, mit einer Intel-GPU am Laptop, kein Problem – nicht langsamer als etwa ChatGPT im Webbrowser:

Nicht mal der Lüfter hat zu arbeiten begonnen. Mit /? lässt sich unter llama2 etwa die Hilfe anzeigen, mit Strg+d oder /bye beenden Sie die KI – Ollama läuft aber weiter – siehe Systemd oben.

Installierte KIs lassen Sie sich mit:

ollama list

anzeigen:

Mit:

ollama rm modell

entfernen Sie eine KI wieder aus dem System – etwa:

ollama rm llama2

Weiteres

Wichtig – bevor Sie Ollama wie oben beschrieben deinstallieren, deaktivieren Sie den Service. Sie können Ollama auch mit der grafischen Oberfläche Open WebUI nutzen.

Schreibe einen Kommentar

2 Reaktionen

Neue Themen im Forum
Editor micro für's TerminalKlein, fein und flink; läuft je nach Gusto bei mir neben nano. … Weiterlesen
Fedora UpdateZitat von robertgoedl am 9. Mai 2024, 13:58 Uhr Jaaaa, Fedora läd … Weiterlesen
Statistik April 2024Die Entwicklung im WIKI im Januar 2024 Insgesamt sind 13 neue Bei … Weiterlesen
Kategorien im Wiki
WIKI-Beiträge des Monates

Die Beiträge des Monates finden Sie im Kalender unter den blau markierten Tageszahlen.

Mai 2024
M D M D F S S
 12345
6789101112
13141516171819
20212223242526
2728293031  
Archive