GPU in Proxmox durchreichen und OLLAMA2 nutzen.. #proxmox #ollama #nvidia

Published 2024-03-22
đŸš© Aktuelle Osterangebote: amzn.to/4aqHIzu

#ollama #gpu #llm

IT-Dienstleistungen (Coaching, Training, Beratung, Einrichtung)
bit.ly/3b20wc5

██ MINI PCs fĂŒr Proxmox / pfSense / OPNsense / Server ██
Preis-/ Leistungssieger: amzn.to/2S92wJC
Leistungskiller: amzn.to/3glDHlM
Bester & Billig*: amzn.to/3crj9a2

██ NAS Systeme fĂŒr Zuhause oder im BĂŒro ██
Meine Empfehlung: amzn.to/2T8Awpf
FĂŒr Zuhause: amzn.to/34TBGYD
Preis-/Leistungssieger: amzn.to/3gfiXvL

██ Mini Reise Router Empfehlungen ██
GĂŒnstigster: amzn.to/3vWo4HQ
Der Sieger: amzn.to/3puC9Ke
AnfÀnger geeignet: amzn.to/2TPgEYQ

🔔 Social Media 🔔
đŸ“Č Zweitkanal: youtube.com/@dennis-schroeder
🔮 Twitch: www.twitch.tv/rpicloud
🐓 Twitter: twitter.com/dennis_schroed
💿 Discord: discord.gg/rpicloud
đŸ’» Website: schroederdennis.de/
đŸ’» DynDNS: ipv64.net/
💿Mein VPN Provider: go.getproton.me/SHW8
â–ș 20€ Hetzner Geschenkt: bit.ly/3s7188g
â–ș Spenden bit.ly/3saiyRn

Impressum bit.ly/3gfQANZ
*Als Amazon-Partner verdiene ich an qualifizierten VerkĂ€ufen. Vielen Dank fĂŒr deine Unte

All Comments (21)
  • Super. Ich freue mich auf die kommenden Videos die auf die internen Inhalte trainiert werden
  • @autobargmann4036
    Endlich mal was neues und Interessantes. Weiter so. Macht Lust auf was neues. Ein paar "nĂŒtzliche" Anwendungen wĂ€ren auch schön.
  • @DennisPlagge
    Oh, der Schröder Dennis macht wieder was Interessantes. Bin sehr gespannt, meine Tesla P4 hab ich letztes Jahr gekauft, musste aber leider dringendere Dinge erledigen. Da gibt es ja ein paar Sachen zu beachten beim Durchreichen und bisher fehlte halt leider die Zeit. Also sehr cooles Projekt, passt wie die Faust aufs Auge.
  • @cheebadigga4092
    Open WebUI arbeitet wahrscheinlich auf der CPU, weil der Container nicht mit dem Kernel direkt sprechen kann. Starte das Ding als privileged Container mit host Network, dann sieht das Ergebnis sehr wahrscheinlich so aus wie in der CLI.
  • @florian7679
    Das 13b Model passt nicht vollstĂ€ndig in den "kleinen" VRAM der Tesla-GPU und muss zum Teil auch in den normalen RAM geladen werden. Dies fĂŒhrt dazu, dass auch die CPU mitackern muss. In der Beschreibung des llama2 (Q4) Models auf ollama steht: 7b models generally require at least 8GB of RAM 13b models generally require at least 16GB of RAM 70b models generally require at least 64GB of RAM
  • @AndreasCordes
    Interessant, bin gespannt auf das Video zum Finetuning von den Modellen. Eine Übersicht ĂŒber GPU's zum Mieten wĂ€re da noch ganz gut
  • @-.Gaba-.
    Interessant aber bereits beim ausbinden der PCIe aus dem OS (Proxmox) bin ich leider nicht mehr mitgekommen. Bin noch auf Lernstufe 2 (Tutorial Niveau) aber danke fĂŒr die ausblicke wofĂŒr es sich zum lernen lohnt.
  • @Klemmi.
    @RaspberryPiCloud: Zum Speicherplatz-Problem: Rein bildlich gesprochen, kann man auch die Anzahl der enthaltenen "hard facts" im Modell auf die Anzahl der Gewichte mappen. Ich finde, die Metapher einer "Datenbank" + "Datenverabreitungsroutinen" => "Anzahl der Gewichte" (z.B. 7b, 13b, 70b) recht eingĂ€nglich. Ein Modell kann nur dann effizient angewendet werden, wenn alle (relevanten) Gewichte im VRAM der Grafikkarte liegen. Das ist leider bei den grĂ¶ĂŸeren Modellen (bei dir z.B. das Llama 13b) nicht mehr der Fall. Deshalb greift es dann in deinem Test (10:30) auf den normalen RAM und Prozessor zurĂŒck.
  • @julfoi2139
    Die Frage ist jetzt nur welches Model willst du verwenden von den allen die es gibt um dieses zu traineren und zu fĂŒttern mit IPV64? Bzw hast du dich schon entschieden fĂŒr ein Model welches du verwenden möchtest fĂŒr IPv64?
  • Wie immer tolles Video. WĂŒrde Open Web UI mit Ollama auf einem Nitel Nuc Sinn machen?
  • @mcluckey84
    Wie hast Du die KĂŒhlung der GPU geplant? Soweit ich das verstehe ich die GraKa zwar passiv gekĂŒhlt, braucht aber wie in Server gewöhnlich einen entsprechenden aktiven Luftstrom.
  • @agent4701
    Wie heißt denn das Tool im HIntergrund auf dem Fernseher?
  • @Bananen_Paul
    Danke fĂŒr die ErklĂ€rung! Musste ich direkt mal testen ... jedoch bemerke ich das llama3 bei mir nur die CPU belastet und nicht die GPU obwohl diese erkannt wird und alles ... auch hab ich bemerkt, dass das Modell nicht in die GPU geladen wird. Hast du da vielleicht noch einen kleinen kniff auf Lager ? :)
  • @renepape6388
    Hallo, was ist das denn fĂŒr eine Maus, die Du benutzt? VG RenĂ©
  • @mr.dislike2486
    Sind das vorgefertigte Images / Infos oder kann man die selber anlernen bzw. fĂŒttern mit Infos
  • @Scho7544
    Sooooo, i saw this video and of course i thought it was a cool project so i bought a minsforum MS-01 and a Tesla P4 (Ofcourse not just because of this video ;-). But as i am expirimenting with it i cant get ollama to use the Tesla P4 card. I have installed the drivers and the cuda drivers for the card. Can someone tell me what i am doing wrong?... Thanks!
  • @Cabel330
    Hallo, Sehr interessantes Projekt. Gibt es die Möglichkeit zb meine BĂŒcher einzuscannen u dann die Texte in die KI einzupflegen,so dass ich ihr Fragen stellen kann u sie mir aus dem Wissen der BĂŒcher heraus antwortet? Vielen lieben Dank /Nick
  • @damichi84
    Geht gpu pass through mit dem auch in true as zb fĂșr ne ai App?
  • Bin dann Mal gespannt, wie das Modell dann portiert wird auf andere Hardware
  • @kalobyte
    vdi ist auch interessant besonders mit thin client