#ct3003 TL;DR
Die kleinen Modelle von #Deepseek taugen nichts. Um das große Modell lokal laufen zu lassen, braucht man mindestens einen Server mit 720 GB RAM. Der kostet einige 1000 Euro und ist mit 3 Token pro Sekunde zu langsam für Interaktivität. Mit Grafikkarten (#Nvidia H200) würde es schneller gehen, würde aber einige 100.000 Euro kosten und hohen #Stromverbrauch verursachen.
#LLM #chatgpt
https://www.youtube.com/watch?v=A8N3zKUJ0yE