自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!
最近オープンになる大規模言語モデル(LLM)が、軒並みGPT-4レベルの性能となっています
Huggngfaceで無料でダウンロードできるのですが、問題は必要VRAM容量です
話題の、Command-r-Plusは、日本語性能について評価が高く、一部の性能はGPT-4並みと言われますが、さすがに大型で104Bパラメータもあるため、4bitに量子化しても60GB程度のVRAMが必要となります。
コンシューマークラスのGPUの最高峰、RTX4090は、VRAM24GBのため、