使用Docker + Ollama本地化部署大模型

使用Docker + Ollama本地化部署大模型

前置要求

You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.

你至少需要8GB的RAM来运行7B模型,16GB来运行13B模型,32GB来运行33B模型。

  • 如果您已经满足上述要求,接下来我们将从Docker开始安装。
阅读更多