diff --git a/ollama/README.md b/ollama/README.md index f36d2545b..75cf47540 100644 --- a/ollama/README.md +++ b/ollama/README.md @@ -1,37 +1,17 @@ -# ollama +# Ollama **Ollama** 是一个开源的大型语言模型服务,提供了类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。 ## 快速开始 -> 进入 `容器` 列表,找到 Ollama 容器,点击进入终端运行并与 [Llama 2](https://ollama.com/library/llama2) 聊天: +> 进入 `容器` 列表,找到 Ollama 容器,点击进入终端运行并与 [DeepSeek R1](https://ollama.com/library/deepseek-r1) 聊天: ``` -ollama run llama2 +ollama run deepseek-r1:1.5b ``` ## 模型库 Ollama 支持 [ollama.com/library](https://ollama.com/library) 上提供的一系列模型 -以下是一些可以下载的示例模型: - -| Model | Parameters | Size | Download | -| ------------------ | ---------- | ----- | ------------------------------ | -| Llama 2 | 7B | 3.8GB | `ollama run llama2` | -| Mistral | 7B | 4.1GB | `ollama run mistral` | -| Dolphin Phi | 2.7B | 1.6GB | `ollama run dolphin-phi` | -| Phi-2 | 2.7B | 1.7GB | `ollama run phi` | -| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` | -| Starling | 7B | 4.1GB | `ollama run starling-lm` | -| Code Llama | 7B | 3.8GB | `ollama run codellama` | -| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` | -| Llama 2 13B | 13B | 7.3GB | `ollama run llama2:13b` | -| Llama 2 70B | 70B | 39GB | `ollama run llama2:70b` | -| Orca Mini | 3B | 1.9GB | `ollama run orca-mini` | -| Vicuna | 7B | 3.8GB | `ollama run vicuna` | -| LLaVA | 7B | 4.5GB | `ollama run llava` | -| Gemma | 2B | 1.4GB | `ollama run gemma:2b` | -| Gemma | 7B | 4.8GB | `ollama run gemma:7b` | - > 注意:您应该至少有 8 GB 可用 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。 diff --git a/ollama/README_en.md b/ollama/README_en.md index 0db4892b5..7cc85cc8e 100644 --- a/ollama/README_en.md +++ b/ollama/README_en.md @@ -4,34 +4,14 @@ ## Quick Start -> Access the `Containers` list, find the Ollama container, and open the terminal to chat with [Llama 2](https://ollama.com/library/llama2): +> Access the `Containers` list, find the Ollama container, and open the terminal to chat with [DeepSeek R1](https://ollama.com/library/deepseek-r1): ``` -ollama run llama2 +ollama run deepseek-r1:1.5b ``` ## Model Library Ollama supports a variety of models available at [ollama.com/library](https://ollama.com/library). -Below are some example models available for download: - -| Model | Parameters | Size | Download | -| ------------------ | ---------- | ----- | ------------------------------ | -| Llama 2 | 7B | 3.8GB | `ollama run llama2` | -| Mistral | 7B | 4.1GB | `ollama run mistral` | -| Dolphin Phi | 2.7B | 1.6GB | `ollama run dolphin-phi` | -| Phi-2 | 2.7B | 1.7GB | `ollama run phi` | -| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` | -| Starling | 7B | 4.1GB | `ollama run starling-lm` | -| Code Llama | 7B | 3.8GB | `ollama run codellama` | -| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` | -| Llama 2 13B | 13B | 7.3GB | `ollama run llama2:13b` | -| Llama 2 70B | 70B | 39GB | `ollama run llama2:70b` | -| Orca Mini | 3B | 1.9GB | `ollama run orca-mini` | -| Vicuna | 7B | 3.8GB | `ollama run vicuna` | -| LLaVA | 7B | 4.5GB | `ollama run llava` | -| Gemma | 2B | 1.4GB | `ollama run gemma:2b` | -| Gemma | 7B | 4.8GB | `ollama run gemma:7b` | - > **Note**: You should have at least 8 GB of available RAM to run 7B models, 16 GB for 13B models, and 32 GB for 33B models. \ No newline at end of file diff --git a/ollama/data.yml b/ollama/data.yml index 499f60fe3..e963dcf71 100644 --- a/ollama/data.yml +++ b/ollama/data.yml @@ -1,24 +1,24 @@ name: Ollama tags: - AI / 大模型 -title: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型 -description: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型 +title: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型 +description: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型 additionalProperties: key: ollama name: Ollama tags: - AI - shortDescZh: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型 - shortDescEn: Locally run Llama 2, Mistral, Gemma, and other large language models + shortDescZh: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型 + shortDescEn: Get up and running with DeepSeek-R1, Llama 3.3, qwen2.5 and other large language models description: - en: Locally run Llama 2, Mistral, Gemma, and other large language models - ja: Llama 2、Mistral、Gemma、その他の大規模言語モデルをローカルで実行 - ms: Jalankan Llama 2, Mistral, Gemma, dan model bahasa besar lain secara tempatan - pt-br: Execute localmente o Llama 2, Mistral, Gemma e outros modelos de linguagem de grande porte - ru: Локально запускайте Llama 2, Mistral, Gemma и другие крупные языковые модели - ko: Llama 2, Mistral, Gemma 및 기타 대형 언어 모델을 로컬에서 실행 - zh-hant: 本地運行 Llama 2、Mistral、Gemma 和其他大型語言模型 - zh: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型 + en: Get up and running with DeepSeek-R1, Llama 3.3, qwen2.5 and other large language models + ja: DeepSeek-R1、Llama 3.3、qwen2.5 などの大規模言語モデルを起動して実行 + ms: Mulakan dan jalankan DeepSeek-R1, Llama 3.3, qwen2.5 dan model bahasa besar lain + pt-br: Inicie e execute DeepSeek-R1, Llama 3.3, qwen2.5 e outros modelos de linguagem grandes + ru: Запустите и выполните DeepSeek-R1, Llama 3.3, qwen2.5 и другие крупные языковые модели + ko: DeepSeek-R1, Llama 3.3, qwen2.5 및 기타 대형 언어 모델을 시작하고 실행 + zh-hant: 啟動並運行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型語言模型 + zh: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型 type: tool crossVersionUpdate: true limit: 1