feat: Update Ollama package
This commit is contained in:
parent
bc77d95fdb
commit
db67270600
|
|
@ -1,37 +1,17 @@
|
|||
# ollama
|
||||
# Ollama
|
||||
|
||||
**Ollama** 是一个开源的大型语言模型服务,提供了类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
|
||||
|
||||
## 快速开始
|
||||
|
||||
> 进入 `容器` 列表,找到 Ollama 容器,点击进入终端运行并与 [Llama 2](https://ollama.com/library/llama2) 聊天:
|
||||
> 进入 `容器` 列表,找到 Ollama 容器,点击进入终端运行并与 [DeepSeek R1](https://ollama.com/library/deepseek-r1) 聊天:
|
||||
|
||||
```
|
||||
ollama run llama2
|
||||
ollama run deepseek-r1:1.5b
|
||||
```
|
||||
|
||||
## 模型库
|
||||
|
||||
Ollama 支持 [ollama.com/library](https://ollama.com/library) 上提供的一系列模型
|
||||
|
||||
以下是一些可以下载的示例模型:
|
||||
|
||||
| Model | Parameters | Size | Download |
|
||||
| ------------------ | ---------- | ----- | ------------------------------ |
|
||||
| Llama 2 | 7B | 3.8GB | `ollama run llama2` |
|
||||
| Mistral | 7B | 4.1GB | `ollama run mistral` |
|
||||
| Dolphin Phi | 2.7B | 1.6GB | `ollama run dolphin-phi` |
|
||||
| Phi-2 | 2.7B | 1.7GB | `ollama run phi` |
|
||||
| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` |
|
||||
| Starling | 7B | 4.1GB | `ollama run starling-lm` |
|
||||
| Code Llama | 7B | 3.8GB | `ollama run codellama` |
|
||||
| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` |
|
||||
| Llama 2 13B | 13B | 7.3GB | `ollama run llama2:13b` |
|
||||
| Llama 2 70B | 70B | 39GB | `ollama run llama2:70b` |
|
||||
| Orca Mini | 3B | 1.9GB | `ollama run orca-mini` |
|
||||
| Vicuna | 7B | 3.8GB | `ollama run vicuna` |
|
||||
| LLaVA | 7B | 4.5GB | `ollama run llava` |
|
||||
| Gemma | 2B | 1.4GB | `ollama run gemma:2b` |
|
||||
| Gemma | 7B | 4.8GB | `ollama run gemma:7b` |
|
||||
|
||||
> 注意:您应该至少有 8 GB 可用 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。
|
||||
|
|
|
|||
|
|
@ -4,34 +4,14 @@
|
|||
|
||||
## Quick Start
|
||||
|
||||
> Access the `Containers` list, find the Ollama container, and open the terminal to chat with [Llama 2](https://ollama.com/library/llama2):
|
||||
> Access the `Containers` list, find the Ollama container, and open the terminal to chat with [DeepSeek R1](https://ollama.com/library/deepseek-r1):
|
||||
|
||||
```
|
||||
ollama run llama2
|
||||
ollama run deepseek-r1:1.5b
|
||||
```
|
||||
|
||||
## Model Library
|
||||
|
||||
Ollama supports a variety of models available at [ollama.com/library](https://ollama.com/library).
|
||||
|
||||
Below are some example models available for download:
|
||||
|
||||
| Model | Parameters | Size | Download |
|
||||
| ------------------ | ---------- | ----- | ------------------------------ |
|
||||
| Llama 2 | 7B | 3.8GB | `ollama run llama2` |
|
||||
| Mistral | 7B | 4.1GB | `ollama run mistral` |
|
||||
| Dolphin Phi | 2.7B | 1.6GB | `ollama run dolphin-phi` |
|
||||
| Phi-2 | 2.7B | 1.7GB | `ollama run phi` |
|
||||
| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` |
|
||||
| Starling | 7B | 4.1GB | `ollama run starling-lm` |
|
||||
| Code Llama | 7B | 3.8GB | `ollama run codellama` |
|
||||
| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` |
|
||||
| Llama 2 13B | 13B | 7.3GB | `ollama run llama2:13b` |
|
||||
| Llama 2 70B | 70B | 39GB | `ollama run llama2:70b` |
|
||||
| Orca Mini | 3B | 1.9GB | `ollama run orca-mini` |
|
||||
| Vicuna | 7B | 3.8GB | `ollama run vicuna` |
|
||||
| LLaVA | 7B | 4.5GB | `ollama run llava` |
|
||||
| Gemma | 2B | 1.4GB | `ollama run gemma:2b` |
|
||||
| Gemma | 7B | 4.8GB | `ollama run gemma:7b` |
|
||||
|
||||
> **Note**: You should have at least 8 GB of available RAM to run 7B models, 16 GB for 13B models, and 32 GB for 33B models.
|
||||
|
|
@ -1,24 +1,24 @@
|
|||
name: Ollama
|
||||
tags:
|
||||
- AI / 大模型
|
||||
title: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
description: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
title: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型
|
||||
description: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型
|
||||
additionalProperties:
|
||||
key: ollama
|
||||
name: Ollama
|
||||
tags:
|
||||
- AI
|
||||
shortDescZh: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
shortDescEn: Locally run Llama 2, Mistral, Gemma, and other large language models
|
||||
shortDescZh: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型
|
||||
shortDescEn: Get up and running with DeepSeek-R1, Llama 3.3, qwen2.5 and other large language models
|
||||
description:
|
||||
en: Locally run Llama 2, Mistral, Gemma, and other large language models
|
||||
ja: Llama 2、Mistral、Gemma、その他の大規模言語モデルをローカルで実行
|
||||
ms: Jalankan Llama 2, Mistral, Gemma, dan model bahasa besar lain secara tempatan
|
||||
pt-br: Execute localmente o Llama 2, Mistral, Gemma e outros modelos de linguagem de grande porte
|
||||
ru: Локально запускайте Llama 2, Mistral, Gemma и другие крупные языковые модели
|
||||
ko: Llama 2, Mistral, Gemma 및 기타 대형 언어 모델을 로컬에서 실행
|
||||
zh-hant: 本地運行 Llama 2、Mistral、Gemma 和其他大型語言模型
|
||||
zh: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
en: Get up and running with DeepSeek-R1, Llama 3.3, qwen2.5 and other large language models
|
||||
ja: DeepSeek-R1、Llama 3.3、qwen2.5 などの大規模言語モデルを起動して実行
|
||||
ms: Mulakan dan jalankan DeepSeek-R1, Llama 3.3, qwen2.5 dan model bahasa besar lain
|
||||
pt-br: Inicie e execute DeepSeek-R1, Llama 3.3, qwen2.5 e outros modelos de linguagem grandes
|
||||
ru: Запустите и выполните DeepSeek-R1, Llama 3.3, qwen2.5 и другие крупные языковые модели
|
||||
ko: DeepSeek-R1, Llama 3.3, qwen2.5 및 기타 대형 언어 모델을 시작하고 실행
|
||||
zh-hant: 啟動並運行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型語言模型
|
||||
zh: 启动并运行 DeepSeek-R1、Llama 3.3、qwen2.5 及其他大型语言模型
|
||||
type: tool
|
||||
crossVersionUpdate: true
|
||||
limit: 1
|
||||
|
|
|
|||
Loading…
Reference in New Issue