Deepseek-R1-腾讯云体验版

作者:Administrator 发布时间: 2025-02-14 阅读量:10 评论数:0

Deepseek-R1-腾讯云体验版

一、概述

当前空间已内置 DeepSeek-R1 1.5b、7b、14b、32b 模型,并支持一键部署。

空间文件结构如下:

root/
├── workspace/ # Cloud Studio 内置示例文件
├── qcloud_hai/ # HAI 其他进程,如ComfyUI、WebUI等
│   └── ...
├── root/ # 一般模型文件存放在该文件夹
│   └── chatbot-ollama  
│   └── miniforge3
│   └── ...
├── ... # Deepseek官方文档与资源

二、快速开始

Control + Shift +` 打开终端,输入以下代码中并回车运行即可查看模型推理效果:

ollama list     // 查询模型列表
ollama run deepseek-r1:1.5b

如需切换到7B模型,可Ctrl + D 退出当前进程后再次输入以下代码即可:

ollama run deepseek-r1:7b

如您使用的是进阶型,可使用下方命令加载更大参数的模型:

# 进阶型
ollama run deepseek-r1:8b # DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:14b # DeepSeek-R1-Distill-Qwen-14B

# 双卡基础型
ollama run deepseek-r1:32b # DeepSeek-R1-Distill-Qwen-32B

# 双卡进阶型
ollama run deepseek-r1:70b # DeepSeek-R1-Distill-Llama-70B

也可通过点击查看机器来源,访问内置的ChatbotUI及JupyterLab、修改端口、扩容云硬盘、应用存档

三、进阶使用

1.  网络访问

方法一:通过公网IP拼接端口号访问

可以通过指定 IP 及端口号创建服务后,通过公网 IP 拼接端口号查看 web 预览效果。

详情请查看:Cloud Studio(云端 IDE) 使用 GPU 开发-操作指南-文档中心-腾讯云

注意事项:由于目前仅 HAI 进阶型及其他非免费版本可自定义开放端口,以上方法仅限 HAI 进阶型及其他非免费版本可用。

方法二:通过code server提供的proxy访问

可以在当前页面浏览器地址后拼接proxy/{port}/查看 Web 预览效果

https://xxxxxx.ap-xxxxxx.cloudstudio.work/proxy/{port}/

注意事项:此方式可能会出现样式丢失的问题,官方不建议使用。如果您仍要使用该方式,可以参考文档Securely Access & Expose code-server | code-server Docs获取更多帮助。

方法三:免费版网络打通指引

2. API调用

完成网络访问后,可参考Ollama官方文档进行API调用:Ollama API调用

基础请求示例

调用 deepseek-r1:1.5b
curl -X POST http://localhost:8434/api/generate \  
     -H "Content-Type: application/json" \  
     -d '{  
           "model": "deepseek-r1:1.5b",  
           "prompt": "用一句话解释量子计算",  
           "stream": false  
         }'  

3. Web Chat

如使用的是付费版,可通过查看机器来源,点击ChatBotUI直接通过网页开始对话。
如使用的是免费版,可参考该文档:免费版网页调用指引

4. 创建个人知识库

创建个人知识库指引

四、  常见问题

1. 如何上传下载文件?

可将小型文件从本地拖拽到文件树直接上传,在文件树区域右键可以选择下载。

如果文件太大,编辑器的适配能力有限,建议在工作空间内通过 wget 命令进行下载:wget -O 文件名 https://xxx.com/xxx

2. 对 Hugging Face 的访问提供了网络加速处理吗?

目前仅对GitHub的访问提供了网络加速处理,如需访问国外网络,建议使用HAI进阶型,并在创建应用时选择国外地域。

3. Python文件运行按钮使用的解释器如何修改?

  • 按下Ctrl+Shift+P(Mac上是Cmd+Shift+P)打开命令面板。

  • 输入并选择Python: Select Interpreter

  • 在弹出的列表中选择你想要设置的Python解释器。

如下图:

4. 出现 CUDA out of memory 的错误提示怎么办?

模型文件加载需要占用显存资源。如:载入8B模型,需要约16G显存。基础型可用显存15G左右,如需载入8B及以上模型,建议购买 HAI 进阶型,或可使用 Ollama 模板,使用内存加载模型。

5. 如何基于已有的工作空间创建新的工作空间?

如需使用此功能,请使用HAI进阶型。具体操作步骤如下:

应用存档:登录HAI控制台,进入“算力管理”,找到需要创建新工作空间所基于的应用,在 “更多” 中选择 “应用存档” 。存档过程中,系统会将应用的所有相关数据和配置信息进行保存,确保后续创建新工作空间时能够完整恢复应用的状态。

选择 “自定义应用”:存档完成后,进入平台的创建应用页面,选择 “自定义应用” 选项,这将允许用户根据已有的存档应用来创建新的工作空间。

选择存档应用:选择 “自定义应用” 后,页面会显示您之前已存档的应用列表,选择您需要基于其创建新工作空间的存档应用。

完成新工作空间的创建:选择存档应用后,根据实际需求对新工作空间的一些参数和设置进行调整,如地域、硬盘容量等。确认设置无误后,点击 “立即购买” ,系统将根据所选的应用存档和设置创建新的工作空间。

6. 免费版工作空间时长用完如何继续使用?

免费版主要用于帮助用户体验产品功能,暂不支持续费。可等待下个月再次发放时长后继续使用。

7.  为什么关机后没法开机了?

对于免费基础型,创建时会全地域寻找有算力的地域创建。创建完实例,所在区会固定,下次开机时所在区有资源才能开机。

目前免费高性能空间不支持迁移地域,如遇到所在区没资源时会出现无法开机的情况。如果需要保证稳定可开机,建议购买 HAI 基础型或进阶型。通过创建自定义应用,并在控制台具有算力的地域中,利用保存的自定义应用创建的方式,来完成地域迁移。

8.  其他问题

点击链接查看更多帮助文档: Cloud Studio(云端 IDE) 常见问题-文档中心-腾讯云

五、帮助和支持

欢迎加入Cloud Studio用户反馈群

当您遇到问题需要处理时,您可以直接通过到扫码进入Cloud Studio用户群进行提问.

  • 腾讯云工程师实时群内答疑
  • 扫码入群可先享受产品上新功能
  • 更多精彩活动群内优享

评论