基于GPUGEEK 平台举行深度学习

打印 上一主题 下一主题

主题 1872|帖子 1872|积分 5616

一、平台简介

GPUGEEK 是一个专注于提供 GPU 算力租赁服务的平台,在人工智能与深度学习领域为用户搭建起便捷的算力桥梁。它整合了丰富多样的 GPU 资源,涵盖 RTX - 4090、RTX - 3090、A100 - PCIE 等多种型号,满足不同用户在模子练习、数据处理、图像渲染等场景下的算力需求。同时,该平台还设有镜像市场、模子市场等功能板块,为用户提供一站式的 AI 开辟与运算支持。

二、选择 GPUGEEK 平台的理由

(一)丰富的算力资源

平台提供了种类繁多的 GPU 类型,从斲丧级的 RTX 系列到专业级的 A 系列,显存从 24GB 到 48GB 不等,用户可以根据自身项目的规模与复杂度机动选择

(二)机动的计费模式

GPUGEEK 支持按流量计费、包天、包月等多种计费方式。按流量计费适用于短期且任务量颠簸较大的项目,用户只需为实际使用的算力资源付费,避免了资源闲置造成的浪费;包天、包月模式则对于长期稳定运行的项目更为友爱,能以相对优惠的价格锁定算力,降低整体使用成本。这种多样化的计费选择,充分考虑了不同用户的使用风俗和预算安排。

(三)优质的生态支持

镜像市场汇聚了众多开辟者分享的实用镜像,涵盖了常见的深度学习框架和开辟环境,如 PyTorch、TensorFlow 等,方便用户快速摆设项目。

模子市场则提供了各类热门的预练习模子,像 Qwen - 3、GLM - 4 等大语言模子,以及用于图像、视频、音频处理的相干模子,为用户的研究和开辟提供了丰富的资源储备。

使用GPUGEEK举行深度学习

进入到容器实例的页面,点击创建实例

进入到页面我们可以看到他这里的计费模式是按量付费,用多少扣多少,显卡的话我们就3090就行了
新人的话是有20元的算力券的,可以点击链接举行注册操作获取新人算力券

镜像的版本我们设置为DeepSeekR1就行

直接点击右下角的创建实例就行了,然后我们稍等一会儿就创建好了
创建过程中不会计费。实例创建完成后,手动关机可不计费

等机器创建好了之后我们点击这个登录操作

然后他会弹出相干的账号密码啥的,供你远程登录操作服务器
复制你自己的登录指令和登录密码然后直接点击确认

点击Tensorboard JupyterLab

我们这里进入到新页面,这里默认是登录好了的,我们就不需要使用账号密码登录了,直接使用这个服务器

我们来到模子广场,找到这个DeepSeek V3模子,点击进去

查看相干的API信息,可以看到这里提供了四种调用方式Node.js、Python、HTTP、OpenAI

我们先举行API-KEYS的获取,点击API-KEYS进入到页面,点击复制我们的专属API-KEYS

我们发现他这里并没有提供实际的调用代码,所以我们就得自己本地举行代码的誊写了
我这利生成了一份代码,你可以参考下

  1. import requests
  2. import json
  3. # API 配置
  4. API_KEY = "API_Token"        #替换为自己的 API_Token
  5. url = "https://api.gpugeek.com/predictions"
  6. headers = {
  7.     "Authorization": f"Bearer {API_KEY}",
  8.     "Content-Type": "application/json",
  9.     "Stream": "true"
  10. }
  11. # 初始化对话
  12. conversation_history = []
  13. user_input = input("请输入初始问题:")
  14. conversation_history.append(f"用户: {user_input}")
  15. while True:
  16.     # 构建提示
  17.     prompt = "\n".join(conversation_history) + "\n助手:"
  18.    
  19.     # 发送请求
  20.     data = {
  21.         "model": "GpuGeek/Qwen3-32B",  # 替换为自己的模型名称
  22.         "input": {
  23.             "frequency_penalty": 0,
  24.             "max_tokens": 8192,
  25.             "prompt": prompt,
  26.             "temperature": 0.6,
  27.             "top_k": 50,  # 官方示例中包含此参数
  28.             "top_p": 0.7
  29.         }
  30.     }
  31.     try:
  32.         # 发送请求并使用流式处理
  33.         response = requests.post(url, headers=headers, json=data, stream=True)
  34.         
  35.         # 检查响应状态码
  36.         if response.status_code != 200:
  37.             print(f"请求失败,状态码: {response.status_code}")
  38.             print(f"错误内容: {response.text}")
  39.             break
  40.             
  41.         # 处理流式响应(按官方示例)
  42.         full_reply = ""
  43.         for line in response.iter_lines():
  44.             if line:
  45.                 try:
  46.                     # 解码并解析JSON
  47.                     json_line = line.decode("utf-8")
  48.                     result = json.loads(json_line)
  49.                     
  50.                     # 提取回复内容
  51.                     if "output" in result:
  52.                         output = result["output"]
  53.                         if isinstance(output, list):
  54.                             full_reply += "".join(output)
  55.                         elif isinstance(output, str):
  56.                             full_reply += output
  57.                            
  58.                 except json.JSONDecodeError as e:
  59.                     print(f"解析JSON行时出错: {e}")
  60.                     print(f"行内容: {json_line}")
  61.         
  62.         # 打印完整回复
  63.         if full_reply:
  64.             print(f"助手: {full_reply}")
  65.             conversation_history.append(f"助手: {full_reply}")
  66.         else:
  67.             print("助手未返回有效回复")
  68.             
  69.     except requests.exceptions.RequestException as e:
  70.         print(f"请求异常: {e}")
  71.         break
  72.         
  73.     # 询问用户是否继续
  74.     next_input = input("是否继续对话?(输入内容继续,输入 'q' 退出): ")
  75.     if next_input.lower() == 'q':
  76.         break
  77.         
  78.     conversation_history.append(f"用户: {next_input}")
复制代码
这里我们就乐成的举行调用了

可以看的出来结果还是很不错的
并且这里另有CPU的相干监控,可以看见性能是非常的强横啊

总结

经过一段时间对 GPUGEEK 平台的使用,其给我留下了深刻且良好的印象。在算力方面,充足且多样化的 GPU 资源确保了我不同类型项目的顺遂推进,无论是小型的算法验证实验,还是大型的复杂模子练习,都能找到合适的硬件设置。他们的计费模式是按量付费,这个很人性化,在当前大多数的算力平台都不能达到按量付费这个要求,都是捆绑付费,GPUGEEK在这一点做的很好
当然,平台也并非十全十美。在使用过程中,偶然会碰到资源紧张时排队等候的情况,希望未来平台能够进一步扩充资源池,优化资源调理策略,提拔用户体验。总体而言,GPUGEEK 是一个功能强大、使用便捷、生态丰富的 GPU 算力租赁平台,对于人工智能领域的开辟者和研究职员来说,是一个不可多得的得力助手,能够有用助力项目的开辟与落地。
如果你们也想体验下GPUGEEK内里的各种优秀的资源,你们可以点击链接举行注册操作

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

正序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表