专题:容器
共8篇相关文章

如何用Docker部署Ollama模型?
接上一篇关于Docker中的Ollama养虾的文章之后,这里补充一个Docker中部署Ollama模型的方案,通过这种方式建立一个完整的虚拟化环境,确保Ollama和OpenClaw在环境内的操作都相对可控。...

如何配置NVIDIA Container Runtime并运行GPUStack容器?
GPUStack 是一个设计用于运行大模型的开源 GPU 集群管理器,提供私有部署的大模型服务,支持大语言模型、Embedding 文本嵌入模型、Reranker 重排序模型、Vision 多模态模型等各种模型。它可以聚合不同平台(如 Ap...

Java入门记(四):Collection如何为?
本文主要介绍Collection接口的子接口List、Set、Queue之间及集成接口和实现类的关系与其下常用容器(ArrayList、LinkedList、HashMapLinkedHashMap、TreeMap、PriorityQue...

如何通过Scheduler Extender在K8s中实现自定义调度逻辑?
本文主要分享如何通过 Scheduler Extender 扩展调度器从而实现自定义调度策略。 1. 为什么需要自定义调度逻辑 什么是所谓的调度? 所谓调度就是指给 Pod 对象的 spec.nodeName 赋值 待调度对象则是所有 sp...

如何深入理解 HAMi vGPU 中的 hami-webhook 工作机制?
上篇我们分析了 hami-device-plugin-nvidia,知道了 HAMi 的 NVIDIA device plugin 工作原理。 本文为 HAMi 原理分析的第二篇,分析 hami-scheduler 实现原理。 为了实现基于...

如何详细解析 HAMi vGPU 中 hami-scheduler 的工作流程机制?
上篇我们分析了 hami-webhook,该 Webhook 将申请了 vGPU 资源的 Pod 的调度器修改为 hami-scheduler,后续使用 hami-scheduler 进行调度。 本文为 HAMi 原理分析的第三篇,分析 h...

vivo GPU容器在AI训练平台中的应用探索与实践有哪些?
本文展示vivo GPU平台的总体架构,介绍容器平台在大规模GPU容器集群稳定性建设措施,以及探索多种GPU容器降本提效的解决方案。分享AI工程训练平台大规模训练稳定性建设,及GPU利用率提升实践经验。...

Volcano v1.13发布,大模型训练推理调度能力全面增强,这是不是意味着更高效?
本文分享自华为云社区《Volcano v1.13 重磅发布!大模型训练与推理等调度能力全面增强》,作者:云容器大未来。 北京时间2025年9月29日,Volcano v1.13 版本[1]正式发布。本次更新在多方面进行了功能增强,为用户提供...
