专题:云原生
共42篇相关文章

职场生存指南:如何优雅应对一、自我认知与定位1. 了解自己的优势和劣势,明确职业发展方向。2. 根据自身特点,选择适合自己的工作环境和团队。二、职场礼仪1. 仪表整洁:着装得体,保持良好的个人卫生。2. 问候礼貌:见面时主动打招呼,使用礼貌用语。3. 交流
在职场丛林中,有一种人如同变色龙般难以捉摸——他们表面热情友善,背后却暗藏算计。与这类"双面人"同事周旋,不仅考验智慧,更是一场心理博弈。掌握以下策略,让你在保持职业风度的同时,巧妙化解潜...

GitOps:云原生时代,基础设施管理革命性范式是何方神圣?
在数字化转型浪潮席卷全球的当下,云原生技术已成为企业构建现代化应用的事实标准。然而,随着应用复杂度的指数级增长,传统基础设施管理方式正面临前所未有的挑战。GitOps作为一种颠覆性的管理理念,正在重塑我们对基础设施即代码(IaC)的认知与实...

ArgoCD:我的GitOps探索之旅,未来展望有哪些挑战?
大家好!作为一名深耕云原生领域多年的工程师,我很荣幸能与各位分享我与ArgoCD的精彩故事。这篇文章将带您深入了解ArgoCD的实践应用与未来潜力,无论您是初涉GitOps的新手还是经验丰富的专家,都能从中获得启发。 初识ArgoCD:Gi...

如何让家庭网络接入公网IPv6地址?
家庭网络如何获取到公网IPv6 OpenWrt 作为二级路由时 IPv6 故障排查与配置总结报告 背景 基于笔者的实战经验总结而来. 供参考. 适用于 iStoreOS 和 openwrt. 版本是: 24.10 1. 问题概述 初始状态...

赵渝强老师,如何用yum命令安装Docker呢?
利用yum方式可以很方便地添加、删除和更新Linux系统的程序包,并且能够自动解决包的依赖性问题。使用yum也能够方便地管理大量的系统更新问题。一般使用yum方式需要连接外部的网络。 点击这里查看视频讲解:【赵渝强老师】使用yum方式安装D...

如何在裸机、Docker、K8s等环境中使用GPU搭建GPU环境?
本文主要分享在不同环境,例如裸机、Docker 和 Kubernetes 等环境中如何使用 GPU。 跳转阅读原文:GPU 环境搭建指南:如何在裸机、Docker、K8s 等环境中使用 GPU 1. 概述 仅以比较常见的 NVIDIA GP...

如何通过vLLM实现大模型的高效推理?
本文主要分享如何使用 vLLM 实现大模型推理服务。 1. 概述 大模型推理有多种方式比如 最基础的 HuggingFace Transformers TGI vLLM Triton + TensorRT-LLM ......

如何从原理到实现全解K8s Device Plugin自定义资源支持?
本文主要分析 k8s 中的 device-plugin 机制工作原理,并通过实现一个简单的 device-plugin 来加深理解。 1. 背景 默认情况下,k8s 中的 Pod 只能申请 CPU 和 Memory 这两种资源,就像下面这样...

如何在K8S中通过nvidia device plugin源码Pod以使用GPU?
本文主要分析了在 K8s 中创建一个 Pod 并申请 GPU 资源,最终该 Pod 时怎么能够使用 GPU 的,具体的实现原理,以及 device plugin、nvidia-container-toolkit 相关源码分析。 1.概述 在...

如何通过NodeLocalDNS优化集群DNS性能与稳定性?
本文主要分享如何使用 NodeLocal DNSCache 来提升集群中的 DNS 性能以及可靠性,包括部署、使用配置以及原理分析,最终通过压测表明使用后带来了高达 50% 的性能提升。 1.背景 什么是 NodeLocalDNS Node...

如何通过Admission Webhook自动注入Pod的DNSConfig配置?
本文主要分享如何使用 基于 Admission Webhook 实现自动修改 Pod DNSConfig,使其优先使用 NodeLocalDNS 。 1.背景 上一篇部署好 NodeLocal DNSCache,但是还差了很重要的一步,配置...

如何通过LoRA微调实现大模型自我认知的?
本文主要分享如何使用 LLaMAFactory 实现大模型微调,基于 Qwen1.5-1.8B-Chat 模型进行 LoRA 微调,修改模型自我认知。 本文的一个目的:基于 Qwen1.5-1.8B-Chat 模型进行微调,修改模型自我认证...

NVIDIA Time Slicing的GPU共享方案,你真的完全搞懂了吗?
本文主要分享 GPU 共享方案,包括如何安装、配置以及使用,最后通过分析源码了 TImeSlicing 的具体实现。通过配置 TImeSlicing 可以实现 Pod 共享一块物理 GPU,以提升资源利用率。 1.为什么需要 GPU 共享、...

如何将 HAMi 开源 vGPU 方案实现 GPU 细粒度切分?
本文主要分享一个开源的 GPU 虚拟化方案:HAMi,包括如何安装、配置以及使用。 相比于上一篇分享的 TimeSlicing 方案,HAMi 除了 GPU 共享之外还可以实现 GPU core、memory 得限制,保证共享同一 GPU...

如何 hami-device-plugin-nvidia 实现为?
本文为开源的 vGPU 方案 HAMi 实现原理分析第一篇,主要分析 hami-device-plugin-nvidia 实现原理。 之前在 开源 vGPU 方案:HAMi,实现细粒度 GPU 切分 介绍了 HAMi 是什么,然后在开源 v...
