网站首页 文章专栏
共有文章【52】篇,请查阅!
浅析GPU通信技术(下)-GPUDirect RDMA
目录 浅析GPU通信技术(上)-GPUDirect P2P 浅析GPU通信技术(中)-NVLink 浅析GPU通信技术(下)-GPUDirect RDMA 1. 背景 前两篇文章我们介绍的GPUDirect P2P和NVLink技术可以大大提升GPU服务器单机的GPU通信性...
浅析GPU通信技术(中)-NVLink
背景 上一篇文章《浅析GPU通信技术(上)-GPUDirect P2P》中我们提到通过GPUDirect P2P技术可以大大提升GPU服务器单机的GPU通信性能,但是受限于PCI Expresss总线协议以及拓扑结构的一些限制,无法做到更高的带宽,为了解决这个问题,NVIDIA提出了NVLink总线协议。
浅析GPU通信技术(上)-GPUDirect P2P
GPU在高性能计算和深度学习加速中扮演着非常重要的角色, GPU的强大的并行计算能力,大大提升了运算性能。随着运算数据量的不断攀升,GPU间需要大量的交换数据,GPU通信性能成为了非常重要的指标。
Docker中的镜像分层
我们在容器内对删除文件,为什么commit后,无法达到删除文件的效果(镜像大小没有减小)?怎样取优化一个镜像?这些都要深入了解docker中的镜像分层机制。
怎样用好Kubernetes的NUMA对齐?
NUMA的全称叫Non-Uniform Memory Access,非均匀访问存储模型。第一次见到的时候,每个字都认识,但是完全不知道它在说什么。那索性就不要管字面意思,内涵意思就是在服务器上为了支持扩展多处理器而设计的一种硬件架构。现在基本市面上见到的大部分服务器都是NUMA架构的,这是不是就简单了。