2019-08-16 16:55:29    5    0    0
# 测试命令 `yum install -y qperf`,这个工具能同时测试带宽和延时,很容易使用。 需要在其中一端开启服务端监听 ```bash qperf ```
2019-08-15 10:57:16    4    0    0
##CRI - Container Runtime Interface(容器运行时接口) CRI中定义了容器和镜像的服务的接口,因为容器运行时与镜像的生命周期是彼此隔离的,因此需要定义两个服务,该接口使用Protocol Buffer,基于gRPC。 Container Runtime实现了CRI gRPC Server,包括RuntimeService和ImageService。该gRPC
2019-04-24 10:47:56    35    0    0
原创  阿里云云栖社区 2019-02-19 13:17:00 问题背景 全球主要的容器集群服务厂商的Kubernetes服务都提供了Nvidia GPU容器调度能力,但是通常都是将一个GPU卡分配给一个容器。这可以实现比较好的隔离性,确保使用GPU的应用不会被其他应用影响;对于深度学习模型训练的场景非常适合,但是如果对于模型开发和模型预测的场景就会比较浪费。 大
2019-04-15 10:35:26    43    0    0
1. Node节点网络故障,导致这个节点的Pod健康检查正常,但通过边缘节点无法访问到这个节点上的Pod。 可能原因: systemd重启策略目前配置的是on-failure,如果flannel正常退出则不会重启flannel,需配置为always。 2. 部署上线过程中流量负载均衡异常,会出现丢失请求的情况: 由于Pod和endpoints同时删除,导致流量仍然可以打到terminating的
2019-04-04 16:02:46    206    0    0
## 安装准备 ### 前提机器上面有支持CUDA的Nvidia GPU,查看支持CUDA的GPU列表: [https://developer.nvidia.com/cuda-gpus](https://developer.nvidia.com/cuda-gpus) ```bash lspci | grep -i nvidia ``` 我这边服务器使用的是 `Tesla K80` ```ba