2019-09-24 14:36:18    477    0    0
## 现象 Kubernetes集群版本1.15.2,使用了kube-proxy,使用的 iptables 模式。 在kubernetes的一个node节点上直接访问kubernetes中的service不通,注意是访问服务不通,不是ping不通。 以apiserver对应的kubernetes service为例: ```bash $ kubectl get service -o wide
2019-08-26 15:59:34    99    0    0
![](/api/file/getImage?fileId=5d6355cdaddba405d900022b)
2019-08-16 16:55:29    137    0    0
## 测试命令 `yum install -y qperf`,这个工具能同时测试带宽和延时,很容易使用。 需要在其中一端开启服务端监听 ## 压测场景 宿主机 -> Flannel Pod (vxlan) 宿主机 -> Flannel Pod (host-gw) 宿主机 -> 宿主机服务 ## 压测步骤 1.在 Kubernetes 中创建 Deployment 启动 ngi
2019-08-15 10:57:16    82    0    0
##CRI - Container Runtime Interface(容器运行时接口) CRI中定义了容器和镜像的服务的接口,因为容器运行时与镜像的生命周期是彼此隔离的,因此需要定义两个服务,该接口使用Protocol Buffer,基于gRPC。 Container Runtime实现了CRI gRPC Server,包括RuntimeService和ImageService。该gRPC
2019-04-24 10:47:56    112    0    0
原创  阿里云云栖社区 2019-02-19 13:17:00 问题背景 全球主要的容器集群服务厂商的Kubernetes服务都提供了Nvidia GPU容器调度能力,但是通常都是将一个GPU卡分配给一个容器。这可以实现比较好的隔离性,确保使用GPU的应用不会被其他应用影响;对于深度学习模型训练的场景非常适合,但是如果对于模型开发和模型预测的场景就会比较浪费。 大