DCDC2018–混合部署场景下RDT的应用

5月中旬,我参加了在加利福尼亚圣克拉拉万豪举办的Intel Data Center Design Conference 2018(DCDC’18)这个主要针对与数据中心设计的会议。期间我做了关于Intel RDT技术在数据中心业务质量(QoS)保障为主题的presentation。尽管在本月还有台北、上海、北京三场普通话的同主题演讲,这里还是分享下整个英文版本演讲的主要内容。

继续阅读“DCDC2018–混合部署场景下RDT的应用”

推荐阅读:
似乎每次开头都要讲述一下计算机
长久以来,我们对计算机资源的理
在虚拟机的日常使用和开发中,我

Kernel 4.14的RDT配置

之前发过一个帖子介绍了RDT在Kernel4.10中的使用方法,当kernel迭代到4.14之后,相对应的接口有了变化,最主要的就是增加了对于CMT和MBM这类监控接口。同时,由于上面提及的帖子还没有介绍CDP方面的内容,这次就一并补上。

继续阅读“Kernel 4.14的RDT配置”

推荐阅读:
前几天写的关于Intel RD
RDT技术,全称为Resour
事出前些日子有人咨询我:“在某

UMA/NUMA之性能差异

继续在NUMA和性能差异的路上走下去。

之前写过一片东西http://www.litrin.net/2017/08/03/numa%e5%af%b9%e6%80%a7%e8%83%bd%e7%9a%84%e5%bd%b1%e5%93%8d/ 讲的是一个基于SPECjbb2005的快速测试给大家做了一个对于UMA/NUMA的直观介绍。这篇就是针对不同的计算类型,介绍下NUMA是如何对性能做出改变的。

继续阅读“UMA/NUMA之性能差异”

推荐阅读:
事出前些日子有人咨询我:“在某
时延 latency(亦称为延
似乎每次开头都要讲述一下计算机

深挖NUMA

首先列出本站之前相关的几篇帖子:

这次,就来深入了解下NUMA。

继续阅读“深挖NUMA”

推荐阅读:
NUMA(Non-Unifor
事出这一段时间做了不少基于SP
似乎每次开头都要讲述一下计算机

Systemd的@提示符

事出一个朋友问题:通过Docker混合部署了MySQL和Nginx,但每次重启之后,都需要手工docker start命令通过容器启动服务。自然的就是通过systemd来自动启动容器,可每一个服务都写一个systemd脚本岂不是要累死?更何况很多服务之间还有依赖关系。

继续阅读“Systemd的@提示符”

推荐阅读:
5月中旬,我参加了在加利福尼亚
之前发过一个帖子介绍了RDT在
继续在NUMA和性能差异的路上

硬件中断问题和性能优化

自打从硬件方向研究性能优化起,感觉自己入了一个大坑。很多原来看起来都是天经地义的调用个接口就搞定的事儿,现在都有了不得不吐的槽。OK,这次就从硬件中断说起。

首先,啥是硬件中断?作为一个经历过非即插即用时代的老人来说,之前的硬件板卡安装之前都需要配置IRQ跳线来支持,每个硬件在系统中都有一个唯一的IRQ编号用于通讯。打个比方,一块网卡在收到了网络信号之后(仅仅是信号,还不能用”数据包“来称呼),主动发送中断到CPU;而CPU将会立即停下手边的活以便对这个中断信号进行分析。这是一种类似推送的机制。

继续阅读“硬件中断问题和性能优化”

推荐阅读:
之前我们通过几个概念简单的介绍
这一段时间,凡是提及容器技术的

Kubernetes的部署

之前我们通过几个概念简单的介绍了一下K8S的架构。这次我们就从头开始完成一个2节点(1 master,1 node)的K8S集群的安装部署。我的部署是通过两台Centos7的虚拟机实现的,他们的IP为192.168.0.1~2。

继续阅读“Kubernetes的部署”

推荐阅读:
自打从硬件方向研究性能优化起,
这一段时间,凡是提及容器技术的

Centos的systemd

自从Centos7/Redhat7之后,system替换掉了传统上的SysVinit来管理系统服务。尽管现在系统中还依然保留着/etc/init.d目录,但更多的只是为了保证向前的兼容性而已。

相比SysVinit来说,systemd有不少优势,例如在服务启动的时候,系统采用的是并行方式而不是传统的串行;与/etc/init.d的对应的是/etc/systemd的目录下是各个服务的配置文件。我们下面就逐一介绍systemd的相关命令

继续阅读“Centos的systemd”

推荐阅读:
5月中旬,我参加了在加利福尼亚
之前发过一个帖子介绍了RDT在
继续在NUMA和性能差异的路上

Openstack和VMware Esxi的不同

这几个月一直忙于一个公司的项目,说起来似乎挺简单的,但真正实现起来也真是一波三折啊。这几天空下来,总结一下分享给大家。

公司现有一坨VMware的Esxi,有一个PHP的BS系统通过VMware提供的PerlSDK+CLI封装成了驱动层。现在的想法是适用OpenStack来替换——至少是部分替换掉Esxi节点。

继续阅读“Openstack和VMware Esxi的不同”

推荐阅读:
事出前些日子有人咨询我:“在某
时延 latency(亦称为延
似乎每次开头都要讲述一下计算机

搭建apt本地加速源

对于Ubuntu来说,用apt方式安装升级是一件非常方便的事情。但是对于一个拥有较多Ubuntu服务器的内网来说,每台主机的升级过程都需要到公开的apt源中下载deb包来安装是一件非常浪费带宽而且费力不讨好的事情。很自然的,我们就应该把下载下来的包保存下来分享给其他的主机。

其实n久之前,Ubuntu提供了apt-proxy工具。但直到近期的版本,这个apt-proxy已经被移出apt源,取而代之的就是今天我们要说的apt-cacher。

继续阅读“搭建apt本地加速源”

推荐阅读:
5月中旬,我参加了在加利福尼亚
之前发过一个帖子介绍了RDT在
继续在NUMA和性能差异的路上