DCDC’19-NUMA的优势和陷阱

去年的DCDC,我主要介绍了基于RDT技术对云计算场景做优化,转眼就一年过去了。2019年DCDC依旧还是Santa Clara、台北、上海、北京4处分会场。不同的是今年SC的presentation已经由我在美国的同事代领;台北今年取消了所有的云计算的专题;仅存京沪两地的演讲计划将在下周开始。照旧,这次分享下英文版本的内容。

继续阅读“DCDC’19-NUMA的优势和陷阱”
推荐阅读:
之前收到公司一个大牛的PPT,
既然都是9102年了,云计算早
如果大家了解一点CPU的知识,

应用程序状态切换检测

任何一个合理的应用程序的运行时间内,微观上都会存在或多或少的“状态切换”。所谓状态切换的定义就是在用户可感知的特征变化。可感知的特征可以理解为对各种资源的需求变化的特性。
有点绕,举个简单例子:一个SQL数据库,在只有一个用户连接的时候,每次用户的访问都会出发一个状态切换事件,而当用户使用长连接(pipe line)去执行多个SQL命令时,由于SQL的不同,每个SQL之间就是一个状态切换。

继续阅读“应用程序状态切换检测”
推荐阅读:
5月中旬,我参加了在加利福尼亚
讲点关于工程师的理念和哲学吧。
似乎每次开头都要讲述一下计算机

DCDC2018–混合部署场景下RDT的应用

5月中旬,我参加了在加利福尼亚圣克拉拉万豪举办的Intel Data Center Design Conference 2018(DCDC’18)这个主要针对与数据中心设计的会议。期间我做了关于Intel RDT技术在数据中心业务质量(QoS)保障为主题的presentation。尽管在本月还有台北、上海、北京三场普通话的同主题演讲,这里还是分享下整个英文版本演讲的主要内容。

继续阅读“DCDC2018–混合部署场景下RDT的应用”

推荐阅读:
任何一个合理的应用程序的运行时

似乎每次开头都要讲述一下计算机

长久以来,我们对计算机资源的理

Kernel 4.14的RDT配置

之前发过一个帖子介绍了RDT在Kernel4.10中的使用方法,当kernel迭代到4.14之后,相对应的接口有了变化,最主要的就是增加了对于CMT和MBM这类监控接口。同时,由于上面提及的帖子还没有介绍CDP方面的内容,这次就一并补上。

继续阅读“Kernel 4.14的RDT配置”

推荐阅读:
前几天写的关于Intel RD

RDT技术,全称为Resour

去年的DCDC,我主要介绍了基

UMA/NUMA之性能差异

继续在NUMA和性能差异的路上走下去。

之前写过一片东西http://www.litrin.net/2017/08/03/numa%e5%af%b9%e6%80%a7%e8%83%bd%e7%9a%84%e5%bd%b1%e5%93%8d/ 讲的是一个基于SPECjbb2005的快速测试给大家做了一个对于UMA/NUMA的直观介绍。这篇就是针对不同的计算类型,介绍下NUMA是如何对性能做出改变的。

继续阅读“UMA/NUMA之性能差异”

推荐阅读:
去年的DCDC,我主要介绍了基

之前收到公司一个大牛的PPT,

既然都是9102年了,云计算早

深挖NUMA

首先列出本站之前相关的几篇帖子:

这次,就来深入了解下NUMA。

继续阅读“深挖NUMA”

推荐阅读:
NUMA(Non-Unifor

事出这一段时间做了不少基于SP

任何一个合理的应用程序的运行时

Systemd的@提示符

事出一个朋友问题:通过Docker混合部署了MySQL和Nginx,但每次重启之后,都需要手工docker start命令通过容器启动服务。自然的就是通过systemd来自动启动容器,可每一个服务都写一个systemd脚本岂不是要累死?更何况很多服务之间还有依赖关系。

继续阅读“Systemd的@提示符”

推荐阅读:
去年的DCDC,我主要介绍了基

任何一个合理的应用程序的运行时

5月中旬,我参加了在加利福尼亚

硬件中断问题和性能优化

自打从硬件方向研究性能优化起,感觉自己入了一个大坑。很多原来看起来都是天经地义的调用个接口就搞定的事儿,现在都有了不得不吐的槽。OK,这次就从硬件中断说起。

首先,啥是硬件中断?作为一个经历过非即插即用时代的老人来说,之前的硬件板卡安装之前都需要配置IRQ跳线来支持,每个硬件在系统中都有一个唯一的IRQ编号用于通讯。打个比方,一块网卡在收到了网络信号之后(仅仅是信号,还不能用”数据包“来称呼),主动发送中断到CPU;而CPU将会立即停下手边的活以便对这个中断信号进行分析。这是一种类似推送的机制。

继续阅读“硬件中断问题和性能优化”

推荐阅读:

之前我们通过几个概念简单的介绍

这一段时间,凡是提及容器技术的

Kubernetes的部署

之前我们通过几个概念简单的介绍了一下K8S的架构。这次我们就从头开始完成一个2节点(1 master,1 node)的K8S集群的安装部署。我的部署是通过两台Centos7的虚拟机实现的,他们的IP为192.168.0.1~2。

继续阅读“Kubernetes的部署”

推荐阅读:

自打从硬件方向研究性能优化起,

这一段时间,凡是提及容器技术的

Centos的systemd

自从Centos7/Redhat7之后,system替换掉了传统上的SysVinit来管理系统服务。尽管现在系统中还依然保留着/etc/init.d目录,但更多的只是为了保证向前的兼容性而已。

相比SysVinit来说,systemd有不少优势,例如在服务启动的时候,系统采用的是并行方式而不是传统的串行;与/etc/init.d的对应的是/etc/systemd的目录下是各个服务的配置文件。我们下面就逐一介绍systemd的相关命令

继续阅读“Centos的systemd”

推荐阅读:
去年的DCDC,我主要介绍了基

任何一个合理的应用程序的运行时

5月中旬,我参加了在加利福尼亚