分类: 服务器

服务器

服务器系统是选择CentOS,还是选择Ubuntu

服务器系统是选择CentOS,还是选择Ubuntu

 

选择CentOS还是Ubuntu?

CentOS是Linux发行版之一,和Redhat的区别就是没有红帽的标志。

CentOS和RHEL一样,都可以使用Fedora EPEL来补足软件。

%title插图%num

Ubuntu基于着名的Debian发行版。

使用Debian衍生软件学习Linux的用户对apt-get将更加舒适,熟悉Red Hat系统的用户可能更喜欢CentOS,但如果您刚开始使用Linux,那么软件包管理器并不是一个很强的区别因素。

%title插图%num

CentOS适用于不需要*新版本的企业和开发人员。CentOS更加稳定和安全,因为它始终使用稳定(但较旧的)版本的软件。

CentOS具有更长的释放周期; 它还具有更长的支持周期。Ubuntu的长期支持版本每两年发布一次,具有5年的支持期。

CentOS是托管行业的首选分销商,所以如果您希望服务器与该行业的大多数产品兼容,那么这是安全的选择。

%title插图%num

云计算市场

Ubuntu – 57.5%

Windows – 7.8%

Red Hat – 4.8%

CentOS – 3.7%

Fedora 1.4%

云计算市场还是Ubuntu的天下。

linux适合做服务器,不适合做桌面

桌面的要求是,能够不停地安装各种奇怪的软件,然后再不停地卸载,不停地更新,然后几年不用重装系统!
而服务器的要求是稳定的运行,一台服务器只要安装少许几个软件,10年不需要安装新的软件,*多就是升升级而已!
所以linux复杂的库依赖问题不会对服务器造成影响,但是作为桌面,则会引起很大的问题。
linux如果能够像windows那样,库依赖问题能够很好的解决,则linux作为桌面则大有希望了,当然APT/YUM已经很好的解决这些问题了,但是还是有问题,稳定性还是不如windows.
APT/YUM做的烂(有些包依赖有错误),而且并不是所有软件都在apt/yum服务器上,有时候需要自己安装软件,这样就造成了系统的混乱!
但是为了使用*新的软件,有时候必须自己安装,这样真是无解呀!除非所有的软件发起者都主动向APT/YUM提交代码,但是可能吗?
Windows的世界可以做到每一个新硬件,都需要windows来认证一番,但是linux的世界没有一个发行版有这么大的权威性!

参考:
1. pkg-config
2. rpm/deb(dpkg):就好比exe
3. apt/yum:用来管理所有的deb/rpm

CentOS 与 Ubuntu:哪个更适合做服务器?

CentOS 与 Ubuntu:哪个更适合做服务器?

 

已经决定买一台虚拟服务器,但还不能决定使用哪个 Linux 发行版?我们都经历过这种困扰。对于 Linux 发行版来说,要在这么多的发行版和种种支派flavors中选择一个,那简直能让人崩溃。不过,对于服务器而言,有两个主流的 Linux 发行版,那就是 CentOS 和 Ubuntu。但如何从这两个之中选择,这是摆在管理员、初学者和专业人士面前的主要问题。在对这两个(和更多)发行版有了一定的经验之后,我们决定对这两个发行版用于服务器时做个比较。

利益相关:本文译自 thishosting.rocks,根据国内情况替换了相应推荐的云服务商。

概览

%title插图%num

哪个更适合新手?

Ubuntu。

一如往常那样,它主要取决于你的需求和以前的经验,但一般来说,Ubuntu 对于初学者来说是更好的选择。主要是因为这两个原因:

  • Ubuntu 有一个庞大的社区,随时可以免费提供帮助。我指的是真正的大。数以千计的用户分布在数百个不同的在线论坛和兴趣组内。甚至有现实生活中的大会。你也可以为 CentOS 找到很多教程和帮助,特别是对于简单的 LAMP 栈和流行的应用程序而言。
  • Ubuntu 服务器对于以前使用过 Ubuntu 桌面的人来说会容易得多。同样的情况也存在于 CentOS 和 Fedora 之间,但是 Ubuntu 桌面版比任何其他基于 Linux 的家用桌面更受欢迎。

所以,如果你是一个初学者,而且没有任何特殊要求,那就去使用 Ubuntu 服务器。 更好的是,你可以从一个便宜的托管服务提供商那购买服务,这样你就可以在你的服务器上进行实验,还有一个专业的 24/7 支持团队准备好帮助你。

哪个更适合商用?

CentOS。

同样,你仍然可以使用 Ubuntu 作为商用网站或公司内部服务器,但 CentOS 有它的优势:

  • CentOS(可以说)更稳定以及更安全。由于 CentOS 的更新频率较低,这意味着软件测试的时间更长,并且只有真正稳定的版本才会得到发布。如果你使用 CentOS,你不会因新的有 bug 的应用程序版本而遇到任何稳定性问题,因为你不会得到那个新的有 bug 的版本。
  • 大多数控制面板(包括*受欢迎的控制面板 – cPanel)仅支持 CentOS。所以这意味着如果你是一个网站托管公司,或者如果你是一个有很多客户的网站服务代理商,并且需要一个控制面板 – CentOS 是一个更好的选择。

尝试一下它们并选择一个

如果你还是不能决定,你可以免费试试它们。你可以在本地安装或使用 live 镜像。你还可以从阿里云和 Ucloud 这样的地方买到便宜的虚拟专用服务器。你可以在几秒钟内启动 CentOS/Ubuntu 服务器。

哪个更快?

它们在速度方面是相同的。它们和运行在你自己的硬件上一样快。它们将如你配置的一样快。不管怎样,你都应该正确配置并且保护所有的服务器、配置和应用程序。

你会使用哪个发行版?想告诉我们你是哪个发行版的拥趸么?请随时留下评论。

文末评论

W. Anderson:

我的大多数 Linux 服务器部署都是针对企业客户的,所以我对文章作者以 GUI 客户端版本来反映任何服务器的管理功能感到困惑。通常,许多服务提供商也会在 CentOS、Ubuntu,或经常部署的 OpenSuse Leap 和 FreeBSD 10+ 服务器操作系统上提供 WebMin、VirtualAdmin 或类似工具作为控制面板,即使是在虚拟专用服务器(VPS)环境中。

CentOS 在许多商业应用以及高级网络/虚拟化和云计算环境方面具有明显优于 Ubuntu 的优势,并且 CentOS 充分利用 SELinux 框架用于加强的安全层,而目前在 Ubuntu 中则不可用(或不容易)。

这种类型的比较通常是多余的,因为几乎总是有特定的和细微的要求,和需要服务器实现的需求,这将决定哪个发行版具有更多的优势或用途 – 基于技术专家/托管公司的专业知识和广泛的经验。

VAN DER BEKEN:

正确的比较应该是对 Debian 和 CentOS 进行比较。

以我的经验,我使用 CentOS 和 Debian 作为服务器,稍微偏爱 Debian 一点点,因为它的社区。

服务器虚拟化集群的优缺点分析

服务器虚拟化*显著的功能之一就是可以在主机集群内瞬间迁移虚拟机(VM)、减少服务器或应用系统的停机时间。虽然每个主要的hypervisor都具有这个功能,但每个厂商实现集群方式却有差异。

在使用微软Hyper-V搭建的测试环境中,通过构建主机集群环境,我节省了无数的服务器停机时间。但是,这个技术也引起了一些问题。为此,专家阐述了服务器虚拟化集群环境*重要的三个优缺点。

服务器虚拟化集群优点一:主动的风险回避

我相信,服务器集群的*大优点是它可以主动将VM从一个主机迁移到另外一个主机。这样的话,就可以提高服务器和应用系统的运行时间。

在我的环境中,当内存不足、CPU负载偏高或者虚拟主机遇到较高的I/O压力时,我会收到警报。如果我不能确定真正的原因或者系统需要重启,我就可以主动将VM迁移到集群内的其他主机。

如果这是一个单机,或者说,在主机重启期间,VM不可以关闭;如果重启之后,问题依然存在,我就不得不延长VM的停机时间直到我找到了问题的起因。但是,在虚拟主机集群中,VM就可以被迁移到其他的主机直到问题解决。

服务器虚拟化集群优点二:反应性容错

因为集群中的主机监控着所有VM的活动,因此,当一个节点失效时,失效节点的负载就会被指派到另外一个替代的主机。如果需要较长时间解决失效主机的故障,只要替代它的健康主机有足够的资源,VM就会正常工作。

在我的环境中,如果一个主机失效,VM会自动迁移到另外一个节点。虽然迁移的过程并不平滑,但工作负载自动变化几乎没有停顿。

服务器虚拟化集群优点三:主动的管理

我在一个7*24的组织中工作,因此,打补丁和升级工作就必须采取非常严格的管理。正常情况下,协调1—2台物理主机的停机时间已经比较困难,而要关闭位于同一个物理主机的30多个VM的复杂性就会呈指数增长。

自从切换到单机之后,我妻子就不用担心我要在周日早上1:00-6:00去升级虚拟主机,那个时候,我可以呆在家里休息。利用虚拟主机集群,当某个主机打补丁和重启的时候,其上的VM迁移到替代的主机。打完补丁,VM再迁移到原来的主机。这样,就允许我们在早上*短的时间内,不用停掉整个系统,完成集群的升级。

集群式主机环境的缺点

虽然主机集群环境有令人瞩目的优点,但它同样存在一些实施和管理上的缺点。

服务器虚拟化集群缺点一:实施和配置的复杂性

配置复杂可能是集群的*大缺点。建立集群框架、管理主机间的连通性、配置共享存储都不是简单的任务,可能涉及到组织内部多个团队。你可能不害怕增加的复杂度,然而,很大程度上,都是技术性的工作;但是,随着复杂度的增加,你可能会遗漏某些东西从而影响系统的稳定性。

服务器虚拟化集群缺点二:更新和升级的不利因素

升级到更新版本的产品和硬件组件也可能引起困难。因为,虚拟主机集群连接多个系统,各组件间发生着大量的、复杂的交互。

以更新主机上的多路径I/O(MPIO)驱动为例,该操作会影响整个集群。首先,它影响节点转移逻辑单元号(LUN)到其他节点的效率。同时,在更新MPIO驱动之前,集群中所有主机的HBA卡的Firmware都需要升级。如果FW不用升级,那也必须首先安装HBA卡的驱动。

如果是单机,这可以通过1-2次重启解决。在集群环境中,协调多个虚拟主机服务器则较为困难。升级实际的虚拟主机软件一定是一个具有挑战性的任务,因为集群节点的交互以及不同软件版本支持(比如,SCVMM、Protection Manager等)。

一般情况下,厂商会为这些复杂升级提供详细的、一步一步的操作操作指南;同时,大多数情况下,都会比较顺利。

服务器虚拟化集群缺点三:集群成本因素

成本是另外一个主要的考虑因素。要实现一个虚拟主机集群环境,你需要复制部分基础架构并同时保持虚拟机与主机的比例。此外,大部分厂商的实现需要一个SAN或者独立的磁盘子系统。开源iSCSI或者廉价的磁盘阵列可能是个精明的选择,但这些选项可能存在性能和稳定性的问题。

以我的经验,在重要的基础架构组件上选择廉价的路线会产生问题,造成绊脚石。就因为选择了一个特殊的配置能够工作并不意味着就满足了项目目标。如果管理部门对成本感到担忧,你可以解释给他们虚拟主机集群环境可以提高正常运行时间、提供更好的服务。依我看,如果正确实施,这种配置就完全对得起付出的成本。

*后,每个组织不得不判断虚拟主机集群环境是否适合自己业务系统模式。虽然虚拟主机集群环境引入配置的复杂度、升级问题和潜在的额外成本,但是,你的环境可以从加强的服务器或者应用系统可用性和更好的管理上获益。尽管有潜在的困难或不利因素,但是,我相信实施虚拟主机集群所付出的努力和成本是值得的。

我们可以保持有关利弊的争论,但是,你可以权衡你是否要实施虚拟主机集群。

服务器虚拟化 —— 集群服务器 —— 分布式 —— 云服务

一、服务器虚拟化技术:(是下面集群服务器、云服务的技术基石)
将服务器的物理资源抽象成逻辑资源,让一台服务器变成几台甚至上百台(很少见啊)相互隔离的虚拟服务器,我们不再受限于物理上的界限,而是让CPU、内存、磁盘、I/O等硬件变成可以动态管理的“资源池”,众多虚拟服务器共享“资源池”中的硬件资源,从而提高资源的利用率。

服务器虚拟化主要分为三种:“一虚多”、“多虚一”和“多虚多”。
“一虚多”是一台服务器虚拟成多台服务器,即将一台物理服务器分割成多个相互独立、互不干扰的虚拟环境。(VMware虚拟机技术)
“多虚一”就是多个独立的物理服务器虚拟为一个逻辑服务器,使多台服务器相互协作,处理同一个业务。(集群服务器)
另外还有“多虚多”的概念,就是将多台物理服务器虚拟成一台逻辑服务器,然后再将其划分为多个虚拟环境,即多个业务在多台虚拟服务器上运行。(云服务)

 

二、集群服务器:
所有的计算机拥有一个共同的名称,都安装并运行了某个群集服务(具体实现方式不同)。用户的公共数据被放置到了共享的磁盘柜中,应用程序被安装到了所有的服务器上,也就是说,在集群上运行的应用需要在所有的服务器上安装一遍。(当然,不常用的应用也可以只安装在一台服务器上,一旦出了故障,其他服务器需要先安装该应用才能重启它)
当集群系统在正常运转时,应用只在一台服务器上运行,并且只有这台服务器才能操纵该应用在共享磁盘柜上的数据区,其它的服务器监控这台服务器,只要这台服务器上的应用停止运行(无论是硬件损坏、操作系统死机、应用软件故障,还是人为误操作造成的应用停止运行),
其它的服务器就会接管这台服务器所运行的应用,并将共享磁盘柜上的相应数据区接管过来。

如果集群中的应用只在一台服务器上运行,且刚好这个应用出现故障,其它的某台服务器会重新启动这个应用,接管该应用位于共享磁盘柜上的数据区,进而使该应用重新正常运转。
整个应用的接管过程大体需要三个步骤:侦测并确认故障、后备服务器重新启动该应用、接管共享的数据区。因此在切换的过程中需要花费一定的时间,原则上根据应用的大小不同切换的时间也会不同,越大的应用切换的时间越长。

常用的服务器集群方法:主备切换(可以应用于共享的磁盘柜)、多服务器负载均衡(应用服务器使用)

 

三、分布式:
和“集群”是两个概念。集群是个物理形态,分布式是个工作方式。
将不同的业务分布在不同的地方,就是将一个原先的系统,按照业务功能,拆分成一个个独立的业务子系统。
在分布式结构中,每个子系统就被称为“服务”。这些子系统能够独立运行在web容器中(集群服务器上),它们之间可以通过RPC方式通信。

 

四、云服务:(云计算、云存储)云是网络、互联网的一种比喻说法,是一种网络服务。
用户使用各种终端获取应用服务,这些服务的资源都来自“云”,而不是固定的存在本地的资源。
“云”是一个庞大的资源池,你按需购买;云可以像自来水,电,煤气那样计费。
一般是通过 集群服务器 + 分布式 来实现,对外提供服务接口即可。

justhost:8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

justhost.ru官方来消息说已经对网络进行了比较全面的优化,针对中国电信、联通、移动来说,4个机房总有一个适合中国用户,让站长进行一下测试,这不就有了这篇有关justhost的VPS的第四次测评。本帖主要关注的是网络,对于其他的参数一概不管!

官方网站:https://justhost.ru

*低配VPS:8.3元/月,KVM,512M内存,5G硬盘,200M带宽,不限流量

购买链接:https://justhost.ru/services/vps/

先说下:本文真的很长,你如果没心情看,*简单的办法就是把我这5个不同机房的VPS上面的文件都下载一次,看看哪个速度快,那就哪个适合你!

Dataline:http://185.22.153.71/oneinstack-full.tar.gz
Adman:http://2.56.240.24/oneinstack-full.tar.gz
TTK:http://193.38.50.131/oneinstack-full.tar.gz
Kazan:http://46.17.46.153/oneinstack-full.tar.gz
Fiord:http://2.56.242.125/oneinstack-full.tar.gz
St. Petersburg:http://194.87.68.9/oneinstack-full.tar.gz

下方,本文用的200M和500M带宽的VPS测试的!

Dataline机房的VPS
早上7点,晚上7点,晚上11点,白天电信可以飞起来,晚上就差了些,马马虎虎还凑合吧;联通和移动好像不算差。

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

从莫斯科电信直接回北京电信,然后到广州电信:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

莫斯科电信到北京电信,然后到广州电信,接着广州联通:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

莫斯科电信到北京电信,然后到广州电信转广州移动

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

广州电信下载测速:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

dataline的回程来说基本上都是拉直的了的,不饶,看起来官方确实处理的不错了!

Adman机房的VPS
晚高峰,21点31分,移动惨不忍睹、电信还能跑24Mbps、联通能到240Mbps
justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

测试回程:

从新西伯利亚经北京进来到广州电信

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

从新西伯利亚过北京到广州联通:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

从新西伯利亚走telia绕法国、德国,然后回广州移动:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

广州电信晚上下载测速:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

Adman机房回程,电信和联通基本上是拉直的,但是移动绕道太离谱!

TTK线路VPS
早7点电信联通的效果还是蛮不错的,移动也有能跑140Mbps的节点

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

晚高峰23:08:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

莫斯科电信到北京电信,然后到广州电信:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

走TTK后直接到北京联通,然后到广州联通:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

俄罗斯去德国然后回北京移动接着来广州联通:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

广州电信下载测速:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

ttk的VPS回程来看,电信和联通是直连,移动绕德国去了。

Kazan机房VPS
白天7点多测试的,电信、联通、移动也都跑的还可以啊

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

晚高峰就这样了:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

电信回来绕道了德国:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

联通回来稀烂,从俄罗斯去瑞典,然后跑美国西海岸,再回广州联通:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

移动回来绕道德国:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

上午测试下载速度:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

广州电信晚高峰22点22分的下载速度:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

kazan的回程应该是*烂的,但是速度反而还好?如何解释? 中国人用的少,带宽充足?

Fiord机房VPS
大家自己对比下一个晚高峰,一个白天的效果:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

电信回程直连:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

联通走电信的链路在国内转联通:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

移动也是走电信的链路,在国内转移动:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

广州电信下晚高峰23点的下载测速:

justhost:“第4次VPS测评”,8.3元/月,200M带宽,不限流量,KVM虚拟,4个俄罗斯机房应有适合你的

大致总结下:

电信:可能是dataline比较好,但是kazan这个奇葩好像也可以;

联通:Adman可能比较好

移动:看文章里面的路由,不绕道的话可能比较好,*后结果还是实测为准

digital-vm:VPS低至$4/月,服务器$80/月,10Gbps超大带宽,不限流量,机房可选:日本\新加坡\美国\英国\西班牙\荷兰\挪威\丹麦

digital-vm:VPS低至$4/月,服务器$80/月,10Gbps超大带宽,不限流量,机房可选:日本\新加坡\美国\英国\西班牙\荷兰\挪威\丹麦
digital-vm,这家注册在罗马尼亚的公司在国内应该有不少人比较熟悉了,主要提供VPS业务,*高10Gbps带宽,还不限制流量,而且还有日本、新加坡、美国洛杉矶、英国、西班牙、荷兰、挪威、丹麦这些可选数据中心。2020年,digital-vm新增了“独立服务器”业务,暂时只限“日本”、“新加坡”机房,*高也是支持10Gbps带宽…
付款方式:PayPal、支付宝。想知道是否适合你?本文末尾有“测评文章”+“官方测速文件”

网络测试:

新加坡:http://speed.sg.digital-vm.com/1000mb.bin
日本东京:http://speed.jp.digital-vm.com/1000mb.bin
英国伦敦:http://speed.uk.digital-vm.com/1000mb.bin
挪威奥斯陆:http://speed.no.digital-vm.com/1000mb.bin
西班牙马德里:http://speed.es.digital-vm.com/1000mb.bin
丹麦哥本哈根:http://speed.dk.digital-vm.com/1000mb.bin
荷兰阿姆斯特丹:http://speed.nl.digital-vm.com/1000mb.bin
美国洛杉矶:http://speed.la.us.digital-vm.com/1000mb.bin

搬瓦工VPS推荐:高端线路,助力企业运营,10Gbps美国 cn2 gia,1Gbps香港cn2 gia,10Gbps日本软银

搬瓦工,隶属于加拿大IT7公司旗下的一家VPS服务商,注册商标为BandwagonHost,因为读音似BanWaGong,因此国内称其为搬瓦工。 … 搬瓦工出售的VPS都是Linux系统的,Linux也是一个操作系统,就像我们常用的Windows、Mac OS一样,只不过Linux不需要提供可视化界面,对于资源的需求更小。

搬瓦工vps(bandwagonhost)现在面向中国大陆有3条顶级线路:美国 cn2 gia,香港 cn2 gia,日本软银(softbank)。详细带宽是:美国cn2 gia、日本软银,都是2.5Gbps~10Gbps带宽,香港 cn2 gia为1Gbps带宽,搬瓦工是目前为止,全球所有提供这三种带宽的VPS(云服务器)商家里面带宽*大的,成本*高的,没有第二家了!

我该如何选选择,才能体验*快的速度?

在预算充足的情况下,不管你是电信、联通、还是移动,直接选香港机房!

预算有限制:电信选美国cn2 gia,联通选日本软银,移动建议美国cn2 gia

只要便宜,其他不在乎,选网站首页的即可(注意看本文末尾的测评)!

美国 cn2 gia、日本软银,2.5~10Gbps带宽,市面唯一一家
高达10Gbps的美国 cn2 gia和日本软银企业级网络带宽,基于KVM虚拟,SSD raid10阵列,自带一个IPv4,免费支持snapshot快照功能(可以导入、导出)。除中国电信和软银官方之外,全球没有此类更高带宽的VPS或者云服务器商家了!

香港机房VPS,1Gbps cn2 gia,市面唯一一家
适合预算高,对速度特别看重的用户,特征:KVM虚拟,1Gbps带宽,纯SSD raid 10,三网直连,cn2 gia网络;每个VPS自带一个IPv4,后台有一键快照(备份VPS,还可以导入导出)功能。到目前为止,这是市面上唯一一家提供“香港”1Gbps cn2 gia带宽的VPS!

简单来说,“搬瓦工”还是选择:美国 cn2 gia、日本软银、香港 cn2 gia比较好,至少来国内的网络比其他几个机房的效果要好太多!

KVM虚拟化集群技术概述

一、 虚拟化集群介绍、设计思路及架构

使用虚拟化集群的目标是克服单机虚拟化的局限性,利用技术手段提高虚拟机可用性,*终达到业务不中断或者减少中断时间,确保业务数据更安全的目标。

1. 虚拟化集群介绍

1)什么是虚拟化集群

虚拟机集群*显著的特征是有共享存储,因为有了共享存储,虚拟机就可以实现非常快速的在线迁移,并在虚拟化层配置高可用。笔者在生产环境使用的集群有两种存储方式,基于商业存储和基于开源分布式文件系统。

2)虚拟化集群的高可用和基于应用层高可用的区别

高可用是经常用到的运维技术,在系统、网络、数据库、Web业务等各个应用层面都有使用。高可用技术是指至少有主备两个节点,当主节点故障的时候,迅速切换到备用节点。为了避免备用节点误判,有时候还有第三个节点,或者主节点和备用节点共同能访问到的存储空间,用于做仲裁判断。应用层面的高可用还有一个特点,就是一般都有浮动IP,当切换发生的时候,IP从主节点漂移到备用节点。应用层面的高可用一般切换时间比较快,从几毫米到几秒中,同时应用层面的高可用一般需要专用软件,比如常用的Keepalived,Heartbeat等。

虚拟化层面的高可用是虚拟机系统层面的高可用,即当一台计算节点故障的时候,在另外一台计算节点上自动将故障节点上的虚拟机启动起来。注意如果虚拟机上的业务不能做到开机自启动,即使虚拟机自动启动了,并不能保证业务层面的自动恢复!

另外还有一个问题,就是即使虚拟机启动起来了,当启动到一半虚拟机的系统卡住了,也不能及时恢复业务!

虚拟化层的高可用一般业务恢复实际是系统重启的时间,加上业务开机自启动的时间,通常是分钟级别。

虽然虚拟化层高可用有业务不能恢复的风险,业务恢复时间也相对比较长,但是虚拟化层高可用有个非常巨大的优势,就是不需要在应用层面配置,大大的拓宽了高可用的适用范围,使原来在应用层难以使用高可用技术的应用,也能做到高可用,尤其是在某些专用的软件领域。

其实虚拟机层高可用和应用层面高可用并不矛盾,在虚拟机的系统里面,也可以配置应用层面的高可用,做这样的配置的时候,注意主备节点放置到不同宿主机上!

3)虚拟化集群后端存储的使用

*早的时候,笔者在生产环境使用的集群都是以机柜为单位的小集群,主要因为笔者一直搭建的是私有云,在IDC机房里面机柜都是要计算费用的,为了充分利用资源,合理节省成本,笔者私有云一个设计思想就是能够按照机柜,灵活扩展或者伸缩。

后来随着虚拟化的规模扩大,也进行了一些基于开源分布式文件系统集群的搭建,基于开源分布式文件系统的集群,规模可以更大,扩展性更好,适用于KVM的开源分布式文件系统在第9章、第10章都有详细的介绍。开源的虚拟化管理平台,本书第11章、第12章、第13章有详细介绍,所以本章不再介绍开源分布式文件系统及管理平台。

2. 使用虚拟化集群的优势

虚拟化集群相对于单机虚拟化,有以下几点优势:

q 快速的在线迁移(Live Migration),设备、系统维护造成的业务计划内停机时间减少到零。

q 高可用(HA),一台计算节点故障,上面的虚拟机可以很快在其他计算节点上启动运行起来,*大缩短计划外停机时间。

q 动态资源调度,业务负载发生变化引起计算节点压力分布不均匀时,可手动或者自动平衡物理机负载。也可在整体压力较低的时间段,将虚拟机集中在部分计算节点上,将不用的计算节点临时关闭,达到节能的目标。

q 业务快速部署,集群将资源池化,通过和管理平台结合,在集群的容量范围内,业务部署的速度非常快。

q 数据更安全,后端存储采用冗余度更高的商业存储,或者分布式文件系统,数据可靠性可以达到99.99%以上。

q 网络速度、可靠性更高,集群网络采用冗余架构,网络设备、网络连接都是双冗余,网络速度更高,可靠性也更高,单台网络设备、单根网线、单个网卡故障都不会引起网络中断。

提示:

1)什么是计划内停机与计划外停机

计划内停机是指可预期可计划的停机,比如定期的维护,提前通告的维护。计划外停机是指突发事件引起的停机事件,比如硬件故障,网络DDOS攻击等。一般计划内停机因为是提前预知的,会做好预防措施,不会有数据丢失,对业务的损失是比较小的。计划外停机则因为是突发事件,对业务的损失要大很多。运维的重要职责之一就是通过技术手段减少计划外和计划内停机时间,对虚拟化来说,虚拟化集群能够做到在线虚拟机迁移,并且是全冗余设计,需要计划内硬件和软件维护的时候,可以做到计划内停机时间为零。当宿主机发生紧急硬件故障的时候,虚拟机可以很快在其他宿主机上开起来,所以虚拟化集群也能有效降低计划外停机。

2)在线迁移并不是灾备手段

在线迁移实际迁移的是虚拟机的内存,当宿主机发生故障的时候,虚拟机的内存信息已经丢失了,这时候是不能再去做虚拟机的在线迁移的。所以在线迁移解决的是有计划的维护问题,比如要升级宿主机内存,可以将宿主机上的虚拟机在线迁移到其他宿主机上,内存升级完成后,在将虚拟机在线迁移回来。

3. 集群设计及架构

1)虚拟化集群设计

为保证虚拟机的尽量的在线时间,灵活的扩展,虚拟化集群的设计需要满足以下要求:

q 有共享存储,虚拟机能够在线迁移;

q 通过增加计算节点、存储、网络设备可以横向扩展;

q 没有单点故障,计算节点有多个,商业存储为双控制器,分布式文件系统镜像写多份,网络设备冗余;

q 性能满足要求,并且通过增加设备,性能可以扩展

2)虚拟化集群的架构

一套虚拟化集群体系包括以下组成部分:

q 若干计算节点,承载虚拟机的计算、内存、网络资源;

q 管理节点及管理平台,管理虚拟机的镜像,虚拟机生成、维护、销毁的生命周期,虚拟机的调度;

q 后端存储,存储虚拟机镜像存放;

q 网络设备。

二、虚拟化集群技术方案

1. 前端计算

虚拟化集群前端计算节点可以使用普通机架式服务器,也可以使用刀片服务器。

1)机架式服务器做为计算节点的优缺点

机架式服务器做为计算节点的优点是:

q 架构简单,安装配置方便;

q 扩展节点数量和升级较为容易;

q 成本有一定的优势。

缺点是:

q 随着节点数量的增多,占用的机柜空间也在增大,单机柜服务器密度低;

q 网络结构复杂,每台服务器有公网、私网、存储网;

q 交换机端口数量多,接线容易出错。

2)刀片服务器做为计算节点的优缺点

使用刀片服务器作为计算节点的优点是:

q 刀片服务器内置交换机,可以灵活的配置网络;

q 刀片服务器连线简单,占有交换机端口数量少,网络非常简洁;

q 单位机柜服务器密度大;

q 功耗低;

q 刀片服务器冗余电源和风扇,冗余交换模块,是全冗余的架构。

使用刀片服务器的缺点是:

q 成本较高;

q 配置复杂,安装配置需要专业的知识;

q 往往需要改造机柜电源,并受限于机柜*高电流。

另外目前还有一种多节点服务器,就是在1U或者2U的空间里面,能够容纳2到4台服务器,这些服务器很像是刀片服务器,共享电源和机框,但是网络接口独立。多节点服务器密度介于机架式服务器和刀片服务器之间,使用上和机架式服务器完全一样。

服务器的配置选型,根据笔者的经验,选择比较高的配置,虽然初期投入高,但是长远看,因为能够容纳更多的虚拟机,其实是节省成本的。宿主机在运行一段时间后,往往会发现内存是瓶颈,所以一开始配置的时候,内存尽量配置大一些。具体宿主机如何选型在第15章已经有详细的介绍,本章就不重复介绍了。

3. 后端存储技术方案

虚拟化集群的后端存储可以使用商业存储和分布式文件系统,商业存储有三类:NAS、IP SAN、FC SAN。

1)NAS共享存储

NAS(NETWORK ATTACHED STORAGE )即网络附加存储,网络上直接挂接的存储设备,相当于一个网络文件共享服务器。

测试环境可以用一台普通的主机模拟NAS,只要这台主机有自己的磁盘和文件系统,并且对外提供访问文件系统的接口。*常见的NAS有Linux下的NFS和windows下的CIFS。

2)IP SAN共享存储

SAN(STORAGE AREA NETWORK)即存储区域网络,主要是基于TCP/IP的网络来实现数据存取,即传输介质为IP网络。通过IP网络将计算计算节点和存储设备连接起来,计算节点通过发送Block I/O的请求到存储设备,*常见的就是用ISCSI技术,计算节点通过SCSI协议发出读取数据的请求,并用TCP/IP包封装SCSI包,就可以再TCP/IP网络中进行传输,即SCSI over TCP/IP。

测试环境也可以用普通服务器模拟ISCSI存储。

3)FC存储

FC(Fibre Channel 光纤通道)SAN类似于IP SAN,只是以光纤作为传输介质,性能较高,目前使用*广。计算节点上安装光纤接口的HBA(Host BusAdapter,提供服务器内部的I/O通道与存储系统的I/O通道之间的物理连接)卡,为了冗余HBA卡一般有两块,分别接两台光纤交换机,存储一般有两个控制器,也分别接两台光纤交换机,达到全容易的目标。FC SAN计算节点直接将I/O请求通过FC网络发送到存储设备,性能非常高。

4)生产环境如何选择存储类型

在实际部署的生产环境中,选择存储类型,取决于以下几个因素:

q 业务性能及可靠性需求

q 预算

q 运维对技术熟悉程度

一般来说,对性能要求非常高的业务,使用FC SAN存储,FC SAN存储也是成本*高的一种方案。如果业务性能需要稍低,可以使用NAS、IP SAN的存储,NAS、IP SAN的存储是性价比比较高的方式。如果业务主要是CPU消耗型的,可以考验使用分布式文件系统,本书第9章介绍的DRBD、GlusterFS,第10章介绍的CEPH,工作都很稳定,但是性能相对比较低,很适合CPU消耗型的虚拟机。

关于NFS和ISCSI,业内一直有争论,NFS配置简单,但是因为是应用层的协议,有人认为性能低,其实商业存储做了许多优化,性能也不见得比ISCSI差。如何选择主要取决于预算、运维的技术习惯、具体的存储品牌型号,笔者生产环境喜欢使用ISCSI存储。

(内容节选自《深度实践KVM》)

虚拟机搭建集群(三台虚拟机)

1、将各节点的IP和hostname加入到每个节点的/etc/hosts中
echo 192.168.63.141 admin-node >> /etc/hosts
echo 192.168.63.142 ceph-node1 >> /etc/hosts
….
拷贝到其它主机:scp  /etc/hosts  root@ceph-node1:/etc/
在admin-node主机上执行:ssh-keygen
并将它复制到其他节点:ssh-copy-id hostname@ceph-node1

2、
在操作系统防火墙内启用Ceph monitor、OSD、MDS所需的端口。(所有机器中都需要执行以下命令)
启动firewalld:service firewalld start
firewall-cmd –zone=public –add-port=6789/tcp –permanent
firewall-cmd –zone=public –add-port=6800-7100/tcp –permanent
firewall-cmd –reload
firewall-cmd –zone=public –list-all
实例:
[root@admin-node ~]# service firewalld start
Redirecting to /bin/systemctl start  firewalld.service
[root@admin-node ~]# firewall-cmd –zone=public –add-port=6789/tcp –permanent
success
[root@admin-node ~]# firewall-cmd –zone=public –add-port=6800-7100/tcp –permanent
success
[root@admin-node ~]# firewall-cmd –reload
success
[root@admin-node ~]# firewall-cmd –zone=public –list-all
public (default, active)
interfaces: e777no16736
sources:
services: dhcpv6-client ssh
ports: 6789/tcp 6800-7100/tcp
masquerade: no
forward-ports:
icmp-blocks:
rich rules:

[root@admin-node ~]#

3、在所有机器上禁用SELINUX
[root@admin-node ~]# setenforce 0
[root@admin-node ~]# sed -i s’/SELINUX.*=.*enforcing/SELINUX=disabled’/g /etc/selinux/config
查看文件config中SELINUX=disabled 即可

4、在所有机器上安装并配置ntp服务
yum -y install ntp ntpdate
[root@admin-node ~]# ntpdate pool.ntp.org
3 Sep 10:13:10 ntpdate[13011]: adjust time server 202.118.1.81 offset -0.003634 sec
[root@admin-node ~]# systemctl restart ntpdate.service
[root@admin-node ~]# systemctl restart ntpd.service
[root@admin-node ~]# systemctl enable ntpd.service

Created symlink from /etc/systemd/system/multi-user.target.wants/ntpd.service to /usr/lib/systemd/system/ntpd.service.
[root@admin-node ~]# systemctl enable ntpdate.service
Created symlink from /etc/systemd/system/multi-user.target.wants/ntpdate.service to /usr/lib/systemd/system/ntpdate.service.

5、在所有ceph节点上添加Ceph Giant版本库并更新yum:
[root@admin-node ~]# rpm -Uhv http://ceph.com/rpm-giant/el7/noarch/ceph-release-1-0.el7.noarch.rpm
Retrieving http://ceph.com/rpm-giant/el7/noarch/ceph-release-1-0.el7.noarch.rpm
warning: /var/tmp/rpm-tmp.5WFToc: Header V4 RSA/SHA1 Signature, key ID 460f3994: NOKEY
Preparing…                          ################################# [100%]
Updating / installing…
1:ceph-release-1-0.el7             ################################# [100%]

5、利用ceph-deploy搭建集群,在管理节点上安装ceph-deploy
yum -y install ceph-deploy
mkdir /etc/ceph cd /etc/ceph
ceph-deploy new admin-node
在每个节点上都安装ceph:
[root@admin-node ceph]# ceph-deploy install ceph-node1 admin-node ceph-node2

6、在admin-node中创建*个Ceph monitor:
ceph-deploy mon create-initial
部署集群到此成功,查看集群状态:
[root@admin-node ceph]# ceph -s
cluster 5035c6ba-96c8-4378-a086-a8b579089dd6
health HEALTH_ERR
64 pgs stuck inactive
64 pgs stuck unclean
no osds
monmap e1: 1 mons at {admin-node=192.168.63.140:6789/0}
election epoch 2, quorum 0 admin-node
osdmap e1: 0 osds: 0 up, 0 in
flags sortbitwise
pgmap v2: 64 pgs, 1 pools, 0 bytes data, 0 objects
0 kB used, 0 kB / 0 kB avail
64 creating
显示几区不健康,还需继续配置。

7、增加osd
在/var/local路径下mkdir osd1 osd2 osd3 并chmod 777 osd*
[root@admin-node ceph]# ceph-deploy –overwrite-conf osd prepare admin-node:/var/local/osd1
[root@admin-node ceph]# ceph-deploy –overwrite-conf osd activate admin-node:/var/local/osd1
[root@admin-node ceph]# ceph -s
cluster 7863ef1c-1e65-4db7-af36-1310975e056e
health HEALTH_WARN
64 pgs degraded
64 pgs stuck inactive
64 pgs stuck unclean
64 pgs undersized
monmap e1: 3 mons at {admin-node=192.168.63.141:6789/0,ceph-node1=192.168.63.142:6789/0,ceph-node2=192.168.63.143:6789/0}
election epoch 4, quorum 0,1,2 admin-node,ceph-node1,ceph-node2
osdmap e5: 1 osds: 1 up, 1 in
flags sortbitwise
pgmap v7: 64 pgs, 1 pools, 0 bytes data, 0 objects
6890 MB used, 10987 MB / 17878 MB avail
64 undersized+degraded+peered

增加monitor:
[root@admin-node ceph]# ceph-deploy mon create ceph-node2

#mkfs.xfs  /dev/sdb
#mount /dev/sdb /opt/ceph/
ceph-deploy osd prepare{ceph-node}:/path/to/directory
6.2.4. Mount数据分区
mount -o user_xattr /dev/{hdd} /var/lib/ceph/osd/{cluster-name}-{osd-number}

执行:

sh
sudo mount -o user_xattr /dev/sdc1 /var/lib/ceph/osd/ceph-0

部署过程中如果出现任何奇怪的问题无法解决,可以简单的删除一切从头再来:

# ceph-deploy purge ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2
# ceph-deploy purgedata ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2
# ceph-deploy forgetkeys
5.1 如何清空ceph数据
先清空之前所有的ceph数据,如果是新装不用执行此步骤,如果是重新部署的话也执行下面的命令:

ceph-deploy purgedata {ceph-node} [{ceph-node}]

ceph-deploy forgetkeys

看一下配置成功了没?

# ceph health
HEALTH_WARN too few PGs per OSD (10< min 30)
增加 PG 数目,根据 Total PGs = (#OSDs * 100) / pool size 公式来决定 pg_num(pgp_num 应该设成和 pg_num 一样),所以 20*100/2=1000,Ceph 官方推荐取*接近2的指数倍,所以选择 1024。如果顺利的话,就应该可以看到 HEALTH_OK 了:

# ceph osd pool set rbd size 2
set pool 0 size to 2
# ceph osd pool set rbd min_size 2
set pool 0 min_size to 2
# ceph osd pool set rbd pg_num 1024
set pool 0 pg_num to 1024
# ceph osd pool set rbd pgp_num 1024
set pool 0 pgp_num to 1024
# ceph health
HEALTH_OK
如果操作没有问题的话记得把上面操作写到 ceph.conf 文件里,并同步部署的各节点:

# vi ceph.conf
[global]
fsid =6349efff-764a-45ec-bfe9-ed8f5fa25186
mon_initial_members = ceph-mon1, ceph-mon2, ceph-mon3
mon_host =192.168.2.101,192.168.2.102,192.168.2.103
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
filestore_xattr_use_omap =true
osd pool default size =2
osd pool default min size =2
osd pool default pg num =1024
osd pool default pgp num =1024
# ceph-deploy admin ceph-adm ceph-mon1 ceph-mon2 ceph-mon3 ceph-osd1 ceph-osd2

6.3 删除OSD
[objc]  view plain  copy  print ?
[ceph@node1 cluster]$ cat rmosd.sh
###############################################################################
# Author : younger_liucn@126.com
# File Name : rmosd.sh
# Description :
#
###############################################################################
#!/bin/bash
if [ $# != 1 ]; then
echo “Error!”;
exit 1;
fi
ID=${1}
sudo systemctl stop ceph-osd@${ID}
ceph osd crush remove osd.${ID}
ceph osd down ${ID}
ceph auth del osd.${ID}
ceph osd rm ${ID}
[ceph@node1 cluster]$
Another app is currently holding the yum lock; waiting for it to exit…
强制关掉yum进程:  #rm  -f  / var /run/yum . pid

 

友情链接: SITEMAP | 旋风加速器官网 | 旋风软件中心 | textarea | 黑洞加速器 | jiaohess | 老王加速器 | 烧饼哥加速器 | 小蓝鸟 | tiktok加速器 | 旋风加速度器 | 旋风加速 | quickq加速器 | 飞驰加速器 | 飞鸟加速器 | 狗急加速器 | hammer加速器 | trafficace | 原子加速器 | 葫芦加速器 | 麦旋风 | 油管加速器 | anycastly | INS加速器 | INS加速器免费版 | 免费vqn加速外网 | 旋风加速器 | 快橙加速器 | 啊哈加速器 | 迷雾通 | 优途加速器 | 海外播 | 坚果加速器 | 海外vqn加速 | 蘑菇加速器 | 毛豆加速器 | 接码平台 | 接码S | 西柚加速器 | 快柠檬加速器 | 黑洞加速 | falemon | 快橙加速器 | anycast加速器 | ibaidu | moneytreeblog | 坚果加速器 | 派币加速器 | 飞鸟加速器 | 毛豆APP | PIKPAK | 安卓vqn免费 | 一元机场加速器 | 一元机场 | 老王加速器 | 黑洞加速器 | 白石山 | 小牛加速器 | 黑洞加速 | 迷雾通官网 | 迷雾通 | 迷雾通加速器 | 十大免费加速神器 | 猎豹加速器 | 蚂蚁加速器 | 坚果加速器 | 黑洞加速 | 银河加速器 | 猎豹加速器 | 海鸥加速器 | 芒果加速器 | 小牛加速器 | 极光加速器 | 黑洞加速 | movabletype中文网 | 猎豹加速器官网 | 烧饼哥加速器官网 | 旋风加速器度器 | 哔咔漫画 | PicACG | 雷霆加速