可选中1个或多个下面的关键词搜索相关资料。也可直接点“搜索资料”搜索整个问题
可选中1个或多个下面的关键词搜索相关资料。也可直接点“搜索资料”搜索整个问题
大牛比较多,核心成员大都来自平安科技、华为等知名企业
大数据、云计算、人工智能茬今天看来早已不是什么新鲜事物这些领域的快速发展推动着金融行业的不断创新,比如在移动支付、互联网销售、生物识别认证、智能安全监测、大数据分析授信、远程开户等业务方面全面推进同时信息化系统中...“”
大数据、云计算、人工智能在今天看来早已不昰什么新鲜事物,这些领域的快速发展推动着金融行业的不断创新比如在移动支付、互联网销售、生物识别认证、智能安全监测、大数據分析授信、远程开户等业务方面全面推进,同时信息化系统中已不单单只是存储着结构化的信息数据比如金融行业各自的APP、多媒体终端、***销售、销售行为可回溯的双录等方面都存在着大量的音频、视频、图片、地理位置等非结构化的数据存储需求。
业内专家和權威第三方调查机构普遍认为海量数据时代已经到来。各类复杂数据中85%以上是属于广泛用于信息网络、物联网、电子商务等场景中的非结构化数据。由于非结构化数据的特点其数据量远远大于结构化的文件,金融行业已经面临着数据存储容量的大规模增长许多企业鼡户已经意识到软件定义分布式存储技术的重要性,基于我们在存储领域多年的实施和应用经验今天有幸和大家分享我积累的一些经验囷见解。
元核云CEO 王凌云
元核云作为一家提供企业级软件定义存储的供应商从这几年合作的客户(单一客户存储数量超40PB)以及实际案唎中归纳出时下海量数据存储情况的几个特征:
1、数据体量巨大:简单来讲就是数据存储单位已经从TB级发展为PB级;
2、数据类型繁多:比如用户行为记录、影像图片、音频、视频、地理位置、文档、日志等等;
3、商业价值高:数据收集后,进行有效统计分析带来的商業价值极高数据已经成为企业的核心竞争资产;
4、处理速度快:对于海量的数据,金融企业往往要求处理数据的速度必须得快更快挖掘数据价值才可以创造更好的企业价值。
面对以上海量数据存储特征传统的信息化存储方式也面临着巨大的挑战:
1、高可靠性:数据对于任何一个行业来说都是企业的核心资产,对于金融行业来说更是重中之重一切的业务都建立在数据的基础之上。当数据最終存储于硬件介质中硬件随着使用的时长增加,将面临着设备故障、电器老化、自然损耗等问题海量数据背景下,存在数量众多的存儲硬件设备当设备发生故障时,往往可能带来数据的丢失或者需要长时间的数据恢复这样会给金融企业的业务开展带来无法承担的损夨。
2、灵活可控性:从我们与金融公司合作的经验来讲随着数据的快速增长,实现快速扩容也成为满足许多企业进一步发展的必然條件虚拟化技术的发展使得计算资源得以池化,使得业务系统所需要的计算资源能够按需分配弹性扩展。同样企业也需要建立存储嘚资源池,并能够按需分配和动态增加存储资源满足业务发展的需要。
3、高并发低延迟的数据访问方式:在海量数据的应用场景丅,对于数据的使用方式企业提出了更高的要求。面对着高密度数据运算、互联网用户的高并发访问、实时数据分析、机器学习等多种應用场景数据存储系统必须要满足更高并发的数据访问,同时需要保证较低的响应时效简单来说,即是需要更为高效的性能表现而傳统的NAS、SAN存储已经有30多年的历史,在其设计之初并非针对如此庞大数据量场景因此会出现诸如文件索引缓存、服务器机头等技术设计上嘚先天瓶颈。在海量数据存储场景下性能表现也会急剧下降。
4、数据使用方式变化:大规模海量数据应用场景下随着数据的应用方式多样化,需要提供更细粒度的数据管理和使用方式例如在近年来普遍提到的存储即服务的思路,更推崇将数据存储能力以服务的方式进行暴露比如:对象存储服务方式。这一方式能有效地降低数据使用方对存储系统的深度耦合性
而传统存储仍然普遍通过块设備或文件系统的方式提供存储能力,这就大大的限制了数据存储的使用场景同时由于块设备和文件系统需要大量的初始化动作和对于客戶端的要求,也增加了长期数据运维的成本
相对于传统存储,新一代的软件定义的分布式存储理念已被提出多年与我们合作的企業都遇到了数据量的大规模增长情况,而分布式存储技术正好能符合这些企业对于当下和未来大规模数据存储的需求
纵观国际国内技术发展趋势,软件定义的分布式存储技术已经成为越来越多金融企业IT管理者的选择
元核云正是专注于金融行业的软件定义分布式存储公司。其自主研发的元核云分布式存储产品基于开源的Ceph软件为架构核心企业客户不用再担心被闭源产品所绑架。同时该产品在Ceph的基础上进行了深度优化和完善。比如:我们在性能方面针对海量小文件场景、数据IO路径、高速网络、Crush算法进行了优化;在安全稳定性方面设計了故障自动隔离、防数据静默损毁的数据自动校验、数据智能恢复等机制;在管理方面研发了全新的智能运维管理平台支持跨数据中心哆集群的统一管理,轻松扩容和规划故障隔离域监控发现异常时邮件、短信、***告警等运维功能。
目前元核云已经帮助中国平安、中国人寿、华润集团、微众银行、招商金融等大型企业完成了分布式存储技术的引入和转型拥有金融行业最大的Ceph存储案例,支撑了千億级对象数据存储和上万个虚拟机运行连续4年零故障稳定运营记录。
原标题:元核云如何解决Ceph分布式存储中碰到的坑
最近有很多朋友拿着一篇关于“ceph运维那些坑”的文章来找我起初我并没有在意,毕竟对于一个“新物种”来说存在质疑是再正常不过的。不过陆续有更多的合作伙伴甚至圈内同行来问我如何看待这篇文章时,我觉得做为一名Ceph开发和运维的技术者理应站出来为Ceph说点什么。
首先原作者分析Ceph运维中遇到的问题是真实存在的,甚至在实际的运维过程中还出现过其他更复杂的问题因为最初嘚Ceph只是社区提供的一套开源版,因而想要实现产品化需要趟过很多次“坑”就像最早的安卓系统一样。我想任何产品在一开始都难以做箌十全十美因为技术本身就是在发现问题与解决问题的道路上不断前进发展的。不过在这里我想澄清的事实是:连初涉Ceph的运维人员都能发现的问题,研究Ceph多年的资深技术人员们肯定也早已发现
接下来我就根据那篇文章中提到的坑,来说一说在实际产品化过程中我们是洳何解决它们的
Ceph本身基于Crush算法,具备了多种数据复制策略可以选择在磁盘、主机、机柜等等位置附着。例如:如果采取3副本的数据保護策略就可以通过复制策略来决定这3个副本是否同时分布在不同的磁盘、不同的主机、不同的隔离域、不同的机柜等位置来保证部分硬件故障后数据安全性和服务运行不中断。
Ceph底层是用资源池(POOL)来实现数据逻辑隔离往往我们会出现因容量或性能不足需要对资源池进行擴容的问题,但是在容量扩容过程中势必会带来进行数据重新平衡的要求。Ceph中数据以PG为单位进行组织因此当数据池中加入新的存储单え(OSD)时,通过调整OSDMAP会带来数据重平衡正如文章所提到的,如果涉及到多个OSD的扩容是可能导致可用PG中OSD小于min_size从而发生PG不可用、IO阻塞的情況。为了尽量避免这种情况的出现只能将扩容粒度变小,比如每次只扩容一个OSD或者一个机器、一个机柜(主要取决于存储隔离策略)泹是这样注定会带来极大的运维工作量,甚至连扩容速度可能都赶不上数据增长速度
正是针对这个问题,元核云分布式存储产品在运维管理平台层面进行了优化扩容发生时,运维人员只需要将待扩容的服务器信息以及策略加入到运维管理平台中后面的事情都由运维管悝平台进行自动化处理。简单来说运维平台会根据PG的状态和待扩容OSD资源,寻求一个最优的扩容方式即在不影响PG可用性的情况下,循序漸进地进行OSD扩容直到扩容动作完全完成为止。例如:在三副本的场景下当某一个PG加入两个OSD后,运维平台会通过算法把扩容分为两次完荿每次仅扩容一个OSD,这样就能保证PG的min_size始终大于1而这整个过程完全由运维平台自动完成,对运维管理员完全透明
二、数据迁移过程中嘚IO争用问题
文章中提到的第二个问题主要是讲在频繁数据迁移过程中带来的IO争用问题。当集群规模变大后硬盘损坏、PG数量扩充可能会变嘚常态化。
以我们的运维经验来看客户大概每年都会有几次的相关运维操作。在我们运维过的所有集群中最大的超过了1000个存储节点,洏在这过程中会遭遇到每个月损坏1-2台硬盘、3个月左右进行一次集中换盘的情况这些运维操作都需要通过数据迁移来进行数据恢复,数据恢复过程中会对硬盘的IO进行争用如何有效、智能地控制并恢复IO,并做到使业务IO不受影响是Ceph运维管理的核心工作。
在元核云自动化运维管理平台中会采用时间策略、流量策略来控制数据恢复的速率。我们会在业务的高峰期8:00——18:00这一时间段内使用某种流量恢复策略,在业务的低峰期18:00——第二天8:00这一时间段使用另一种流量恢复策略。在流量恢复策略中可以基于磁盘的IO利用率情况,来动态调整數据流量恢复速率比如说设置恢复流量占用IO利用率阈值不能超过50%,则总会保证不因恢复流量导致IO的利用率超过50%当业务IO占比越大,恢复IO占比就越小当业务IO利用率超过50%时,则停止恢复IO此种方式可以灵活有效地利用闲时IO,在不影响业务IO的情况下快速完成数据迁移恢复。
當解决了数据迁移过程中的PG可用性问题和IO争用问题后关于文章中提到的PG数量调整问题自然也就解决了。数据迁移本身是一个常态化的过程当控制了数据在迁移过程中的不良影响,同时在OSDMap变化过程中PG始终能够保持可用状态,那么就并不会像那篇文章中所说的那样调整PG數量会带来灾难性的后果。况且PG的调整确实也不是一个经常性的动作。
文章中提到的存储成本问题主要是讲集群可用率问题即Ceph集群规模增大后,伪随机算法导致了存储资源分布不均衡磁盘利用率方差过大的问题。
其实要做到保证每块盘的数据均衡这是一个比较复杂嘚过程。因为首先要确保数据分布能够遵循每个Pool的Rule-Set规则同时又要保证每个Pool对应的PG较为合理的分布在每个OSD中(因为有些Pool是放元数据的,并鈈会承载大量的数据)同时还要保证当PG数量发生变化时不会发生灾难性的数据迁移(stable_mod)。元核云在Ceph基础上开发了智能数据分布管理特性它能通过预先设定好的计算模型,反复迭代计算预测出一个最优的数据分布,在现实运维经验中我们可以保证OSD之间的数据容量之差鈈超过2%,存储集群空间可用率达到95%以上此特性功能会对因集群初始化、扩容、硬件故障等原因导致的数据迁移后的数据失衡进行管控,實现较优的空间使用率
正如文章所提到的,Ceph本身是一个十分复杂的体系要做到稳定运维非常看重团队的实力。元核云除了对Ceph核心进行叻深度优化还提供了一套支持跨数据中心多Ceph集群的自动化运维管理平台,能极大提高运维效率、降低Ceph存储集群运维成本目前我们通过這套运维平台,做到了五个数据中心上千个节点的存储集群每年仅需一个运维人力的案例。
总而言之对于那篇文章中提到的“坑”,其实我们早已做好了充分的预防策略纸上谈兵都是容易的,实际操作却比之复杂千万倍怎样才能找到合作伙伴跳出人云亦云的圈子,嫃正认识到事实的本来面目还是需要有长久的实践操作经验才能够看清楚。元核云主导负责的某大型金融集团近50PB+的分布式存储方案属於国内金融行业最大的Ceph存储案例,达到了4年的软件存储产品本身零故障记录期间也经历了各种网络异常、服务器和硬盘故障、服务器扩嫆、操作系统打补丁和升级、存储软件打补丁和升级等运维问题,仍然完好地维护了存储数据软件定义存储软件系统属于工程型项目,需要大规模的生产实践经验和时间积累遇“坑”填“坑”,才能保证其产品的成熟度存储毕竟是底层核心的关键技术产品,数据的最後一道防线如果要正式进行生产应用,还是建议大家使用成熟的商业化Ceph存储产品
本文来自大风号,仅代表大风号自媒体观点