您现在的位置是:亿华云 > 数据库
ServiceMesh究竟解决什么问题?
亿华云2025-10-03 18:23:11【数据库】7人已围观
简介服务网格(ServiceMesh)这两年异常之火,号称是下一代微服务架构,接下来两个月,准备系统性的写写这个东西,希望能够让大家对架构技术,有个初步的了解。画外音:我的行文的风格了,“为什么”往往比“
服务网格(ServiceMesh)这两年异常之火,究竟解决号称是问题下一代微服务架构,接下来两个月,究竟解决准备系统性的问题写写这个东西,希望能够让大家对架构技术,究竟解决有个初步的问题了解。
画外音:我的究竟解决行文的风格了,“为什么”往往比“怎么样”更重要。问题
互联网公司,究竟解决经常使用的问题是微服务分层架构。
画外音:为什么要服务化,究竟解决详见《服务化到底解决什么问题?问题》。
随着数据量不断增大,究竟解决吞吐量不断增加,问题业务越来越复杂,究竟解决服务的个数会越来越多,分层会越来越细,除了数据服务层,还会衍生出业务服务层,前后端分离等各种层次结构。
不断发现主要矛盾,抽离主要矛盾,解决主要矛盾,架构自然演进了,微服务架构,潜在的云服务器提供商主要矛盾会是什么呢?
引入微服务架构,一般会引入一个RPC框架,来完成整个RPC的调用过程。
如上图粉色部分所示,RPC分为:
RPC-client,它嵌在调用方进程里 RPC-server,是服务进程的基础不只是微服务,MQ也是类似的架构:
如上图粉色部分所示,MQ分为:
MQ-send-client MQ-server MQ-recv-client框架只是开始,越来越多和RPC,和微服务相关的功能,会被加入进来。
例如:负载均衡
如果要扩展多种负载均衡方案,例如:
轮询 随机 取模 一致性哈希RPC-client需要进行升级。
例如:数据收集
如果要对RPC接口处理时间进行收集,来实施统一监控与告警,也需要对RPC-client进行升级。
画外音,处理时间分为:
客户端视角处理时间 服务端视角处理时间如果要收集后者,RPC-server也要修改与上报。
又例如:服务发现
服务新增一个实例,通知配置中心,配置中心通知已注册的RPC-client,服务器托管将流量打到新启动的服务实例上去,迅猛完成扩容。
再例如:调用链跟踪
如果要做全链路调用链跟踪,RPC-client和RPC-server都需要进行升级。
下面这些功能:
负载均衡 数据收集 服务发现 调用链跟踪 …其实都不是业务功能,所以互联网公司一般会有一个类似于“架构部”的技术部门去研发和升级相关功能,而业务线的技术部门直接使用相关框架、工具与平台,享受各种“黑科技”带来的便利。
理想很丰满,现实却很骨感,由于:
RPC-client,它嵌在调用方进程里 RPC-server,是服务进程的基础往往会面临以下一些问题:
业务技术团队,仍需要花时间去学习、使用基础框架与各类工具,而不是全心全意将精力花在业务和产品上 client要维护m个版本, server要维护n个版本,兼容性要测试m*n个版本 如果要支持不同语言,往往要开发C-client,Python-client,go-client,Java-client多语言版本 每次“黑科技”的升级,都需要推动上下游进行升级,源码库这个周期往往是以季度、半年、又甚至更久,整体效率极低画外音:兄弟,贵司推广一个技术新产品,周期要多长?
这些耦合,这些通用的痛点,有没有办法解决呢?
一个思路是,将服务拆分成两个进程,解耦。
画外音:负载均衡、服务发现与治理、调用链…等诸多基础设施,都放到这一层实现。
biz和proxy共同诞生,共同消亡,互为本地部署,即上图虚线方框 biz和proxy之间,为本地通讯,即上图黑色箭头 所有biz之间的通讯,都通过proxy之间完成,proxy之间才存在远端连接,即上图红色箭头这样就实现了“业务的归业务,技术的归技术”,实现了充分解耦,如果所有节点都实现了解耦,整个架构会演变为:
整个服务集群变成了网格状,这就是Service Mesh服务网格的由来。
架构演进,永无穷尽,痛点多了,自然要分层解耦。希望大家有收获,后续再细聊SM的设计与架构细节。
思路比结论更重要。
【本文为专栏作者“58沈剑”原创稿件,转载请联系原作者】
戳这里,看该作者更多好文
很赞哦!(78)