开发新功能
开发新任务的闻基同时,我们将监控分为API健康,于腾无码科技回滚、容器并且服务的服务服务负载并没达到极限,渐渐失去了对报警的实践关注。由PHP-fpm解释执行,街见架构甚至有些警报是闻基因为监控工具本身的不准确引起的。导致排查问题的于腾效率低,我们遇到3种镜像打包情况。容器也要保证优雅降级。服务服务
服务发现
Etcd搭建多节点高可用的实践服务发现。现在错误散落在不同的街见架构服务中,经过简化和设计的闻基控制台API,当重复的于腾报警一再出现,
服务器安全方面,该产品有技术架构复杂,同时为了线上调试方便,在服务未更新成功的时候流量暂时不能打到正在更新的节点。编译后生成的静态文件打入镜像,收集服务器metrics并发送给influxdb,comment服务集群等,归根结底,支持完全的kubernetes能力。
基础设施增加
每个服务有互相独立的MySQL、这样的方案要考虑到服务更新、
日志源增加
如何把服务的日志收集并分析。通过nginx访问。
服务端渲染
主站PC站基于nodejs、增加了系统的无码科技脆弱性,首创的7x24快讯模式已经成为在中文世界理解全球市场的最快来源。
后端项目
后端服务90%是golang项目,旗舰产品华尔街见闻APP长期位居各应用市场财经资讯类客户端第1位。
但遇到了非常致命的问题,我们将其改为批量拉取作者列表,减少了我们接入和开发的成本。我们要能弹性地通过增加服务资源,镜像构建、与Kubernetes健全的上线、内存占用率进行监控。同时,
比如在重大事件发生的时候,
三类镜像结构

持续集成
我们利用Gitlab CI配置了测试、测试环境,为了加速线上镜像构建的速度,一种是用户发现问题,我们需要拉取文章对应的作者信息,
服务器/容器负载
通过在服务器上运行telegraf daemon进程,
背景
老系统日益臃肿
原先的系统是PHP monolithic架构,法国大选等,搜索、内部服务器通过VPC进行网络隔离,manager作为调度节点,为我们的错误排查带来了困难。
在开发流程上,
排查问题的流程一般有两种情况,我们不得不用硬件弥补性能上的问题,只需要运行一条命令即可。避免每次都需要重新下载,申报问题,我们采用微服务架构启动重构,我们打入nginx镜像缺少的证书。
golang在华尔街见闻已经有过比较多的应用,不给内部服务器分配外网IP,
调试工具强大
自带一些pprof包可以profile当前程序的CPU消耗、一个隐藏的性能问题,
在运维方面,
线上调用追踪
通过追踪API调用链的流向与耗时,通过Nginx进行反向代理。需要高并发承载能力等特性。由于将重大事件、耗时过长。日志收集储存设施等。复用了腾讯云本身平台的监控、以及服务器/容器负载。通过增加容器为服务拓容,导致云服务器成本不断增加。日积月累,使用manager-worker架构,
性能对比
利用locust模拟线上请求的比例,比如频繁更新服务的时候会出现服务访问不到,在生产环境中又划分backend子网和data子网,并且对剩余一些报警进行调查,
容器化
swarm和kubernetes是基于docker快速创建删除服务,自此开发过上了幸福的生活。我们自定义了新的基础镜像,API gateway向服务发现查询具体服务的IP和端口,开发人员跟进问题;一种是我们的监控优先发现问题,CPU、基于最小的alpine镜像打包入docker,利用2台16核的压测机在内网对10台16C32G的机器上的服务进行压测,所以如果Docker Swarm和Kubernetes都没有成功,腾讯云提供的微服务架构和持续集成与交付的应用场景基本满足了我们的述求。Redis,
线上运维
由于没有方便的监控和运维工具,最后模块达到60+个,将请求转发到API gateway,
API健康
我们设置默认的时间区间是5分钟
统计API五分钟内平均QPS
API 98%以内的延迟分布
QPS最高的前10的API
API的返回码的分布
程序错误报警
后端程序内接入Sentry日志报警系统,支付、
PHP monolithic架构图

每台服务器部署相同的服务端PHP代码,
* Docker Swarm
这是我们最先选择的方案,所以我们有解除一些不必要的报警,更在服务的稳定性上经历了考验,内存占用、网络方面没有进行优化。它支持Docker,开发人员在用户反馈前跟进并修复。使得在系统遇到问题的时候排查困难,传输协议等。
服务拆分
拆分的原则是通过服务功能划分,需要定义自己服务接口的并发量、也因此,
监控与报警
由从外部系统表征到内部日志,支撑了几次重大新闻的高流量。自动拓容等。
简介
华尔街见闻的运营方上海阿牛信息科技有限公司是全球金融信息服务提供商,我们通过为监控系统谨慎设置报警阈值,这里遇到过一个问题,
容错性
我们希望一个低优先级服务出现问题之后,尽量避免双向依赖。当触发报警时,我们利用taobao源https://registry.npm.taobao.org进行加速, 并且将一些常见的npm依赖打入了基础镜像,商城、自动部署等流程,当遇到特大新闻如英国退欧、无法支持https,工程师使用golang开发几乎0学习成本。
golang在性能和开发效率上有很好的平衡,新人接手项目会拿到一整个系统的代码,我们不仅完成了线上服务从PHP到Golang的转型,超时时间以及fallback方法。某服务的负载均衡后挂载的服务IP是其它服务的,公共服务方面需要高可用的服务发现,市场的基本面变化和100多种全球资产价格紧密关联,支持一些高级功能如秘钥管理、下线、按项目类型划分,经过几个月的开发测试,后端服务间可互相访问。
CI任务中的test->build->docker->deploy流程

云平台的选择
最终,LB接受用户的请求,在报警方面,查看出错日志,仅通过跳板机访问。
部署方案
我们选择了Kubernetes。镜像发布、后端服务从提交代码到测试分支到测试环境自动部署完成花费1.5分钟,还是社区正在不断完善swarm,同一时间只有部分节点更新,
结束语
本文介绍了华尔街见闻通过重构和服务容器的重新部署,镜像打包从开始的3分钟缩减到1.5分钟。通过接口的设计方式,开始的时候我们使用拉取单个作者信息的方式,以及需要整个系统的配置,并发送报警邮件。评论、
* 裸机部署
裸机部署是我们的一个备案,内存限制等。负载均衡等产品的插件、研究等服务。由于监控系统对系统完整的监控,主要基于以下几点考虑:
腾讯云的容器服务是在腾讯云的Iaas上为每个用户构建容器集群,
服务间通信
服务间使用protobuf协议对数据进行编码,在初期调试容器间通信问题时发挥重要的作用。
腾讯云在Kubernetes上实现了他们的存储、提高服务的容量。包括用户、服务删除等逻辑,考虑到以上两个方案在当时没有具体线上实施的经验,往集群内加入机器非常简单,语法上很简单,网站的访问量会呈现锯齿形分布。前端服务平均为2.5分钟。每个微服务部署成腾讯云容器服务上的一个服务,所有业务都跑在一个程序里,配置管理、并发编程简单高效,前端接入通过一个负载均衡。程序错误报警,
云服务商成本
由于架构落后于需要,
前端静态文件
见闻的后台以及m站基于Vue,每天全平台为近200万用户提供资讯、
* Kubernetes
这是谷歌主导的服务编排工具,相比Docker Swarm来说,在金融领域具有极高渗透率。我们通过zipkin实际优化了几种情况:
服务调用冗余
当拉取文章列表的时候,
服务保护
我们选择Hystrix作为服务保护以及服务降级的方案。所以所有项目必须要构建docker镜像。
服务框架
我们选择golang作为我们的后端开发语言。能以极快的速度处理线上问题。golang程序捕获panic日志以及error日志,
服务耗时长
对于有些本身就比较耗时并且对即时性不是那么苛刻的计算服务,稳定性更高。缩减容器为服务缩小规模,增加了tcpdump、不影响主要服务;一个主要服务能保证更高的可用性,资讯具有时效性,功能方面多于Docker Swarm,调用链路分析,基础库健全。我们希望文章API保证不会受到影响。服务之间的通信有几率出现超时问题,而他可能只需要专注开发不到1/10的业务。并且支持非常好的拓展性,能在服务量激增的时候成为压垮骆驼的一根稻草。它的概念更多,
服务在腾讯云的应用
我们将我们的应用重构成微服务的架构,就算出现问题,而且需要利用pm2进行nodejs生命周期的管理。三方代理等服务。
技术选型
微服务架构图

每台服务器上均衡地部署服务,让我们可以拓展一些自己的组件,对服务器负载以及容器的平均CPU、减少了人工操作的重复性和误操作概率。
华尔街见闻微服务架构设计
因此,锁状态、不仅将证书文件打入镜像,支持高可用。即什么样的报警算是有意义的?我们遇到过每天10几条重复的报警,减少RPC的冗余。开发人员会收到邮件。在2016年11月至2017年3月,所以不仅需要依赖nodejs,搭建了完善的自动化工具,服务执行完业务逻辑后向上返回数据。使用UDP作为传输协议。能以最少的配置启动Docker集群。我们为了保证服务的响应时间,因为Docker 1.12之后已经将Swarm功能集成到Docker Engine,分层更细。这一设计会在某些方面增大我们的开发成本和运维成本。非常便利我们定位问题。功能按模块划分,
伸缩性
我们的主要业务是即时资讯,尝试解决一部分上述问题,
裸机部署的需要解决单机端口冲突,如服务发现、在伸缩性上能以服务为单位进行拓容,达到1w/s QPS以上,channel阻塞等,
每个服务开发者,我们选择了腾讯云的容器服务,拓容功能配合,服务重启、
为了禁止内部服务器的外网访问,Vue实现服务端渲染,实时新闻、
单体应用
PHP单体应用在生产环境服务的时候,content服务集群、 为了支持HTTP2,利用ansible可以定义user服务集群、日志等能力。有很多不稳定的地方,bash等工具,设定子网之间的访问规则。在生产环境的应用比较广泛,以前在单体应用中能直接登录服务器,我们自建了Gitlab仓库,调整服务如控制服务的数量、数据、
准备工作
代码托管
由于之前使用github开发人员的代码提交在有翻墙工具的帮助下速度依然不是很理想,这已经是之前PHP生产环境20+台16C32G服务器能达到的QPS。我们拆分出了13个服务,我们需要修复原有系统的性能问题。并划分服务器角色的方式进行部署,那么可以通过写脚本,通常开发人员开始时会对报警非常重视,后来性能调优阶段,我们可以找出性能的瓶颈。使用Grafana作为前端面板,我们采取将golang项目编译成可执行文件,里面包含几乎所有微服务组件,美国大选、
腾讯云的容器服务是基于Kubernetes实现的,将网络划分为生产环境、方便地管理集群、strace、会适量地加上缓存。我们直接裸机部署。内容、实践微服务架构的情况。针对golang的镜像,
错误排查复杂
很显然,通过分发二进制文件的方式让服务启动,
这里我们在报警的定义上有过思考,
有一些优秀的微服务框架
我们选用go-micro作为开发框架,就是alpine里缺少openssl的证书,