刺客信条3太卡怎么办(刺客信条3卡顿严重)
刺客信条手游上线,注册延迟卡顿丢包闪退无法链接解决办法
育碧的刺客信条IP可以说是深入人心了,自2007年发售至今近二十部作品、全系列销量突破2亿份就足以证明这个系列的影响力与品质。值得注意的是,育碧近些年除了在主机端以及PC端发力的同时,也将注意力转移到了移动端。
近日,育碧全新手游作品《刺客信条代号Jade》已经开始开放预注册,这也预示着这部手游作品即将上线,通过此前公布的信息和视频来看,刺客信条手游保留了原有内核玩法的同时,将游戏背景设置在了中国远古之代,身为刺客信条老玩家的我还是无比期待的。因为刚要上线,所以还有很多玩家还不知道如何注册下载,今天就教大家一键解决这个问题~
第一步:使用【迅游手游加速器】
苹果系统的玩家,直接在Appstroe中搜索迅游手游加速器,然后下载安装;安卓系统的玩家,则需要到官网下载新版加速器App,下载安装并登录。
第二步:在App内搜索【刺客信条】
进入App后,我们直接在上方搜索【刺客信条】,就可以看到链接啦,然后点击后即可注册、下载游戏。苹果用户会提示获取海外ID,大家按照步骤来获取海外ID即可。
第三步:兑换白嫖加速时长
这一步很关键,大家记得在个人中心、兑换码位置处输入白嫖口令【rui】,就可以获取白嫖加速时长,来享受丝滑的游戏体验~
以上就是刺客信条手游上线,注册延迟卡顿丢包闪退无法链接解决办法啦,是不是超级简单呢?
Nginx reuseport导致偶发性卡顿
背景从2018年开始,我们有个业务陆续接到反馈 Nginx 线上集群经常出现不响应或者偶发性的“超慢”请求。这种卡顿每天都有少量出现。而只有多个集群中的一个出现,其他压力更大的集群皆未出现。业务结构比较简单:LVS->Nginx->后端,如图所示:
一些观察到的现象:
出题前不长久升级 Nginx 配置,打开了 reuseport 功能在压力大的后端(upstream)服务环境不容易出现,后端压力轻对应的Nginx卡顿率更高关闭reuseport 后问题少了很多失败的请求响应时间都是0ms(Nginx日志不靠谱了)从Nginx日志上看,所有失败的健康检查请求都是0ms的499错误码(健康检查设置超过2秒),但实际出问题的时间有5s -2分钟没有任何日志输出(Nginx卡了这么久)要么是Nginx卡住没有去accept,要么是accept了没有响应所有超时来自同一个worker(一个Nginx服务一般按摄像头核数启动多个worker)并且已知,卡顿的原因是打开 reuseport 后,新进来的请求可以由内核 hash 派发给一个 Nginx woker ,避免了锁争抢以及惊群。但如果网络条件足够好,压力足够低,Nginx worker 一直来不及读完 receive buffer 中的内容时,就无法切换并处理其他的 request,于是在新请求的客户端会观测不间断的卡顿,而压力大的后端由于网络传输慢,经常卡顿,Nginx worker 反而有时间能处理别的请求。在调小 receive buffer 人为制造卡顿后该问题得以解决。
目标由于所述场景比较复杂,缺乏直接证据,我打算通过构造一个较简单的环境来复现这个问题,并且在这个过程中抓包、观测 Nginx worker 的具体行为,验证这个假设。
术语快连接和慢连接快连接:通常是传输时间短、传输量小的连接,耗时通常是ms级别慢连接:通常是传输时间长、传输量大的连接,可以维持传输状态一段时间(如30s, 1min)在本次场景复现过程中,这两种连接都是短连接,每次请求开始前都需要三次握手建立连接,结束后都需要四次挥手销毁连接。
EpollNginx使用了epoll模型,epoll 是多路复用的一种实现。在多路复用的场景下,一个task(process)会批量处理多个socket,哪个来了数据就去读那个。这就意味着要公平对待所有这些socket,不能阻塞在任何socket的”数据读”上,也就是说不能在阻塞模式下针对任何socket调用recv/recvfrom。
epoll 每次循环为O(1) 操作,循环前会得到一个就绪队列,其中包含所有已经准备好的 socket stream(有数据可读),不需要循环全部 socket stream 读取数据,在循环后会将被读取数据的 stream 重新放回睡眠队列。睡眠队列中的 socket stream 有数据可读时,再唤醒加入到 就绪队列中。
epoll 伪代码 (不包含唤醒、睡眠)
scss复制代码while(true) { streamArr = getEpollReadyStream(); // 找到准备好的stream for(Stream i: streamArr) { // 循环准备好的stream doSomething(); }}reuseport与惊群
Nginx reuseport 选项解决惊群的问题:在 TCP 多进程/线程场景中(B 图),服务端如果所有新连接只保存在一个 listen socket 的全连接队列中,那么多个进程/线程去这个队列里获取(accept)新的连接,势必会出现多个进程/线程对一个公共资源的争抢,争抢过程中,大量资源的损耗,也就会发生惊群现象。
而开启reuseport后(C 图),有多个 listener 共同 bind/listen 相同的 IP/PORT,也就是说每个进程/线程有一个独立的 listener,相当于每个进程/线程独享一个 listener 的全连接队列,新的连接请求由内核hash分配,不需要多个进程/线程竞争某个公共资源,能充分利用多核,减少竞争的资源消耗,效率自然提高了。
但同时也是由于这个分配机制,避免了上下文切换,在服务压力不大,网络情况足够好的情况下,进程/线程更有可能专注于持续读取某个慢连接数据而忽视快连接建立的请求,从而造成快连接方卡顿。
复现过程思路整体的架构是N个client->1个Nginx->N个server。因为卡顿原因和reuseport机制有关,和server数量无关,server数量设为任意数字都能复现,这里为了方便设成1。client数量设为2,为了将快连接和慢连接区分开便于抓包观测用慢连接制造卡顿环境,用快连接观测卡顿。在快连接客户端进行观测和抓包进程数量要足够少,使得同一个 worker 有几率分配到多个连接worker_processes 2连接数目要足够多,慢连接数目>=进程数量,使得快连接在分配时,有一定概率分配到一个正在处理慢连接的worker上reuseport: 这个配置要开启,卡顿现象才能观测到。listen 8000 reuseport环境linux kernal version: 6.1linux image: amazon/al2023-ami-2023.0.20230419.0-kernel-6.1-x86_64instance type:1X AWS t2.micro (1 vCPU, 1GiB RAM) – Nginx client(fast request)3X AWS t3.micro (2 vCPU, 1GiB RAM) – Http server, Nginx server, Nginx client(slow request)
操作在server instance上放置一个 2GiB 大文件(0000000000000000.data)和一个 3MiB 小文件(server.pcap),并开启一个http serverbash复制代码nohup python -m http.server 8000在Nginx instance上安装、配置好Nginx,并启动Nginx (注意要绑核!)
bash复制代码# installsudo yum install nginx# config (/etc/nginx/nginxnf)user nginx;worker_processes 2;error_log /var/log/nginx/error.log notice;pid /run/nginx.pid;include /usr/share/nginx/modules/*nf;events { worker_connections 1024;}http { log_format main '$remote_addr [$time_local] "$request" ' 'status=$status body_bytes_sent=$body_bytes_sent ' 'rt=$request_time uct="$upstream_connect_time" uht="$upstream_header_time" urt="$upstream_response_time"'; access_log /var/log/nginx/access.log main; sendfile on; tcp_nopush on; keepalive_timeout 60; types_hash_max_size 4096; include /etc/nginx/mime.types; default_type application/octet-stream; # Load modular configuration files from the /etc/nginx/conf.d directory. # See /d/file/gt/2023-09/30bp43ldjpd.html # for more information. include /etc/nginx/conf.d/*nf; server { listen 8000 reuseport; server_name server1; root /usr/share/nginx/html; # Load configuration files for the default server block. include /etc/nginx/default.d/*nf; location / { proxy_pass http://172.31.86.252:8000; # server ip proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; } error_page 404 /404.html; location = /404.html { } error_page 500 502 503 504 /50x.html; location = /50x.html { } }}# start nginxsudo taskset -c 0 nginx启动慢连接client,开启4个下载进程并计时,测试脚本在此4. 启动快连接client,开启1个下载进程并计时,抓包,测试脚本在此需要注意的是此处使用了curl --max-time 1,意味着即使1s内文件没有下载完,也会自动终止。5. 进入Nginx instance观察access.log6. 关掉reuseport或者调小recv buffer大小,重试一次结果
ip maping:
makefile复制代码172.31.86.252: http server172.31.89.152: nginx server172.31.91.109: 快连接 client172.31.92.10: 慢连接 client快连接client端:下载同一个小文件的下载时长有快有慢,方差很大,完整日志在此
ini复制代码[2023-05-31 08:27:32,127] runtime=1010[2023-05-31 08:27:33,140] runtime=1009[2023-05-31 08:27:34,152] runtime=38[2023-05-31 08:27:34,192] runtime=1011[2023-05-31 08:27:35,205] runtime=37[2023-05-31 08:27:35,245] runtime=1008[2023-05-31 08:27:36,256] runtime=57[2023-05-31 08:27:36,315] runtime=1011快连接client:无论耗时长短,抓包结果都显示存在不同程度卡顿,抓包文件在此耗时长的下载过程耗时短的下载过程Nginx access.log 存在大量未下载完的200请求,和少量499请求,且499请求的耗时为0,access.log文件在此卡顿的日志建立连接时长(utc)在0.3-0.4ms左右,超过1s的就出现499了
ini复制代码172.31.91.109 [31/May/2023:08:27:49 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=102195 rt=0.790 uct="0.413" uht="0.592" urt="0.791"172.31.91.109 [31/May/2023:08:27:50 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.058 uct="0.000" uht="0.002" urt="0.053"172.31.91.109 [31/May/2023:08:27:51 +0000] "GET /server.pcap HTTP/1.1" status=499 body_bytes_sent=0 rt=0.000 uct="-" uht="-" urt="0.000"172.31.91.109 [31/May/2023:08:27:51 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=102195 rt=0.763 uct="0.400" uht="0.580" urt="0.763"172.31.91.109 [31/May/2023:08:27:52 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=102195 rt=0.767 uct="0.480" uht="0.768" urt="0.768"172.31.91.109 [31/May/2023:08:27:53 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=580007 rt=0.773 uct="0.330" uht="0.431" urt="0.773"172.31.91.109 [31/May/2023:08:27:55 +0000] "GET /server.pcap HTTP/1.1" status=499 body_bytes_sent=0 rt=0.000 uct="-" uht="-" urt="0.000"172.31.91.109 [31/May/2023:08:27:55 +0000] "GET /server.pcap HTTP/1.1" status=499 body_bytes_sent=0 rt=0.000 uct="-" uht="-" urt="0.000"
下载中途被关闭的连接(200),可以观测到Nginx server在客户端已经请求FIN并被ACK之后仍然在发送一些网络数据包,客户端非常迷惑,向Nginx发送RST
未和Nginx建立连接就被关闭的连接(499),可以观测到连接始终没有被建立,在等待1s后客户端超时,主动请求关连接
4. 限制Nginx server所在的instance的recv buffer大小,重新进行实验,可以观测到仍然有少量停顿,但整体耗时好了很多,不再有长达1s的卡顿,也不再有RST,完整日志在此
ini复制代码sysctl -w net.ipv4.tcp_rmem="40960 40960 40960"
client runtime log: 耗时稳定在50-100ms,比无慢连接、纯跑快连接时要大一倍(25-50ms)
ini复制代码[2023-06-05 06:13:22,791] runtime=120[2023-06-05 06:13:22,913] runtime=82[2023-06-05 06:13:22,997] runtime=54[2023-06-05 06:13:23,054] runtime=61[2023-06-05 06:13:23,118] runtime=109[2023-06-05 06:13:23,229] runtime=58[2023-06-05 06:13:23,290] runtime=55[2023-06-05 06:13:23,347] runtime=79[2023-06-05 06:13:23,429] runtime=65[2023-06-05 06:13:23,497] runtime=53
client 抓包结果:
Nginx access.log: 都发完了,而且发得很流畅,建立连接时间(utc)非常短
ini复制代码172.31.91.109 [05/Jun/2023:06:13:22 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.101 uct="0.001" uht="0.004" urt="0.101"172.31.91.109 [05/Jun/2023:06:13:22 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.064 uct="0.001" uht="0.002" urt="0.064"172.31.91.109 [05/Jun/2023:06:13:23 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.044 uct="0.000" uht="0.001" urt="0.044"172.31.91.109 [05/Jun/2023:06:13:23 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.047 uct="0.000" uht="0.001" urt="0.047"172.31.91.109 [05/Jun/2023:06:13:23 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.100 uct="0.000" uht="0.001" urt="0.099"172.31.91.109 [05/Jun/2023:06:13:23 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.047 uct="0.000" uht="0.001" urt="0.047"172.31.91.109 [05/Jun/2023:06:13:23 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.045 uct="0.001" uht="0.002" urt="0.045"172.31.91.109 [05/Jun/2023:06:13:23 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=3602590 rt=0.066 uct="0.000" uht="0.002" urt="0.066"
对于慢连接大文件下载时长略有影响:46s (无限制) vs 53s (有限制)5. 关闭nginx reuseport: 卡顿依然大量存在,但大多以连接能够建立但是下载不完的形式(200)出现,499较少,并且存在惊群现象,完整日志在此
arduino复制代码server { listen 8000;
client runtime log:存在卡顿,和benchmark没有区别
ini复制代码[2023-06-05 06:38:06,682] runtime=1008[2023-06-05 06:38:07,692] runtime=1008[2023-06-05 06:38:08,703] runtime=220[2023-06-05 06:38:08,926] runtime=112[2023-06-05 06:38:09,040] runtime=60[2023-06-05 06:38:09,103] runtime=865[2023-06-05 06:38:09,970] runtime=1009[2023-06-05 06:38:10,982] runtime=1008[2023-06-05 06:38:11,992] runtime=1009
client抓包结果:存在卡顿,存在RST,和benchmark没有区别
access.log:卡顿的日志连接时间比benchmark略短,在0.2-0.3s左右,出现499的情况少了但是依然会有
ini复制代码172.31.91.109 [05/Jun/2023:06:38:02 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=204595 rt=0.844 uct="0.362" uht="0.539" urt="0.845"172.31.91.109 [05/Jun/2023:06:38:03 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=204595 rt=0.907 uct="0.334" uht="0.476" urt="0.906"172.31.91.109 [05/Jun/2023:06:38:04 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=543900 rt=0.836 uct="0.319" uht="0.504" urt="0.836"172.31.91.109 [05/Jun/2023:06:38:05 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=204595 rt=0.831 uct="0.161" uht="0.480" urt="0.830"172.31.91.109 [05/Jun/2023:06:38:06 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=552849 rt=0.820 uct="0.180" uht="0.329" urt="0.819"172.31.91.109 [05/Jun/2023:06:38:07 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=204595 rt=0.800 uct="0.122" uht="0.462" urt="0.800"172.31.91.109 [05/Jun/2023:06:38:08 +0000] "GET /server.pcap HTTP/1.1" status=200 body_bytes_sent=543900 rt=0.871 uct="0.251" uht="0.380" urt="0.871"
存在惊群现象,以下是Nginx worker进程的cpu使用率和上下文切换频率对比
bash复制代码# 每5s输出一次统计结果pidstat -w -u 5
两者的cpu使用率和上下文切换频率差不多,但关闭reuseport后花在wait上的cpu时间明显增加(1.3-1.6% vs 2.8-2.9%),这就是惊群带来的性能损耗。原始文件:开启reuseport,关闭reuseport
yaml复制代码# 开启reuseportAverage: UID PID %usr %system %guest %wait %CPU CPU CommandAverage: 992 2590 1.77 9.57 0.00 1.25 11.35 - nginxAverage: 992 2591 1.37 5.75 0.00 1.62 7.12 - nginxAverage: UID PID cswch/s nvcswch/s CommandAverage: 992 2590 179.18 49.64 nginxAverage: 992 2591 342.51 9.87 nginx# 关闭reuseportAverage: UID PID %usr %system %guest %wait %CPU CPU CommandAverage: 992 2788 1.02 8.02 0.00 2.80 9.04 - nginxAverage: 992 2789 0.92 9.07 0.00 2.97 9.99 - nginxAverage: UID PID cswch/s nvcswch/s CommandAverage: 992 2788 159.06 28.68 nginxAverage: 992 2789 250.26 22.93 nginx
惊群对于慢连接大文件下载时长略有影响:46s (开reuseport) vs 53s (关reuseport)6. 其他的观察
最初复现的场景是所有的instance都是t2.micro,但开2个慢连接进程时比较难复现,开4个进程又太容易触发限流,所以开始考虑用大一些又没那么容易限流的instance型号。考虑到aws是通过间歇掉包来限速的,慢连接进程数量并非越大越好,引发限速后反而会造成网络连接不畅,造成慢连接卡顿,使得快连接卡顿反而不容易观测。最后选择将慢连接全链路改成t3.micro,结果好复现多了。
可以观察到有一些access.log上499的连接,各种计时也是0,这其实是因为计时也是通过worker进行的,只有进行epoll和上下文切换才会在日志上打入时间信息,worker如果一直不进行切换,那么计时就会失真,就会看到日志上计时也是0的现象。
结论reuseport是Nginx避开免惊群的优秀特性,应该开启;启动reuseport后如果网络情况非常好和后端服务压力不大,并且存在于大量缓慢连接时,会生成快速连接卡顿,这就是Nginx的worker-epoll框架带来的,原因是recv buffer一直读不完,缺少epoll和上下文切换的条件来接受新的请求、同时给多个连接发送包;减少recv buffer通过人为制造卡顿,提供epoll切换连接的条件,可以很大程度解决这个问题,同时带来的负载效果是有的定性能力受损。但卡顿无法根除,只能控制在可接受范围内。声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送至邮件举报,一经查实,本站将立刻删除。转载务必注明出处:http://www.hixs.net/article/20231002/169494758718345.html