Bug:下线了还在使用的积分
背景:积分 50350005、50350006 通过 NOS 监控(CMA)看是有读写的,HEB 监控(CMA)没有读写,判断这两个积分仅通过 ESP 配置进行读写,外部不再使用。 操作:下线了 50350005、50350006 积分的 ESP 配置。 现象:下线 ESP 配置三天后发现 NOS 监控仍然有读写量。 后果:积分 50350005 在 1.17 ~ 1.20 之间...
背景:积分 50350005、50350006 通过 NOS 监控(CMA)看是有读写的,HEB 监控(CMA)没有读写,判断这两个积分仅通过 ESP 配置进行读写,外部不再使用。 操作:下线了 50350005、50350006 积分的 ESP 配置。 现象:下线 ESP 配置三天后发现 NOS 监控仍然有读写量。 后果:积分 50350005 在 1.17 ~ 1.20 之间...
GSS新模型-重构思路 利用 MongoDB 对现有业务、未来可支持的业务进行数据建模,建立起多个数据模型,分别适用于不同类型的业务。 GSS新模型-CVS配置 GSS 的 CVS 配置从时间成本、安全隐患、后期维护的角度考虑,不再重新建表。 在旧的 define_hisgss 中,为每个要迁移的业务新建一个新的配置,用于双跑。双跑后期,将老 hid 对应的配置修改为新配置,具体细节...
1. 问题代码 std::ostringstream ossPid; ossPid << "[{\"pid\":" << pReq->dwPID << "}]"; // 手动攒出来一个string const char* ppids = ossPid.str().c_str(); // 问题代码 // 指针 ppids 传递给其他...
现象:修改了 2 亿条 Marker 的 1240 数据,直接采用 hincrby 的方式把所有 field 都加上去了。但是不同的 field 有不同的含义,最后导致近 20 万用户数据错误。 解决方案:用了两天的时间编写 py 脚本判断各种逻辑进行数据回退,但还是有上百用户的数据丢失了几次冠军数。 思考: 以后修改数据必须要明白目标数据的含义; ...
现象:重启服务器后,因为nginx没有正确启动,导致memos也启动失败 查看所有容器(包括已停止的容器): docker ps -a 重启memos容器: docker start memos 检查容器日志: docker logs memos 设置容器的重启策略(适用于已经创建的容器) doc...
双跑需要做的准备工作 1. 设置 TKService.ini 为 Store 设置要双跑 OSS-Mongo 的目标实例: [TKHisStoreService] TKObjectStorageService_Mongo_SPIF=10.30.20.249:30710:200 2. 开通所有机器的防火墙 找辛祥义开通两台机器的对端防火墙。 例如 Store 位于 10.30.2...
本文件有待整理 netstat -ano(网络连接、端口和相关进程) 命令解析 命令概述 netstat -ano:查看网络连接、监听端口和相关进程。它提供了关于网络活动的详细信息,帮助用户了解系统的网络状态和进程与网络连接之间的关系。 参数含义 -a:显示所有连接和监听端口。这包括TCP(传输控制协议)连接、UD...
更新: 2026年1月15日:还是会崩溃,崩溃的时候没有第三方插件在安装,感觉就是 VSCode 的问题,可能是插件版本或者 RemoteSSH 版本问题?不太懂。而且很多人也有同样的问题1 尽量还是直接用阿里云提供的 WorkBentch 吧,功能也挺多的,还不会牵连服务器崩溃。 1)现象: 通过 VSCode 的插件 Remote - SSH 远程登录阿里云的 Uban...
[TOC] 1. 筛选异常积分 1.1 筛选逻辑 通过 CMA 监控项,筛选出了从 2024.01.29 ~ 2024.07.29 内的所有异常积分。 异常积分:(1)不读不写;(2)只写不读;(3)只读不写 筛选的详细过程见另一个文档《#积分下线流程.md》。 1.2 筛选结果 异常积分数量统计如下: 不读不写 ...
[TOC] 2024 积分下线流程 1. Hive上的数据聚合 1)工作流介绍 【小海豚10.11.199.44】-【行为数据组-sql】-【积分下线_2024】 这个工作流是用来测试脚本和代码的,后面用来跑指定某天的CMA数据。 【小海豚10.11.199.44】-【行为数据组-sql】-【PyHiveTidyUpEidHistory】...