-5-26

单表最大的也在25万左右,历史数据表因为不涉及所以不用考虑,

难点在于这个规模的热点数据,变化非常频繁。

数据来源于一些检测设备的采集数据,一些大表,有可能在极短时间内(如几秒钟)可能大部分都会变化,

而且主程序也有一些后台服务需要不断轮询、读写某种类型的设备,所以要求信息交互时间尽可能短。

2、之前的解决方案是把所有热点数据,统一加载到共享内存里边,到也能够支撑的住(毫秒级的),但是由于系统架构升级,之前的程序(20年前的)不能兼容。

只能重新写一个,最先想到的是用redis,当时把所有API重写完成后,测试发现效率不行

原文地址:https://www.cnblogs.com/coder-2017/p/9094056.html