没有分片的PostgreSQL上的100TB数据库

在多个节点之间没有 data sharding的Postgresql上设置100 TB数据库(实际上大约90 TB)是否现实?是否有关于类似设置的成功案例/示例?
每秒50K写入需要吸收的不仅仅是挑战.即使在具有非常简单插入的合成基准测试中,Postgresql的限制也往往大约在10 K / s左右 – 而且在数据库大小方面你甚至没有这么大的野兽.

对于单个Postgresql节点的I / O系统也会很有趣,即使使用RAID 10并且假设50K插入将等于仅50K IOPS(这可能是错误的,但它取决于您的数据库方案和索引),你将需要大约一百个磁盘与一个非常好的阵列配对,这可以节省你购买数百个磁盘以及时为这些写入服务.

如果分片很容易,并且您期望如此巨大的写入负载,那么请进行分片.写作可能很难扩展.

相关文章

项目需要,有个数据需要导入,拿到手一开始以为是mysql,结果...
本文小编为大家详细介绍“怎么查看PostgreSQL数据库中所有表...
错误现象问题原因这是在远程连接时pg_hba.conf文件没有配置正...
因本地资源有限,在公共测试环境搭建了PGsql环境,从数据库本...
wamp 环境 这个提示就是说你的版本低于10了。 先打印ph...
psycopg2.OperationalError: SSL SYSCALL error: EOF detect...