zblog的话能不能抗住50万篇文章?

[复制链接]
moneypk 发表于 2023-8-28 07:32:05|来自:北京 | 显示全部楼层 |阅读模式
网站是 http://52cw.net 目前10万篇左右,感觉随机打开中间的文章好卡,可能是配置问题,计划提高配置但是又怕zblog本事扛不住。(已经上了Google的4h4g)
全部回复5 显示全部楼层
sinalook 发表于 2023-8-28 07:32:53|来自:北京 | 显示全部楼层
建议搞个缓存的插件,里面有个比较贵的插件,100W的数据都没有问题。
# 数据库瘦身

简单重申下这个功能的原理,顾名思义,就是减少数据库的存储容量,程序会自动将文章内容剥离到普通文件里面,让数据库减少资源开销,提高效率
剥离的内容和数据库依然保持关联关系,插件会在 ZBlog 主程序加载文章的时候,从剥离的文件里面找的对应的文章无缝渲染到页面,用户角度 0 影响
当然剥离数据库内容到文件这些操作,插件都会自动完成,无需人工干预 ~

tyzyf 发表于 2023-8-28 07:33:52|来自:北京 | 显示全部楼层
10w篇文章只是占内存而已,不占打开速度,影响网站打开速度一般是带宽,并发量,PV浏览,如果您是技术,建议使用redis和mencache,如果只是个人站长就使用 cdn加速,或者提升带宽
cn521 发表于 2023-8-28 07:34:30|来自:北京 | 显示全部楼层
有没有做缓存?正常情况下zblog扛10万没什么问题,还有就是你的访问量是不是太大,访问量大的话估计要升级配置。
dle5374 发表于 2023-8-28 07:34:42|来自:北京 | 显示全部楼层
一般是没有什么问题的。
官网回复的结果是:在tag不多的情况下百万以上数据是没有问题的,如果tag过多的话需要使用插件来优化tag。
总结起来就是zblog支持百万级数据是没有问题的,光说怎么行,上官方的测试截图:



来源于网络

这个测试网站的数据是60多万,另外一个玩在干活的测试数据是110多万。
一般使用zblog都是写一些博客或者做一些小型的网站,真正达到一定数量级通常都是自己来开发程序了,所以通常完全不用担心数据量承载的问题,专心做好网站才是王道。

关注新手建站网(xinshoujianzhan.cn),让建站更简单!
我是色狼 发表于 2023-8-28 07:35:04|来自:北京 | 显示全部楼层
先看看问题出在哪里。
到这个量级应该是数据库瓶颈了吧,如果数据库服务器内存cpu较高需要升级配置,或者干脆优化下数据库分表分库什么的应该会好点。
我自己的站大概6万篇左右,用的阿里云rds1核1g没啥大问题。
然后这么高文章量爬虫压力应该也蛮大的,如果做好静态化,算力应该没啥大问题,主要是带宽可能会消耗比较多。
优化服务器性能还是得对症下药,盲目提高配置不一定能解决问题,还费钱。

快速回帖

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则