时间:2021-07-01 10:21:17 帮助过:20人阅读
CACHE_LIFE) { unlink($file); } } } //回调函数 auto_cache ob_start('auto_cache');}else{ //不是GET的请求就删除缓存文件。 if(file_exists($cache_file))unlink($cache_file);}?>
这么高的吞吐量,用文件缓存是不可能的
那怎么缓存?
这么高的吞吐量,用文件缓存是不可能的
那怎么办?????
当然是换服务器,你的量都超门户站了。
不是有基于内存的缓存软件和数据库吗?
你可以根据你的硬件配置和操作系统选一款
不是有基于内存的缓存软件和数据库吗?
你可以根据你的硬件配置和操作系统选一款
呵呵其实我说的夸张了些,,,没有访问那么多,,就是 发现 访问多了之后 打开速度很慢,,
而且cpu 占用很多,,删除缓存后, 貌似好一些,,,请高手看看, 是否是我的缓存写的有些问题。。
不是有基于内存的缓存软件和数据库吗?
你可以根据你的硬件配置和操作系统选一款
大概高峰期,每秒访问20次吧,一共30个网站,这样 就有60次
先优化下代码和SQL吧,然后是文件分离、缓存,基本可以解决大部分的高并发,如果还不行说明你的量不是一般的技术上能解决的,看看yahoo、google怎么做的吧。
大概高峰期,每秒访问20次吧,一共30个网站,这样 就有60次
影响网站访问速度的因素很多,比如数据库压力,服务器压力,带宽压力等,如果是你标题说的每秒万次PV,那我前面说的随便哪个都不是一台服务器能承受的,你必须做服务器集群了。如果是你后面说每秒20次,以我经验数据库和服务器都无压力,只有带宽可能在这种访问量下造成瓶颈。你算下你一个页面所有资源的总大小乘以20是否超出你的带宽。
影响网站访问速度的因素很多,比如数据库压力,服务器压力,带宽压力等,如果是你标题说的每秒万次PV,那我前面说的随便哪个都不是一台服务器能承受的,你必须做服务器集群了。如果是你后面说每秒20次,以我经验数据库和服务器都无压力,只有带宽可能在这种访问量下造成瓶颈。你算下你一个页面所有资源的总大小乘以20是否超出你的带宽。
目前发现 是缓存文件数量过大, 导致每次访问调用缓存文件,占用资源,,
希望高手 解答,重金相谢!!
影响网站访问速度的因素很多,比如数据库压力,服务器压力,带宽压力等,如果是你标题说的每秒万次PV,那我前面说的随便哪个都不是一台服务器能承受的,你必须做服务器集群了。如果是你后面说每秒20次,以我经验数据库和服务器都无压力,只有带宽可能在这种访问量下造成瓶颈。你算下你一个页面所有资源的总大小乘以20是否超出你的带宽。
目前发现 是缓存文件数量过大, 导致每次访问调用缓存文件,占用资源,,
希望高手 解答,重金相谢!!
freemaker 搞成静态的网页