我正在尝试设置一个基本的 Nginx+SSI 示例:
Nginx 配置(只是相关部分,为简洁起见):
ssi on;
proxy_cache_path /var/cache/nginx levels=1:2 keys_zone=my_cache:20m max_size=20m inactive=60m use_temp_path=off;
server {
listen 80;
server_name localhost;
location / {
proxy_cache my_cache;
proxy_set_header Host $host;
proxy_http_version 1.1;
proxy_buffering on;
proxy_pass http://127.0.0.1:81;
}
}
server {
listen 81;
root /path/to/root;
location ~ ^/.+\.php {
fastcgi_pass 127.0.0.1:9000;
}
}
ssi.php:
<?php
header('Cache-Control: public, s-maxage=5');
?>
Time: <?php echo time(); ?>
Fragment time: <!--# include virtual="/time.php" -->
时间.php:
<?php
header('Cache-Control: no-cache');
echo time();
包含工作得很好:
现在,一秒钟后,我希望页面 (ssi.php) 仍然被缓存,但
time.php
片段是新鲜的:但是它在 5 秒内保持完全相同,之后 ssi 页面与片段一起更新:
我以前用 ESI 和 Varnish 做过这个,并希望这与 SSI 一样。我的假设是错误的吗?我无法在网上找到答案,并且尝试了不同的缓存控制 header ,但我很确定这是正确的方法。我在这里缺少什么?
最佳答案
您的配置存在问题:您在两台服务器中都启用了 SSI,原因是
ssi on;
在 http{} 级别定义。这会导致 SSI 指令在第二个服务器中扩展{}。{}缓存在第一个服务器中的响应中没有任何 SSI 指令(已经扩展了),因此它始终保持不变。
如果您希望包含的片段在每个请求中都是最新的,则必须仅在第一台服务器中启用 SSI,例如:
proxy_cache_path /path/to/cache keys_zone=my_cache:20m;
server {
listen 80;
server_name first.example.com;
location / {
proxy_pass http://127.0.0.1:81;
proxy_cache my_cache;
ssi on;
}
}
server {
listen 81;
server_name second.example.com;
location ~ ^/.+\.php {
fastcgi_pass 127.0.0.1:9000;
}
}
请注意,
ssi on
与 proxy_cache my_cache
一起位于第一个服务器中。这样 nginx 将缓存带有 SSI 指令的后端响应,并将在每个请求上重做 SSI 处理,如果需要,单独缓存。关于php - Nginx/SSI 独立片段缓存,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38000435/