我正在尝试设置一个基本的 Nginx+SSI 示例:

Nginx 配置(只是相关部分,为简洁起见):

ssi on;
proxy_cache_path /var/cache/nginx levels=1:2 keys_zone=my_cache:20m max_size=20m inactive=60m use_temp_path=off;

server {
  listen 80;
  server_name localhost;
  location / {
    proxy_cache  my_cache;
    proxy_set_header  Host $host;
    proxy_http_version  1.1;
    proxy_buffering  on;
    proxy_pass  http://127.0.0.1:81;
  }
}

server {
  listen 81;
  root /path/to/root;
  location ~ ^/.+\.php {
    fastcgi_pass  127.0.0.1:9000;
  }
}

ssi.php:
<?php
header('Cache-Control: public, s-maxage=5');
?>
Time: <?php echo time(); ?>
Fragment time: <!--# include virtual="/time.php" -->

时间.php:
<?php
header('Cache-Control: no-cache');
echo time();

包含工作得很好:



现在,一秒钟后,我希望页面 (ssi.php) 仍然被缓存,但 time.php 片段是新鲜的:



但是它在 5 秒内保持完全相同,之后 ssi 页面与片段一起更新:



我以前用 ESI 和 Varnish 做过这个,并希望这与 SSI 一样。我的假设是错误的吗?我无法在网上找到答案,并且尝试了不同的缓存控制 header ,但我很确定这是正确的方法。我在这里缺少什么?

最佳答案

您的配置存在问题:您在两台服务器中都启用了 SSI,原因是

ssi on;

在 http{} 级别定义。这会导致 SSI 指令在第二个服务器中扩展{}。{}缓存在第一个服务器中的响应中没有任何 SSI 指令(已经扩展了),因此它始终保持不变。

如果您希望包含的片段在每个请求中都是最新的,则必须仅在第一台服务器中启用 SSI,例如:
proxy_cache_path /path/to/cache keys_zone=my_cache:20m;

server {
    listen 80;
    server_name first.example.com;

    location / {
        proxy_pass  http://127.0.0.1:81;
        proxy_cache my_cache;
        ssi on;
    }
}

server {
    listen 81;
    server_name second.example.com;

    location ~ ^/.+\.php {
        fastcgi_pass  127.0.0.1:9000;
    }
}

请注意, ssi onproxy_cache my_cache 一起位于第一个服务器中。这样 nginx 将缓存带有 SSI 指令的后端响应,并将在每个请求上重做 SSI 处理,如果需要,单独缓存。

关于php - Nginx/SSI 独立片段缓存,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/38000435/

10-12 13:01