在上一篇文章里,我讨论了使用临时表如何引起SQL Server里的重编译。在文章最后我提到,今天这篇文章我会聚焦表变量(Table Variables)的更多信息,它可以避免重编译的昂贵开销。我们来详细分析下。

表变量(Table Variables)

表变量总局限于提交到SQL Server的批处理语句范围。当你在批处理语句范围外引用表变量时,SQL Server就会返回你一条错误信息。这是和临时表相比第1个重大区别。下列代码向你展示了如何创建和使用表变量——只在简单存储过程的上下文里。

 CREATE PROCEDURE DemonstrateTableVariablesNoRecompiles
AS
BEGIN
DECLARE @tempTable TABLE
(
ID INT IDENTITY(1, 1) PRIMARY KEY,
FirstName CHAR(4000),
LastName CHAR(4000)
) INSERT INTO @TempTable (FirstName, LastName)
SELECT TOP 1000 name, name FROM master.dbo.syscolumns SELECT * FROM @TempTable
END
GO

表变量的好处是它们不会引起任何重编译。当你执行这个存储过程并用SQL Server Profiler跟踪时,不会发现重编译事件。

 EXEC dbo.DemonstrateTableVariablesNoRecompiles

探秘重编译(Recompilations)(2/2)-LMLPHP

为什么使用表变量就可以这样呢?首先表变量就是个变量——名副其实。当你定义你的表变量时,意味着你不会改变你的数据库架构。因此基于数据酷架构改变的重编译就可以避免。另外表变量是没有统计信息的。因此没有统计信息需要维护,第2个引起重编译原因也就消失了。

首先,这2样听起来都很棒,但当我们进一步分析时,就会发现它的重大缺点。我们来看看。表变量近乎就是个变量。在临时表里,表变量还是持续的。是的,你没看错:当你使用表变量时,会涉及到临时表里的物理I/O操作。这个可以用动态管理视图sys.dm_db_session_space_usage来验证,它是在会话级别跟踪临时表的使用率。我们来看下面的代码(请【新建查询】执行下列代码):

 -- Create a table variable
DECLARE @tempTable TABLE
(
ID INT IDENTITY(1, 1) PRIMARY KEY,
FirstName CHAR(4000),
LastName CHAR(4000)
) -- Insert 4 records into the table variable
INSERT INTO @tempTable (FirstName, LastName) VALUES
(
'Woody',
'Tu'
),
(
'Woody',
'Tu'
),
(
'Woody',
'Tu'
),
(
'Woody',
'Tu'
) -- Retrieve the data from the table variable.
-- The execution plan estimates 1 row.
SELECT * FROM @tempTable
GO -- Review the space used in TempDb.
-- Our table variable currently needs 5 pages in TempDb.
-- The 5 needed pages from the table variable are already marked for deallocation (column "user_objects_dealloc_page_count")
SELECT * FROM sys.dm_db_session_space_usage
WHERE session_id = @@SPID
GO

探秘重编译(Recompilations)(2/2)-LMLPHP

从图中可以看出,这个表变量在临时表里需要分配5个页。因为这个表变量已经超过范围,这5个页面也已被标记为重分配(deallocation)。你要知道这个副作用。

表变量也没有统计信息。因此这里没有重编译发生。但是作为一个副作用,查询优化器始终认为估计行数为1.这个会非常,非常糟糕。如果你从表变量连接你数据库里另外一张表。在那个情况下,查选优化器在执行计划里引入嵌套循环连接(Nested Loop Join)运算符,引用的表变量作为外表,因为估计行数是1。如果事实上返回行是10000或更多的话,整个执行计划就谈不上最优。我们来看下面的例子(点击工具栏的探秘重编译(Recompilations)(2/2)-LMLPHP显示包含实际的执行计划):

 CREATE PROCEDURE BadPerformingQuery
AS
BEGIN
DECLARE @tempTable TABLE
(
ID INT IDENTITY(1, 1) PRIMARY KEY,
FirstName CHAR(4000),
LastName CHAR(4000)
) INSERT INTO @TempTable (FirstName, LastName)
SELECT TOP 20000 name, name FROM master.dbo.syscolumns -- The physical Join Operator will be a Nested Loop,
-- because Nested Loop is optimized for 1 row in the outer loop.
SELECT * FROM AdventureWorks2008R2.Person.Person p
INNER JOIN @tempTable t ON t.ID = p.BusinessEntityID
END
GO

探秘重编译(Recompilations)(2/2)-LMLPHP

我们仔细看下聚集索引扫描( Clustered Index Scan)运算符的属性信息,你会看到这里的估计行数是1,而实际行数却是12622。

你可以通过自SQL Server 2005起引入的语句级别的重编译(Statement-Level Recompilation)来修正这个基数预估错误。

 -- Use a statement-level recompilation to fix the problem with the
-- cardinality estimation.
ALTER PROCEDURE BadPerformingQuery
AS
BEGIN
DECLARE @tempTable TABLE
(
ID INT IDENTITY(1, 1) PRIMARY KEY,
FirstName CHAR(4000),
LastName CHAR(4000)
) INSERT INTO @TempTable (FirstName, LastName)
SELECT TOP 20000 name, name FROM master.dbo.syscolumns -- The physical Join Operator will be a Nested Loop,
-- because Nested Loop is optimized for 1 row in the outer loop.
SELECT * FROM AdventureWorks2008R2.Person.Person p
INNER JOIN @tempTable t ON t.ID = p.BusinessEntityID
OPTION (RECOMPILE)
END
GO

探秘重编译(Recompilations)(2/2)-LMLPHP

但是这个方法有点产生相反效果的(counter-productive),因为你又引入了重编译,原先你使用表变量就是为了避免重编译。

小结

使用表变量你可以避免SQL Server里重编译的负荷,但同样也有副作用。最大的副作用就是错误参数估计——估计行数为1。因此当你和小数量行打交道时可以使用表变量,因为那时错误的基数预估并不重要,也不影响你的性能。但和大量数据行打交道时,它会伤害你的性能,因为生成了低效的执行计划。

作为通常的经验法则(general rule-of-thumb),对于大数量的数据,你应该使用临时表,表变量用在小数量的数据上。但是你真的要为你的工作量测试(benchmark)下,来决定什么时候使用临时表,什么时候使用表变量是正确的。

参考文章:

https://www.sqlpassion.at/archive/2014/11/16/recompilations-part-2-2/

05-11 13:29