Avoid unexpected slowdown in vacuum regression test.
authorTom Lane <tgl@sss.pgh.pa.us>
Mon, 12 Jan 2015 20:13:37 +0000 (15:13 -0500)
committerTom Lane <tgl@sss.pgh.pa.us>
Mon, 12 Jan 2015 20:13:37 +0000 (15:13 -0500)
commite9f9ebfe65014ff701b3c0712d1036afea161d1f
tree4e97f34dbd9724b806b853c9fefe0432161cb873
parent41479f34dda93dc462cd0794835798444ae6daa9
Avoid unexpected slowdown in vacuum regression test.

I noticed the "vacuum" regression test taking really significantly longer
than it used to on a slow machine.  Investigation pointed the finger at
commit e415b469b33ba328765e39fd62edcd28f30d9c3c, which added creation of
an index using an extremely expensive index function.  That function was
evidently meant to be applied only twice ... but the test re-used an
existing test table, which up till a couple lines before that had had over
two thousand rows.  Depending on timing of the concurrent regression tests,
the intervening VACUUMs might have been unable to remove those
recently-dead rows, and then the index build would need to create index
entries for them too, leading to the wrap_do_analyze() function being
executed 2000+ times not twice.  Avoid this by using a different table
that is guaranteed to have only the intended two rows in it.

Back-patch to 9.0, like the commit that created the problem.
src/test/regress/expected/vacuum.out
src/test/regress/sql/vacuum.sql