Put a CHECK_FOR_INTERRUPTS call into the loops that try to find a unique new
authorTom Lane <tgl@sss.pgh.pa.us>
Wed, 20 Feb 2008 17:44:09 +0000 (17:44 +0000)
committerTom Lane <tgl@sss.pgh.pa.us>
Wed, 20 Feb 2008 17:44:09 +0000 (17:44 +0000)
OID or new relfilenode.  If the existing OIDs are sufficiently densely
populated, this could take a long time (perhaps even be an infinite loop),
so it seems wise to allow the system to respond to a cancel interrupt here.
Per a gripe from Jacky Leng.

Backpatch as far as 8.1.  Older versions just fail on OID collision,
instead of looping.

src/backend/catalog/catalog.c

index bc94a5ca2aa0f71cdc56356170a915d993ed06c4..872135affebb774fb8555cf6583aac55bed24384 100644 (file)
@@ -10,7 +10,7 @@
  *
  *
  * IDENTIFICATION
- *   $PostgreSQL: pgsql/src/backend/catalog/catalog.c,v 1.72 2008/01/01 19:45:48 momjian Exp $
+ *   $PostgreSQL: pgsql/src/backend/catalog/catalog.c,v 1.73 2008/02/20 17:44:09 tgl Exp $
  *
  *-------------------------------------------------------------------------
  */
@@ -374,6 +374,8 @@ GetNewOidWithIndex(Relation relation, Relation indexrel)
    /* Generate new OIDs until we find one not in the table */
    do
    {
+       CHECK_FOR_INTERRUPTS();
+
        newOid = GetNewObjectId();
 
        ScanKeyInit(&key,
@@ -423,6 +425,8 @@ GetNewRelFileNode(Oid reltablespace, bool relisshared, Relation pg_class)
 
    do
    {
+       CHECK_FOR_INTERRUPTS();
+
        /* Generate the OID */
        if (pg_class)
            rnode.relNode = GetNewOid(pg_class);